本章の目的
No.04ではNo.02よりも多くのデータをデータセットとして生成しました.しかし,あまりにも多すぎる特徴量は,株価の取引最適化が困難になると予測されます.
株価の取引の最適化は,2つのステップが内部的に存在することが考えられます.
- 株価の予測
- 取引量の予測
そこで今回は,ステップ1の株価の予測を事前に行い,予測値を強化学習に渡すことで,特徴量を大幅に減らします.
本章の目的は,No.04で作成したデータセットを基に,N日後の株価を予測すること.および,予測値を新しいデータセットとして作成すること.の2点です.
ディレクトリ・ファイル構造
work_share
├05_lightGBM_predict
├Dockerfile
├docker-compose.yml
└src
├dataset(自動生成)
├result(自動生成)
├experiment01.py
└make_predict_result_dataset.py
本章では以下の6つのプログラムを作成し,順次実行していくことでデータセットを作成します.
- experiment01.py
- make_predict_result_dataset.py
Dockerfile
FROM nvcr.io/nvidia/pytorch:22.04-py3
USER root
RUN apt-get update
RUN apt-get -y install locales && \
localedef -f UTF-8 -i ja_JP ja_JP.UTF-8
ENV LANG ja_JP.UTF-8
ENV LANGUAGE ja_JP:ja
ENV LC_ALL ja_JP.UTF-8
ENV TZ JST-9
ENV TERM xterm
ENV TZ=Asia/Tokyo
RUN ln -snf /usr/share/zoneinfo/$TZ /etc/localtime && echo $TZ > /etc/timezone
ENV PYTHONPATH "/root/src:$PYTHONPATH"
RUN apt-get update
RUN pip install --upgrade pip
RUN pip install --upgrade setuptools
RUN python -m pip install requests
RUN python -m pip install numpy
RUN python -m pip install pandas
RUN python -m pip install matplotlib
RUN python -m pip install scikit-learn
RUN python -m pip install optuna
RUN python -m pip install seaborn
RUN apt-get install -y gconf-service libasound2 libatk1.0-0 libatk-bridge2.0-0 libc6 libcairo2 libcups2 libdbus-1-3 libexpat1 libfontconfig1 libgcc1 libgconf-2-4 libgdk-pixbuf2.0-0 libglib2.0-0 libgtk-3-0 libnspr4 libpango-1.0-0 libpangocairo-1.0-0 libstdc++6 libx11-6 libx11-xcb1 libxcb1 libxcomposite1 libxcursor1 libxdamage1 libxext6 libxfixes3 libxi6 libxrandr2 libxrender1 libxss1 libxtst6 ca-certificates fonts-liberation libappindicator1 libnss3 lsb-release xdg-utils wget
RUN python -m pip install japanize-matplotlib
RUN python -m pip install lightgbm
RUN python -m pip install notebook
RUN python -m pip install tqdm
RUN python -m pip install pandas_datareader
RUN python -m pip install yfinance
RUN python -m pip install xlrd
RUN python -m pip install pfrl
RUN python -m pip install gym==0.22.0
ARG USERNAME=user
ARG GROUPNAME=user
ARG UID=1000
ARG GID=1000
ARG PASSWORD=user
RUN groupadd -g $GID $GROUPNAME && \
useradd -m -s /bin/bash -u $UID -g $GID -G sudo $USERNAME && \
echo $USERNAME:$PASSWORD | chpasswd
USER $USERNAME
docker-compose.yml
ほとんど前回書いたymlと変わりませんが, -../01_get_stock_price/src/dataset_2018_2023:/work/dataset
が追記されています.これにより前回生成したデータセットのディレクトリをマウントすることができます.
version: '3'
services:
stock_predict_python:
restart: always
build: .
container_name: 'python_stock_predict'
working_dir: '/work/src'
tty: true
volumes:
- ./src:/work/src
- ../04_get_stock_price_ver2/src/dataset:/work/dataset
ports:
- 8888:8888
ulimits:
memlock: -1
stack: -1
shm_size: '10gb'
deploy:
resources:
reservations:
devices:
- capabilities: [gpu]
コンテナの実行と仮想環境に入る
Dockerfileと同じディレクトリ上で実行します.
仮想環境のビルド
docker compose up -d --build
仮想環境に入る
docker compose exec stock_predict_python bash
仮想環境の終了
docker compose down