PyTorchのProjectテンプレートです.
- Docker + uvで環境構築
- PyTorchのDistributed Data Parallel(DDP), Data Parallel, Fully Shared Distributed Parallel(FSDP)によるマルチGPU Training
- MLflowとwandbを使った実験管理
- OmegaConfを使ったコンフィグ管理
- データセットの一部をRAMにキャッシュする機能
- 学習の再開機能
- Python 3.11
- CUDA 12.4
- PyTorch 2.5.0
環境構築はDockerで行います.
Dockerコンテナに./dataset
をマウントするため,この中に各データセットのディレクトリを入れてください。
Docker Imageのビルドは以下のコマンドで行えます。
./docker/build.sh
本テンプレートでは,MLflowによる実験管理が行えます。
MLflowのデータをローカルに保存する場合と,外部のサーバに送信する場合の両方に対応しています.
デフォルトはローカル保存となり,result/mlruns
に保存されます.
外部サーバを利用する場合は,dotenvに設定を書き込む必要があります.
template.env
をコピーして利用してください.
$ cp template.env .env
$ vim .env
SLACK_TOKEN="HOGE"
MLFLOW_TRACKING_URI=""
# Basic Auth
# MLFLOW_TRACKING_USERNAME=""
# MLFLOW_TRACKING_PASSWORD=""
ローカルで保存している場合,mlflow server(ui)のコマンドは以下です.
./docker/run.sh --mlflow-ui ./script/run_mlflow.sh
Wandbによる実験管理も行えます。
.env
のWANDB_API_KEY
を設定し、configのwandb.use
をtrueにすれば結果が送信されます。
./docker/run.sh python train.py config/dummy.yaml wandb.use=true wandb.project_name="hoge"
学習の終了や評価の終了時にSlackに通知を行うことができます.
通知を行うには.envにSlackのトークン(Webhookではない)を書き込む必要があります.
デフォルトでは,通知はchannel="#通知", username="通知"
で行われます.
.env
のSLACK_TOKEN
にAPI tokenを入れて下さい。
Dockerコンテナ内でコマンドを実行します.
そのため,実行するコマンドの先頭に./docker/run.sh
をつけてください.
./docker/run.sh python train.py config/model/model.yaml gpu.use=1
./docker/run.sh python test.py result/20220911/config.yaml gpu.use=1
yaml内のConfigの値をCLIから変更することもできます.以下のように,.
で連結して,=
で値を指定してください.
gpu:
use: 1
./docker/run.sh python train.py config/model/ResNet.yaml gpu.use=2
学習を行う場合は,train.py
を使います.このスクリプトでは,学習が終わった後にテストも一緒に行われます.
train.py
ではconfig
以下のyamlファイルを指定します.
./docker/run.sh python train.py config/model/ResNet.yaml
複数GPUを用いた学習を行う場合は,実行するコマンドのpython
を消して,
前に./torchrun.sh [GPU数]
を入れ,gpu.use="0,1"
のように,Configの値を変更します.
この時,GPUのIDの順番はnvidia-smi
コマンドで並ぶPCIeの順番になっています.
./docker/run.sh ./torchrun.sh 4 train.py config/model/ResNet.yaml gpu.use="0,1,2,3"
学習結果はresult/[train_dataset.name]/[日付]_[model.name]_[dataset.name]_[tag]
以下のディレクトリに保存されます.
データセットの一部をRAMにキャッシュする機能があります。キャッシュはtorch.Tensor
のみ対応しています。
./docker/run.sh python train.py config/model/ResNet.yaml gpu.use=1 use_ram_cache=true ram_cache_size_gb=16
この機能を使うには、datasetの実装を以下のように工夫する必要があります。
if self.cache is not None and idx in self.cache:
image = self.cache.get(idx)
else:
image = read_image(str(image_path), mode=ImageReadMode.RGB)
if self.cache is not None:
self.cache.set(idx, image)
学習の終了後、もしくは学習を中断した場合に、
結果のディレクトリに保存されているconfig.yaml
である、
result/[train_dataset.name]/[日付]_[model.name]_[dataset.name]_[tag]/config.yaml
を指定して実行すると,学習を再開できます。
この時、元のepochが100だった場合でも、epoch=150
をコマンドラインで指定して実行すると、configが上書きされて150epochまで学習が継続されます。
./docker/run.sh python train.py config/config.yaml # 100epochまで完了
# 上記の結果を利用して学習を再開 or 継続
./docker/run.sh python train.py result/ImageNet/hoge_hoge/config.yaml epoch=150 gpu.use=7 # 150epochまで学習を継続
評価を行うスクリプトはtest.py
です.
学習で動かすtrain.py
でも評価は実行されますが,手動で行う場合はこちらを使用してください.
test.py
では,学習結果の保存されているディレクトリにあるconfig.yaml
を第1引数に指定します.
./docker/run.sh python test.py result/ImageNet/hoge_hoge/config.yaml gpu.use=7
上記のコマンドは,学習時のログでも表示されています.学習時のログは,
result/[train_dataset.name]/[日付]_[model.name]_[dataset.name]_[tag]/train.log
に保存されています.
テスト時のログやデータは
result/[train_dataset/name]/[日付]_[model.name]_[dataset.name]_[tag]/runs/
以下に,
ディレクトリが作成され,その中に保存されます.
./docker/run.sh python script/edit_configs.py [config_path or recursive directory] "params.hoge=aa,params.fuga=bb"
./docker/run.sh --mlflow-ui ./script/run_mlflow.sh
./script/run_notebook.sh
./docker/run.sh ./script/run_test.sh
MLflowで削除された実験結果をローカルの./result/
から削除する
./docker/run.sh
# In container
python script/clean_result.py | xargs -I{} -P 2 rm -rf {}
MLflowの結果を集計し、./doc/result_csv
以下に保存する。
./docker/run.sh python script/aggregate_mlflow.py [dataset_name or all]