WSL2 の Docker で CUDA する
(2024/8/13 追記) YouTube に操作の様子をアップしました。参考にしてみてください。
–
生成 AI 等をローカルで実行しようとすると、いろいろな依存関係の競合が発生します。Python だけでいえば venv や anaconda といったツールを使うことである程度回避できますが、それだけでは吸収できないような場合もあります。
そんな時は、コンテナを使ってその中に環境を閉じ込めてしまうことで、他への影響が少なくなります。ただ、コンテナの中からハードウェア (CUDA) をたたくためには、少し設定が必要になります。
今回は Windows 11 をベースに、WSL2 の Ubuntu で Docker を使って環境を用意してみます。
Windows の設定
GeForce のドライバをインストールします。常に最新にしておく必要もないですが、セットアップの時点で最新のドライバにしておいた方がいいと思います。(特に根拠はありません)
WSL2 を有効にして、Ubuntu をインストールします。管理者権限で PowerShell を開いて、以下コマンドを実行したら Windows を再起動します。
再起動してきたら再度 PowerShell を開き (管理者として実行はしません)、以下コマンドを実行して Ubuntu 24.04 をインストールします。
Windows 側には GeForce のドライバを入れるだけで、Python や CUDA をインストールする必要はありません。(Windows でそれらを使いたい場合は別ですが)
Ubuntu の設定
NVIDIA のサイトにある Installing the NVIDIA Container Toolkit に沿って実施します。なお、WSL の Ubuntu に、GeForce のドライバ等を入れる必要はありません。
そのうえで、nvidia-container-toolkit をインストールします。
nvidia-container-toolkit をインストールしたら、Docker をインストールします。これは Docker のサイト の手順で行います。 Docker Desktop は使わずに、Ubuntu の apt でインストールします。
この状態だとコンテナの操作 (docker コマンドの実行) に root 権限が必要になってしまうので、rootless で動作するように設定します。以下の手順に沿って実施します。
Run the Docker daemon as a non-root user (Rootless mode)
まずはシステム権限で動作する docker サービスを無効にします。
必要なパッケージをインストールします。
そのうえで、rootless を設定するスクリプトを実行します。このスクリプトは sudo をつけずに実行する必要があります。
スクリプトが正常に完了すると、以下のような画面が表示されます。この状態で、rootless で docker コマンドが実行可能です。
画面に出力されている通り、以下の 2 行を ~/.bashrc の末尾に追記しておくようにします。
※2 行目の「1002」は実行したユーザーの UID に応じて変わると思います
これで docker のインストールは終わったので、再度 Installing the NVIDIA Container Toolkit の手順に戻ります。Configuration 項の rootless の手順を実施します。
これで Ubuntu の設定も完了です。
コンテナ実行
サンプルのコンテナ を実行してみましょう。
以下のように GPU が表示されていれば、コンテナから GPU を参照できてます。
以上で準備は完了です。この環境で、--gpus all
オプションをつけてコンテナを起動すれば、コンテナ内から GPU を使えるので、システムワイドに環境を分離することがやりやすくなりました。
このブログ内でも、GPU を使えるようにした Docker を使うシーンが多々発生しますが、その場合はこのように構成した WSL2 を使っています。