RTX 5090でローカルAI環境を構築した話
RTX 5090を買ったはいいものの、半年間マザーボードに刺さっているだけだった。AIの進歩とClaude Codeとの出会いをきっかけに、ようやくローカルAI環境の構築に踏み切った。非エンジニアがGPUを本気で使い始めるまでの記録。

やってみた理由
もともとRTX 5090を購入したのは「AIを勉強したい、活用してみたい」という気持ちがあったから。
正直に言うと、最初は明確な計画があったわけではない。RTX 5090が抽選販売になるという話を聞いて、「とりあえず応募してみるか」と軽い気持ちでエントリーした。まさか当選するとは思っていなかったので、当たったときはだいぶ悩んだ。でも「いい機会だ、使いこなせなかったら中古で売ればいい」と腹をくくって購入を決めた。結果的に、買ってよかったと思っている。
ただ、購入当初はマザーボードに接続しただけで、正直ほとんど使いこなせていなかった。
もともとWindows PCを使っていたので、その延長でパーツを選んだ。PCを選んだ理由はいくつかある。
- 画像生成をやってみたい — 小説の世界観をビジュアル化したかった
- 子どもと一緒に遊びたい — 家族で楽しめるコンテンツ作り
- Minecraftの環境 — Modが充実しているWindowsの方が何かと便利
- ローカルで動かすならRTX — クラウドAIとの使い分けを考えたとき、画像生成やローカルLLMにはGPUが必要だと判断した
購入後、約半年はChatGPT・Claude・Copilotなどのサブスクリプションサービスを使いながら過ごしていた。
ローカル環境に踏み切ったきっかけは2つ。
- AIの進歩でやれることが増えた — 以前は調べてもスムーズに進まなかったが、AIが実用的になってきた
- Claude Codeに慣れてきた — ターミナル操作への抵抗が少しずつ薄れてきた
「サブスクだけでもいいのでは?」という考えもあったが、ローカルだと気兼ねなく大量に画像を生成できるし、何より勉強がてら環境を持っておきたいという気持ちが勝った。
やったこと
1. 自分の環境と目的を整理する
まず自分のマシンスペックと「やりたいこと」をリストアップした。
- OS:Windows 11 Pro
- GPU:RTX 5090(VRAM 32GB)
- メモリ:64GB DDR5
- やりたいこと:画像生成、ローカルLLM、OCR→TTS開発基盤
2. AIを使って検索プロンプトを作成
リストをClaude(チャット版)に渡して、「この条件で効率的に情報収集するためのプロンプトを作成して」と依頼。
作成されたプロンプトをPerplexityやDeep Research、NotebookLMなどに投げて資料を作成した。
3. 複数のAIで資料を比較・検証
- Gemini、ChatGPT、Claudeそれぞれに資料を渡して手順を確認
- 「本当にこれで合ってる?」と感じた部分は別チャットで再検証
- 自分の目で内容を確認しながら、信頼度を上げていった
4. Claude Codeでターミナル作業を進める
資料をもとに、Claude Codeに一つずつ手順を貼り付けながら環境構築を実施。
主な構築内容:
- WSL2(Ubuntu)のセットアップ
- Dockerのインストール・設定
- Ollamaの導入(ローカルLLM実行環境)
- ComfyUI(画像生成環境)
- OCR→TTS開発基盤(YomiToku / Qwen3 / VOICEVOX他)
結果
- ローカルLLM環境 — Ollama経由でLLMをWSL2上で動かせるようになった
- 画像生成環境 — ComfyUI + Illustrious XL v1.1で画像生成が動作
- OCR→TTS開発基盤 — 別記事で詳しく書いているが、504ページの小説を音声化するパイプラインが完成
RTX 5090のVRAM 32GBのおかげで、大きめのモデルも余裕を持って動かせている。
うまくいった点
- AIとの壁打ちで条件整理ができた — 一人で調べると散漫になりがちな情報を、対話しながら絞り込めた
- 複数AIの比較で信頼度が上がった — 一つのAIの回答を鵜呑みにせず、クロスチェックする習慣ができた
- Claude Codeでターミナルの壁が下がった — 以前は苦手だったコマンド操作も、補助があれば進められるようになった
- 半年越しで動いた達成感 — 放置していた環境がようやく本来の目的で使えるようになった
失敗・課題
-
Windowsだけでは動かなかった — 多くのツールがLinux前提で作られており、WSL2(Ubuntu)側での環境構築が必要だった。これは事前に把握できていなかった
-
全部を理解できているわけではない — AIに言われた通りにコマンドを実行している部分も多く、「なぜそうするのか」が追いついていないところがある。動いてはいるが、トラブルが起きたときに自力で対処できるかは正直不安
-
ファイルが散らかった — Windows側とWSL2側の両方に、作業過程で生まれたファイルが大量に残っている。そのうち整理が必要
-
ローカルLLMはサブスクのAIと同じレベルでは動かない — 正直、最初は「RTX 5090ならChatGPTやClaudeと同じようなモデルがローカルで動くんじゃないか」と期待していた。しかし実際には、サブスクで使えるような大規模モデルをそのままローカルで動かすのは、VRAM 32GBでも厳しい。ローカルLLMはあくまで用途を絞って使うもので、万能ではないと実感した
-
ストレージを圧迫している — 「試しに」とダウンロードした大きなLLMモデルがいくつかあり、容量が厳しくなってきた。使わないモデルの削除が必要
次にやること
- Windows側・WSL2側の不要ファイルを整理する
- ダウンロード済みの大きなモデルを見直して削除する
- ComfyUIでの画像生成をもっと深掘りする(ゲームキャラクター用素材として活用)
- ローカルLLMの使い分けを整理する(用途別に最適なモデルを決める)
- 今回の環境構築の手順を別記事としてまとめる
この実験で使った機材
- ZOTAC GAMING GeForce RTX 5090 SOLID OC — VRAM 32GBでローカルLLMも画像生成も動かせる。ただしサブスクリプションのAIモデルと同等の性能をローカルで期待するのは正直厳しい。画像生成をやらないなら、今から買うならMac mini M4 Pro(メモリ48GB〜)の方がコスパはいいかもしれない