🔬 不器用パパの休日

RTX 5090でローカルAI環境を構築した話

RTX 5090を買ったはいいものの、半年間マザーボードに刺さっているだけだった。AIの進歩とClaude Codeとの出会いをきっかけに、ようやくローカルAI環境の構築に踏み切った。非エンジニアがGPUを本気で使い始めるまでの記録。

PC内部に搭載されたZOTAC RTX 5090

やってみた理由

もともとRTX 5090を購入したのは「AIを勉強したい、活用してみたい」という気持ちがあったから。

正直に言うと、最初は明確な計画があったわけではない。RTX 5090が抽選販売になるという話を聞いて、「とりあえず応募してみるか」と軽い気持ちでエントリーした。まさか当選するとは思っていなかったので、当たったときはだいぶ悩んだ。でも「いい機会だ、使いこなせなかったら中古で売ればいい」と腹をくくって購入を決めた。結果的に、買ってよかったと思っている。

ただ、購入当初はマザーボードに接続しただけで、正直ほとんど使いこなせていなかった。

もともとWindows PCを使っていたので、その延長でパーツを選んだ。PCを選んだ理由はいくつかある。

  • 画像生成をやってみたい — 小説の世界観をビジュアル化したかった
  • 子どもと一緒に遊びたい — 家族で楽しめるコンテンツ作り
  • Minecraftの環境 — Modが充実しているWindowsの方が何かと便利
  • ローカルで動かすならRTX — クラウドAIとの使い分けを考えたとき、画像生成やローカルLLMにはGPUが必要だと判断した

購入後、約半年はChatGPT・Claude・Copilotなどのサブスクリプションサービスを使いながら過ごしていた。

ローカル環境に踏み切ったきっかけは2つ。

  1. AIの進歩でやれることが増えた — 以前は調べてもスムーズに進まなかったが、AIが実用的になってきた
  2. Claude Codeに慣れてきた — ターミナル操作への抵抗が少しずつ薄れてきた

「サブスクだけでもいいのでは?」という考えもあったが、ローカルだと気兼ねなく大量に画像を生成できるし、何より勉強がてら環境を持っておきたいという気持ちが勝った。

やったこと

1. 自分の環境と目的を整理する

まず自分のマシンスペックと「やりたいこと」をリストアップした。

  • OS:Windows 11 Pro
  • GPU:RTX 5090(VRAM 32GB)
  • メモリ:64GB DDR5
  • やりたいこと:画像生成、ローカルLLM、OCR→TTS開発基盤

2. AIを使って検索プロンプトを作成

リストをClaude(チャット版)に渡して、「この条件で効率的に情報収集するためのプロンプトを作成して」と依頼。

作成されたプロンプトをPerplexityやDeep Research、NotebookLMなどに投げて資料を作成した。

3. 複数のAIで資料を比較・検証

  • Gemini、ChatGPT、Claudeそれぞれに資料を渡して手順を確認
  • 「本当にこれで合ってる?」と感じた部分は別チャットで再検証
  • 自分の目で内容を確認しながら、信頼度を上げていった

4. Claude Codeでターミナル作業を進める

資料をもとに、Claude Codeに一つずつ手順を貼り付けながら環境構築を実施。

主な構築内容:

  • WSL2(Ubuntu)のセットアップ
  • Dockerのインストール・設定
  • Ollamaの導入(ローカルLLM実行環境)
  • ComfyUI(画像生成環境)
  • OCR→TTS開発基盤(YomiToku / Qwen3 / VOICEVOX他)

結果

  • ローカルLLM環境 — Ollama経由でLLMをWSL2上で動かせるようになった
  • 画像生成環境 — ComfyUI + Illustrious XL v1.1で画像生成が動作
  • OCR→TTS開発基盤 — 別記事で詳しく書いているが、504ページの小説を音声化するパイプラインが完成

RTX 5090のVRAM 32GBのおかげで、大きめのモデルも余裕を持って動かせている。

うまくいった点

  • AIとの壁打ちで条件整理ができた — 一人で調べると散漫になりがちな情報を、対話しながら絞り込めた
  • 複数AIの比較で信頼度が上がった — 一つのAIの回答を鵜呑みにせず、クロスチェックする習慣ができた
  • Claude Codeでターミナルの壁が下がった — 以前は苦手だったコマンド操作も、補助があれば進められるようになった
  • 半年越しで動いた達成感 — 放置していた環境がようやく本来の目的で使えるようになった

失敗・課題

  • Windowsだけでは動かなかった — 多くのツールがLinux前提で作られており、WSL2(Ubuntu)側での環境構築が必要だった。これは事前に把握できていなかった

  • 全部を理解できているわけではない — AIに言われた通りにコマンドを実行している部分も多く、「なぜそうするのか」が追いついていないところがある。動いてはいるが、トラブルが起きたときに自力で対処できるかは正直不安

  • ファイルが散らかった — Windows側とWSL2側の両方に、作業過程で生まれたファイルが大量に残っている。そのうち整理が必要

  • ローカルLLMはサブスクのAIと同じレベルでは動かない — 正直、最初は「RTX 5090ならChatGPTやClaudeと同じようなモデルがローカルで動くんじゃないか」と期待していた。しかし実際には、サブスクで使えるような大規模モデルをそのままローカルで動かすのは、VRAM 32GBでも厳しい。ローカルLLMはあくまで用途を絞って使うもので、万能ではないと実感した

  • ストレージを圧迫している — 「試しに」とダウンロードした大きなLLMモデルがいくつかあり、容量が厳しくなってきた。使わないモデルの削除が必要

次にやること

  • Windows側・WSL2側の不要ファイルを整理する
  • ダウンロード済みの大きなモデルを見直して削除する
  • ComfyUIでの画像生成をもっと深掘りする(ゲームキャラクター用素材として活用)
  • ローカルLLMの使い分けを整理する(用途別に最適なモデルを決める)
  • 今回の環境構築の手順を別記事としてまとめる

この実験で使った機材

  • ZOTAC GAMING GeForce RTX 5090 SOLID OC — VRAM 32GBでローカルLLMも画像生成も動かせる。ただしサブスクリプションのAIモデルと同等の性能をローカルで期待するのは正直厳しい。画像生成をやらないなら、今から買うならMac mini M4 Pro(メモリ48GB〜)の方がコスパはいいかもしれない