2026年版:ローカルコンテナの中に、自分だけのAI環境を構築したい

2026年02月11日

ローカルコンテナ(Docker)を使って自分だけのAI環境を構築するのは、データのプライバシーを守りつつ、さまざまなモデルを自由に試せる素晴らしいアイデアですね。

2026年現在、最も効率的で推奨される構築パターンを、目的別に3つご紹介します。

1. 最も手軽:Ollama + Open WebUI 構成

「とにかくChatGPTのようなチャット画面をローカルに作りたい」場合に最適です。

  • 特徴: ブラウザから操作可能。Llama 3やMistralなど、最新モデルを1コマンドで追加できます。
  • 構築手順: docker-compose.yaml ファイルを作成し、以下の内容を記述して docker compose up -d を実行します。
services:
  ollama:
    image: ollama/ollama
    volumes:
      - ./ollama:/root/.ollama
    ports:
      - "11434:11434"
    deploy: # GPUを使う設定(NVIDIA環境の場合)
      resources:
        reservations:
          devices:
            - driver: nvidia
              count: all
              capabilities: [gpu]

  open-webui:
    image: ghcr.io/open-webui/open-webui:main
    ports:
      - "3000:8080"
    environment:
      - OLLAMA_BASE_URL=http://ollama:11434
    volumes:
      - ./open-webui:/app/backend/data

WSL2を起動して、私の場合にはコンテナはプロジェクト単位に/home/ishii/projectsの下にディレクトリをつくります。

そこで、Visual Studio Codeを起動します。 コマンドでは codeコマンドです。ちなみに、マイクロソフトって長年、このVisual なんとかってなまえできているけど、Visual Basicとか Visual C++とかの時代からで、ついVisual Source Safeとかいっちゃうわけです。わかる人は古い人

さて、VSCを起動して、docker-compose.yamlを作成して、ビルド&起動します。docker compose でupオプションで -dは、バックグラウンド起動です。

あわせて20GB弱ですから、けっこう時間はかかりますね。わたしのところで10分くらいかな。

管理者アカウントを作成してログイン

📥 モデルのダウンロード手順

  1. 設定画面を開く
    • 画面左下にある自分の ユーザー名(またはアイコン) をクリックします。
    • 表示されたメニューから 「Settings(設定)」 を選択します。
  2. 接続設定を確認する
    • 設定内の左メニューから 「Connections(接続)」 を選びます。
    • 「Ollama API」の項目があり、接続先が http://ollama:11434 (または前述のcompose設定通りのURL)になっていて、右側の更新ボタン(くるっとした矢印)を押して接続成功のチェックが出れば準備OKです。
  3. モデル名を指定してプル(ダウンロード)する
    • 同じ画面、または 「Models」 セクションに、「Pull a model from Ollama.com」 という入力欄があります。
    • そこに、使いたいモデル名を入力します。
      • 例:llama3.1
      • 例:phi3
      • 例:gemma2
    • 入力欄の右側にある ダウンロードボタン(雲のアイコンなど) をクリックすると、ダウンロードが開始されます。
  4. チャットで使用する
    • ダウンロードが完了(Successと表示)したら、設定を閉じます。
    • チャット画面上部の 「Select a model(モデルを選択)」 をクリックすると、今入れたモデルが表示されるので、それを選択すれば会話を始められます。

💡 どのモデル名を入れるべきか迷ったら

Ollama公式サイトのモデルライブラリ で、現在利用可能なモデル名の一覧を確認できます。

RTX 4070 Ti (VRAM 12GB) をお持ちなので、まずは以下のモデルを試すのがおすすめです。

  • llama3.1: 迷ったらこれ。非常に高性能で汎用性が高いです。
  • gemma2:9b: Google製。日本語の扱いが比較的得意です。

Open WebUIの設定画面(画像2枚目)で「どこからダウンロードするか」ですが、「管理者設定」 という別の専用メニューから行います。

📥 モデルのダウンロード手順

  1. 「管理者設定」を開く
    • 画面左下にある自分のユーザー名をクリックし、メニューから 「管理者設定 (Admin Settings)」 を選択します。
    • ※通常の「設定」ではなく、必ず「管理者設定」の方を開いてください。
  2. 「設定」内の「モデル」タブへ移動
    • 管理者設定画面が開いたら、左側のメニューから 「設定 (Settings)」 を選び、さらに上部のタブから 「モデル (Models)」 をクリックします。
  3. モデル名を入力してプル(ダウンロード)する
    • 「Ollama.comからモデルをプル (Pull a model from Ollama.com)」 という入力欄があります。
    • そこに、使いたいモデル名を正確に入力します。
      • 例: llama3.1
      • 例: gemma2:9b (日本語に強いのでおすすめ)
    • 入力欄の右側にある ダウンロードボタン(下矢印や雲のアイコン) をクリックすると、ダウンロードが開始されます。
  4. チャット画面で選択する
    • ダウンロードが完了したら、元のチャット画面に戻ります。
    • 画面上部の 「モデルを選択」 ドロップダウンに、今ダウンロードしたモデルが表示されるので、それを選択すれば会話を始められます。

🏎️ 今の環境(RTX 4070 Ti)をさらに使いこなすコツ

私の環境は12GBのVRAMなので、さらに「自分専用AI」を強化できます。

1. 日本語特化モデル「ELYZA」を試す

GoogleのGemmaも賢いですが、日本の企業が開発した elyza:8b は、より日本らしい自然な言い回しや、日本の常識に基づいた回答が得意です。

  • 追加方法: 管理者パネルのダウンロード欄に elyza:8b と入力してプル。

2. システムプロンプトで「自分専用」に染める

画像2枚目にあった 「システムプロンプト」 欄に指示を書き込むことで、AIの性格を固定できます。

  • 例:「あなたは優秀なプログラミング講師です。回答は簡潔にし、必ずサンプルコードを添えてください」
  • 例:「あなたは毒舌な執事です。私を叱咤激励しながらタスク管理をサポートしてください」

3. ドキュメント(PDFなど)を読み込ませる

Open WebUIのチャット欄にPDFやテキストファイルをドラッグ&ドロップしてみてください。 「この資料の内容を要約して」 と指示すれば、手元のファイルの内容に基づいた回答(RAG)ができるようになります。外部にデータが漏れないので、仕事の資料なども安心して読み込ませられます。

最新のお知らせ

thumb
2026年2月12日
AIエージェントの「USB-C」:Model Context Protocol(MCP)が変える未来

AI活用の新標準:MCP解説 1. イントロダクション:...

thumb
2026年2月11日
2026年版:ローカルコンテナの中に、自分だけのAI環境を構築したい

ローカルコンテナ(Docker)を使って自分だけのAI環境を構...

thumb
2026年2月11日
脳と情報の仕組みとメタデータ

情報の形式と脳内での処理における本質的理解 エグゼク...

thumb
2026年2月10日
AntigravityにおけるClaude 4.6 Opus利用の優位性と戦略的背景:ブリーフィング・ドキュメント

エグゼクティブ・サマリー 本資料は、Googleが提供するI...

thumb
2026年2月10日
Googleサービスを無料で利用できる時代は、とっくに終わっていますよ

「Google AI Pro」への課金完了、おめでとうございます!...

thumb
2026年2月10日
情報の形式と脳内での処理

そもそも人間が、文字とか図、絵、音、と分類して捉えてはいる...

thumb
2026年2月8日
【2025年総括】AIは「魔法」から「システム」へ。ソフトウェア開発の現実直視

AI開発の世界において、2025年は後世に語り継がれる大きな...

thumb
2026年2月8日
DockerとWSL2の常識?開発者が知っておくべき「5つの衝撃的な事実」

開発者が知っておくべき「5つの衝撃的な事実」 1. イントロ...

thumb
2026年2月8日
道教の文字観と龍鳳神字:宇宙の根源的エネルギーの具現化に関する考察

本報告書は、唐代から現代に至る道教の文字観、および幕末から...

thumb
2026年2月7日
土曜の夜は、システム開発

さて、作ってあげるよといいながら、チャッピーと話しながら脱...