OllamaでローカルLLMを無料で動かす方法【完全ガイド2026年版】
「ChatGPTに毎月課金するのがしんどい」「会社の機密データをクラウドのAIに送りたくない」
そんな悩みを持つ人に試してほしいのが、Ollamaだ。
無料で、自分のPCの中だけでAIを動かせる。クラウドに一切データを送らないため、プライバシーも守られる。しかも、思ったより簡単に始められる。
Ollamaとは
OllamaはオープンソースのLLMランタイムだ。LLaMA、Mistral、Gemma、Qwenなどのオープンソースモデルをローカルで動かすためのツールで、コマンド一発でモデルのダウンロード〜実行ができる。
2023年末に登場して以来、急速に普及しており、2026年現在はGitHubで10万以上のスターを獲得している。
Ollamaの特徴:
- 完全無料・オープンソース
- Mac / Linux / Windows 対応
- API経由でChatGPTライクに使える
- 商用利用可能なモデルも多数
動かすのに必要なスペック
ローカルLLMは「重い」と思われがちだが、軽量モデルなら意外と動く。
| モデルサイズ | 必要VRAM/RAM | 実用速度 |
|---|---|---|
| 3B〜7B パラメータ | 4〜8GB RAM | 快適に動く |
| 13B パラメータ | 16GB RAM | 普通に動く |
| 30B〜 | 32GB RAM以上 | 重め |
最新のM3/M4チップ搭載MacやRTX 3060以上のGPU搭載PCなら7Bモデルをサクサク動かせる。
インストール手順
1. Ollamaをダウンロード
Ollama公式サイト(ollama.com)からOSに合わせたインストーラーをダウンロードして実行。
2. モデルを取得して起動
ターミナル(Macならターミナル、Windowsならコマンドプロンプト)を開いて:
# Llama 3.2(Meta製・高品質な日本語対応モデル)
ollama run llama3.2
# 日本語特化モデル
ollama run qwen2.5:7b
# 軽量モデル(3Bパラメータ)
ollama run phi3:mini
初回はモデルをダウンロードするため数分かかる(7Bで約4GB)。次回からはキャッシュから即起動。
3. 対話開始
コマンドを実行するとすぐに対話が始まる:
>>> 日本の首都はどこですか?
東京です。
>>> あなたはどのモデルですか?
私はLlama 3.2モデルです...
これだけ。インターネットなし、APIキーなし、課金なしでAIと会話できる。
API経由で使う(ChatGPT互換)
OllamaはOpenAI互換のAPIを提供しているため、ChatGPTと同じコードで使える。
import requests
response = requests.post(
"http://localhost:11434/api/generate",
json={
"model": "llama3.2",
"prompt": "副業について教えてください",
"stream": False
}
)
print(response.json()["response"])
これを使えば、ChatGPT APIを使っているアプリをローカルLLMに切り替えられる。API費用がゼロになる。
実際に使ってみた感想
僕が試した中で一番使い勝手が良かったのは qwen2.5:7b(Alibaba製)だ。日本語の精度が高く、ビジネスライティングにも使える。
ただし、正直に言うと最新のClaude 3.5 SonnetやGPT-4oと比べると品質の差はある。特に:
- 複雑な推論問題は苦手
- 長文の一貫した文章生成はやや不安定
- 最新情報へのアクセスはない(ローカル完結のため)
向いている使い方:
- 定型文の生成・添削
- プライバシーに配慮が必要なデータの処理
- API費用を完全にゼロにしたいケース
- 自社データを学習させたRAGシステムの構築
Open WebUIで使いやすくする
コマンドラインが苦手な人は、ChatGPTライクなWebUIを追加できる。
docker run -d -p 3000:8080 \
-v open-webui:/app/backend/data \
-e OLLAMA_BASE_URL=http://host.docker.internal:11434 \
ghcr.io/open-webui/open-webui:main
ブラウザで http://localhost:3000 を開くとChatGPTそっくりのUIでOllamaを使える。
まとめ
Ollamaは「APIキー不要・月額ゼロ・データを外に出したくない」というニーズにドンピシャのツールだ。
まずは ollama run llama3.2 だけ試してほしい。5分後には自分のPC内にAIが動いている。
Claude APIを使ったアプリ開発に興味がある人はClaude API入門も参考にしてほしい。
Ollamaのクラウド運用にはXserverが便利
Ollamaを自宅PC以外でも使いたいならVPSが便利。Xserverのビジネス向けプランはスペックが高く、GPUインスタンスも用意されている。
![]()
関連ツールを見る
この記事で紹介したツール・サービスをまとめてチェック。
![]()