🦞
無料AI

Ollamaで無料AI

OpenClaw(旧Moltbot)をOllamaで完全無料で実行。APIコストなし、制限なし、完全なプライバシー。

🆓 なぜOllama?
  • 完全無料APIコストなし、サブスクリプション料金なし、永久に
  • 無制限利用好きなだけメッセージを送信
  • 完全なプライバシーすべてのデータはあなたのマシンに保存、クラウドには送信されません
  • オフラインで動作初期設定後はインターネットなしでOpenClawを使用
  • 簡単セットアップMac/Linuxでは1コマンドでインストール
コスト比較
プロバイダー1Kメッセージ/月10Kメッセージ/月
Ollama(ローカル)$0$0
Claude API~$5-10~$50-100
OpenAI GPT-4~$10-20~$100-200
Google Gemini~$2-5~$20-50

* Ollamaのコストは電気代のみ(24時間稼働で月約$2-5)

設定手順

1

Ollamaをインストール

macOSまたはLinuxでは1コマンド:

curl -fsSL https://ollama.ai/install.sh | sh

Windowsの場合:こちらからダウンロード ollama.ai

2

モデルをダウンロード

モデルをプル(Llama 3.1 8Bをおすすめ):

ollama pull llama3.1:8b

約5GBダウンロード。初回は数分かかります。

3

OpenClawを設定

OpenClawをローカルのOllamaに向ける:

{
  "agent": {
    "provider": "ollama",
    "model": "llama3.1:8b",
    "baseUrl": "http://localhost:11434"
  }
}
4

使用開始!

OpenClawを再起動してチャット開始。AIは完全にあなたのマシンで動作します!

openclaw restart

おすすめモデル

Llama 3.2 3B

最小・最速。シンプルなタスクに適しています。

llama3.2:3b

RAM: 4 GB

サイズ: 2 GB

速度: 非常に高速

Llama 3.1 8B

おすすめ

速度と品質の最適なバランス。ほとんどのユーザーにおすすめ。

llama3.1:8b

RAM: 8 GB

サイズ: 4.7 GB

速度: 高速

Mistral 7B

コーディングや技術的タスクに優れています。

mistral:7b

RAM: 8 GB

サイズ: 4.1 GB

速度: 高速

Llama 3.1 70B

最も高性能。強力なハードウェアが必要。

llama3.1:70b

RAM: 40+ GB

サイズ: 40 GB

速度: 低速

すべてのモデルはこちら ollama.ai/library

🍎 Apple Siliconで最高のパフォーマンス

Apple Silicon(M1、M2、M3)搭載Macをお持ちなら、Ollamaは非常に良く動作します。ユニファイドメモリアーキテクチャにより:

  • Mac Mini M2(16GB)で8B-13Bモデルがスムーズに動作
  • Mac Studio(64GB+)で70Bモデルが動作
  • クラウドAIとほぼ同等の応答速度
  • 静音動作、低消費電力
📊 品質比較

ローカルモデルは一般的に最先端クラウドモデルより性能が劣ることに注意:

  • Llama 3.1 8B ≈ ほとんどのタスクでGPT-3.5相当
  • Llama 3.1 70Bはほぼ GPT-4相当
  • 複雑な推論ではクラウドClaude/GPT-4が依然優位

ほとんどのパーソナルアシスタントタスク(リマインダー、Web閲覧、シンプルな自動化)では、ローカルモデルで十分です!

無料AI稼働中!

メッセージングアプリを接続して無料でチャットを始めましょう。