免费 AI
使用 Ollama 免费运行 AI
使用 Ollama 完全免费运行 OpenClaw(原 Moltbot)。无 API 费用,无限制,完全隐私。
🆓 为什么选择 Ollama?
- ✓完全免费 — 无 API 费用,无订阅费,永远
- ✓无限使用 — 想发多少消息就发多少
- ✓完全隐私 — 所有数据保留在你的机器上,永不发送到云端
- ✓离线可用 — 初始设置后无需联网即可使用 OpenClaw
- ✓设置简单 — 在 Mac/Linux 上一条命令安装
成本对比
| 提供商 | 1000条消息/月 | 10000条消息/月 |
|---|---|---|
| Ollama(本地) | $0 | $0 |
| Claude API | ~$5-10 | ~$50-100 |
| OpenAI GPT-4 | ~$10-20 | ~$100-200 |
| Google Gemini | ~$2-5 | ~$20-50 |
* Ollama 唯一的成本是电费(24/7 运行约 $2-5/月)
设置说明
1
安装 Ollama
在 macOS 或 Linux 上一条命令:
curl -fsSL https://ollama.ai/install.sh | shWindows 用户:从以下网址下载 ollama.ai
2
下载模型
拉取一个模型(我们推荐 Llama 3.1 8B):
ollama pull llama3.1:8b下载约 5GB。首次需要几分钟。
3
配置 OpenClaw
将 OpenClaw 指向你的本地 Ollama:
{
"agent": {
"provider": "ollama",
"model": "llama3.1:8b",
"baseUrl": "http://localhost:11434"
}
}4
开始使用!
重启 OpenClaw 并开始聊天。你的 AI 现在完全在你的机器上运行!
openclaw restart推荐模型
Llama 3.2 3B
最小最快。适合简单任务。
llama3.2:3b内存: 4 GB
大小: 2 GB
速度: 非常快
Llama 3.1 8B
推荐速度和质量的最佳平衡。推荐大多数用户使用。
llama3.1:8b内存: 8 GB
大小: 4.7 GB
速度: 快
Mistral 7B
非常适合编程和技术任务。
mistral:7b内存: 8 GB
大小: 4.1 GB
速度: 快
Llama 3.1 70B
能力最强。需要强大的硬件。
llama3.1:70b内存: 40+ GB
大小: 40 GB
速度: 慢
浏览所有模型: ollama.ai/library
🍎 Apple Silicon 运行效果极佳
如果你有搭载 Apple Silicon(M1、M2、M3)的 Mac,Ollama 运行效果非常好。统一内存架构意味着:
- • Mac Mini M2(16GB)可流畅运行 8B-13B 模型
- • Mac Studio(64GB+)可运行 70B 模型
- • 响应速度几乎与云端 AI 一样快
- • 静音运行,低功耗
📊 质量对比
请注意,本地模型通常不如前沿云端模型强大:
- • Llama 3.1 8B ≈ 大多数任务上相当于 GPT-3.5 质量
- • Llama 3.1 70B 接近 GPT-4 质量
- • 云端 Claude/GPT-4 在复杂推理上仍更强
对于大多数个人助手任务(提醒、网页浏览、简单自动化),本地模型完全够用!