🦞
Бесплатный ИИ

Бесплатный ИИ с Ollama

Запускайте OpenClaw (ранее Moltbot) полностью бесплатно с Ollama. Никаких затрат на API, никаких ограничений, полная приватность.

🆓 Почему Ollama?
  • Полностью бесплатноНикаких затрат на API, никаких подписок, никогда
  • Безлимитное использованиеОтправляйте сколько угодно сообщений
  • Полная приватностьВсе данные остаются на вашем компьютере, никогда не отправляются в облако
  • Работает офлайнИспользуйте OpenClaw без интернета после первоначальной настройки
  • Простая установкаОдна команда для установки на Mac/Linux
Сравнение стоимости
Провайдер1K сообщений/мес10K сообщений/мес
Ollama (Локально)$0$0
Claude API~$5-10~$50-100
OpenAI GPT-4~$10-20~$100-200
Google Gemini~$2-5~$20-50

* Единственные затраты с Ollama — электричество (~$2-5/месяц при работе 24/7)

Инструкции по установке

1

Установите Ollama

Одна команда для macOS или Linux:

curl -fsSL https://ollama.ai/install.sh | sh

Для Windows: Скачайте с ollama.ai

2

Скачайте модель

Загрузите модель (мы рекомендуем Llama 3.1 8B):

ollama pull llama3.1:8b

Это скачивает ~5GB. Первый раз занимает несколько минут.

3

Настройте OpenClaw

Укажите OpenClaw на ваш локальный Ollama:

{
  "agent": {
    "provider": "ollama",
    "model": "llama3.1:8b",
    "baseUrl": "http://localhost:11434"
  }
}
4

Начинайте использовать!

Перезапустите OpenClaw и начните общение. Ваш ИИ теперь работает полностью на вашем компьютере!

openclaw restart

Рекомендуемые модели

Llama 3.2 3B

Самая маленькая и быстрая. Подходит для простых задач.

llama3.2:3b

RAM: 4 GB

Размер: 2 GB

Скорость: Очень быстро

Llama 3.1 8B

Рекомендуется

Лучший баланс скорости и качества. Рекомендуется для большинства пользователей.

llama3.1:8b

RAM: 8 GB

Размер: 4.7 GB

Скорость: Быстро

Mistral 7B

Отлично подходит для программирования и технических задач.

mistral:7b

RAM: 8 GB

Размер: 4.1 GB

Скорость: Быстро

Llama 3.1 70B

Самая мощная. Требует мощное оборудование.

llama3.1:70b

RAM: 40+ GB

Размер: 40 GB

Скорость: Медленно

Смотрите все модели на ollama.ai/library

🍎 Отлично работает на Apple Silicon

Если у вас Mac с Apple Silicon (M1, M2, M3), Ollama работает превосходно. Унифицированная архитектура памяти означает:

  • Mac Mini M2 (16GB) может плавно запускать модели 8B-13B
  • Mac Studio (64GB+) может запускать модели 70B
  • Ответы почти такие же быстрые, как у облачного ИИ
  • Тихая работа, низкое энергопотребление
📊 Сравнение качества

Имейте в виду, что локальные модели обычно менее способны, чем передовые облачные модели:

  • Llama 3.1 8B ≈ качество GPT-3.5 для большинства задач
  • Llama 3.1 70B приближается к качеству GPT-4
  • Облачные Claude/GPT-4 всё ещё лучше для сложных рассуждений

Для большинства задач персонального ассистента (напоминания, веб-сёрфинг, простая автоматизация) локальные модели работают отлично!

Бесплатный ИИ запущен!

Теперь подключите ваши мессенджеры и начните бесплатное общение.