🦞
IA Gratis

IA Gratis com Ollama

Execute o OpenClaw (anteriormente Moltbot) completamente gratis com Ollama. Sem custos de API, sem limites, privacidade total.

🆓 Por que Ollama?
  • Completamente GratisSem custos de API, sem taxas de assinatura, nunca
  • Uso IlimitadoEnvie quantas mensagens quiser
  • Privacidade TotalTodos os dados ficam na sua maquina, nunca enviados para a nuvem
  • Funciona OfflineUse o OpenClaw sem internet apos a configuracao inicial
  • Configuracao FacilUm comando para instalar no Mac/Linux
Comparacao de Custos
Provedor1K Mensagens/mes10K Mensagens/mes
Ollama (Local)$0$0
Claude API~$5-10~$50-100
OpenAI GPT-4~$10-20~$100-200
Google Gemini~$2-5~$20-50

* O unico custo com Ollama e eletricidade (~$2-5/mes rodando 24/7)

Instrucoes de Configuracao

1

Instalar Ollama

Um comando no macOS ou Linux:

curl -fsSL https://ollama.ai/install.sh | sh

Para Windows: Baixe em ollama.ai

2

Baixar um Modelo

Baixe um modelo (recomendamos Llama 3.1 8B):

ollama pull llama3.1:8b

Isso baixa ~5GB. A primeira vez leva alguns minutos.

3

Configurar OpenClaw

Aponte o OpenClaw para seu Ollama local:

{
  "agent": {
    "provider": "ollama",
    "model": "llama3.1:8b",
    "baseUrl": "http://localhost:11434"
  }
}
4

Comecar a Usar!

Reinicie o OpenClaw e comece a conversar. Sua IA agora roda inteiramente na sua maquina!

openclaw restart

Modelos Recomendados

Llama 3.2 3B

Menor e mais rapido. Bom para tarefas simples.

llama3.2:3b

RAM: 4 GB

Tamanho: 2 GB

Velocidade: Muito Rapido

Llama 3.1 8B

Recomendado

Melhor equilibrio entre velocidade e qualidade. Recomendado para a maioria dos usuarios.

llama3.1:8b

RAM: 8 GB

Tamanho: 4.7 GB

Velocidade: Rapido

Mistral 7B

Excelente para programacao e tarefas tecnicas.

mistral:7b

RAM: 8 GB

Tamanho: 4.1 GB

Velocidade: Rapido

Llama 3.1 70B

Mais capaz. Precisa de hardware potente.

llama3.1:70b

RAM: 40+ GB

Tamanho: 40 GB

Velocidade: Lento

Navegue todos os modelos em ollama.ai/library

🍎 Otimo no Apple Silicon

Se voce tem um Mac com Apple Silicon (M1, M2, M3), Ollama roda extremamente bem. A arquitetura de memoria unificada significa:

  • Mac Mini M2 (16GB) pode rodar modelos 8B-13B suavemente
  • Mac Studio (64GB+) pode rodar modelos 70B
  • Respostas parecem quase tao rapidas quanto IA em nuvem
  • Operacao silenciosa, baixo consumo de energia
📊 Comparacao de Qualidade

Esteja ciente de que modelos locais sao geralmente menos capazes que modelos de nuvem de ponta:

  • Llama 3.1 8B ≈ qualidade GPT-3.5 para a maioria das tarefas
  • Llama 3.1 70B se aproxima da qualidade GPT-4
  • Claude/GPT-4 em nuvem ainda sao melhores para raciocinio complexo

Para a maioria das tarefas de assistente pessoal (lembretes, navegacao web, automacao simples), modelos locais funcionam muito bem!

IA Gratis Rodando!

Agora conecte seus apps de mensagens e comece a conversar de graca.