🦞
IA Gratis

IA Gratis con Ollama

Ejecuta OpenClaw (anteriormente Moltbot) completamente gratis con Ollama. Sin costos de API, sin límites, privacidad total.

🆓 ¿Por Qué Ollama?
  • Completamente GratisSin costos de API, sin cuotas de suscripción, nunca
  • Uso IlimitadoEnvía tantos mensajes como quieras
  • Privacidad TotalTodos los datos permanecen en tu máquina, nunca se envían a la nube
  • Funciona Sin InternetUsa OpenClaw sin internet después de la configuración inicial
  • Configuración FácilUn comando para instalar en Mac/Linux
Comparación de Costos
Proveedor1K Mensajes/mes10K Mensajes/mes
Ollama (Local)$0$0
Claude API~$5-10~$50-100
OpenAI GPT-4~$10-20~$100-200
Google Gemini~$2-5~$20-50

* El único costo con Ollama es la electricidad (~$2-5/mes funcionando 24/7)

Instrucciones de Configuración

1

Instala Ollama

Un comando en macOS o Linux:

curl -fsSL https://ollama.ai/install.sh | sh

Para Windows: Descarga desde ollama.ai

2

Descarga un Modelo

Descarga un modelo (recomendamos Llama 3.1 8B):

ollama pull llama3.1:8b

Esto descarga ~5GB. La primera vez toma unos minutos.

3

Configura OpenClaw

Apunta OpenClaw a tu Ollama local:

{
  "agent": {
    "provider": "ollama",
    "model": "llama3.1:8b",
    "baseUrl": "http://localhost:11434"
  }
}
4

¡Empieza a Usar!

Reinicia OpenClaw y empieza a chatear. ¡Tu IA ahora funciona completamente en tu máquina!

openclaw restart

Modelos Recomendados

Llama 3.2 3B

El más pequeño y rápido. Bueno para tareas simples.

llama3.2:3b

RAM: 4 GB

Tamaño: 2 GB

Velocidad: Muy Rápido

Llama 3.1 8B

Recomendado

Mejor equilibrio de velocidad y calidad. Recomendado para la mayoría de usuarios.

llama3.1:8b

RAM: 8 GB

Tamaño: 4.7 GB

Velocidad: Rápido

Mistral 7B

Excelente para programación y tareas técnicas.

mistral:7b

RAM: 8 GB

Tamaño: 4.1 GB

Velocidad: Rápido

Llama 3.1 70B

El más capaz. Necesita hardware potente.

llama3.1:70b

RAM: 40+ GB

Tamaño: 40 GB

Velocidad: Lento

Explora todos los modelos en ollama.ai/library

🍎 Excelente en Apple Silicon

Si tienes una Mac con Apple Silicon (M1, M2, M3), Ollama funciona extremadamente bien. La arquitectura de memoria unificada significa:

  • Mac Mini M2 (16GB) puede ejecutar modelos de 8B-13B sin problemas
  • Mac Studio (64GB+) puede ejecutar modelos de 70B
  • Las respuestas se sienten casi tan rápidas como la IA en la nube
  • Operación silenciosa, bajo consumo de energía
📊 Comparación de Calidad

Ten en cuenta que los modelos locales generalmente son menos capaces que los modelos de nube de vanguardia:

  • Llama 3.1 8B ≈ calidad de GPT-3.5 para la mayoría de tareas
  • Llama 3.1 70B se acerca a la calidad de GPT-4
  • Claude/GPT-4 en la nube siguen siendo mejores para razonamiento complejo

¡Para la mayoría de tareas de asistente personal (recordatorios, navegación web, automatización simple), los modelos locales funcionan muy bien!

¡IA Gratis Funcionando!

Ahora conecta tus apps de mensajería y empieza a chatear gratis.