🩞
IA gratuite

IA gratuite avec Ollama

Executez OpenClaw (anciennement Moltbot) entierement gratuitement avec Ollama. Pas de frais d'API, pas de limites, confidentialite totale.

🆓 Pourquoi Ollama ?
  • ✓Entierement gratuit — Pas de frais d'API, pas d'abonnement, jamais
  • ✓Utilisation illimitee — Envoyez autant de messages que vous le souhaitez
  • ✓Confidentialite totale — Toutes les donnees restent sur votre machine, jamais envoyees au cloud
  • ✓Fonctionne hors ligne — Utilisez OpenClaw sans internet apres la configuration initiale
  • ✓Installation facile — Une seule commande pour installer sur Mac/Linux
Comparaison des couts
Fournisseur1K Messages/mois10K Messages/mois
Ollama (Local)$0$0
Claude API~$5-10~$50-100
OpenAI GPT-4~$10-20~$100-200
Google Gemini~$2-5~$20-50

* Le seul cout avec Ollama est l'electricite (~2-5 $/mois en fonctionnement 24h/24)

Instructions d'installation

1

Installer Ollama

Une seule commande sur macOS ou Linux :

curl -fsSL https://ollama.ai/install.sh | sh

Pour Windows : Telechargez depuis ollama.ai

2

Telecharger un modele

Telechargez un modele (nous recommandons Llama 3.1 8B) :

ollama pull llama3.1:8b

Cela telecharge ~5 Go. La premiere fois prend quelques minutes.

3

Configurer OpenClaw

Dirigez OpenClaw vers votre Ollama local :

{
  "agent": {
    "provider": "ollama",
    "model": "llama3.1:8b",
    "baseUrl": "http://localhost:11434"
  }
}
4

Commencez a utiliser !

Redemarrez OpenClaw et commencez a discuter. Votre IA fonctionne maintenant entierement sur votre machine !

openclaw restart

Modeles recommandes

Llama 3.2 3B

Le plus petit et le plus rapide. Adapte aux taches simples.

llama3.2:3b

RAM: 4 GB

Taille: 2 GB

Vitesse: Tres rapide

Llama 3.1 8B

Recommande

Meilleur equilibre entre rapidite et qualite. Recommande pour la plupart des utilisateurs.

llama3.1:8b

RAM: 8 GB

Taille: 4.7 GB

Vitesse: Rapide

Mistral 7B

Excellent pour la programmation et les taches techniques.

mistral:7b

RAM: 8 GB

Taille: 4.1 GB

Vitesse: Rapide

Llama 3.1 70B

Le plus performant. Necessite un materiel puissant.

llama3.1:70b

RAM: 40+ GB

Taille: 40 GB

Vitesse: Lent

Parcourez tous les modeles sur ollama.ai/library

🍎 Excellent sur Apple Silicon

Si vous avez un Mac avec Apple Silicon (M1, M2, M3), Ollama fonctionne extremement bien. L'architecture memoire unifiee signifie :

  • ‱ Le Mac Mini M2 (16 Go) peut executer les modeles 8B-13B sans probleme
  • ‱ Le Mac Studio (64 Go+) peut executer les modeles 70B
  • ‱ Les reponses sont presque aussi rapides que l'IA cloud
  • ‱ Fonctionnement silencieux, faible consommation d'energie
📊 Comparaison de qualite

Sachez que les modeles locaux sont generalement moins performants que les modeles cloud de pointe :

  • ‱ Llama 3.1 8B ≈ qualite GPT-3.5 pour la plupart des taches
  • ‱ Llama 3.1 70B approche la qualite GPT-4
  • ‱ Claude/GPT-4 cloud reste meilleur pour le raisonnement complexe

Pour la plupart des taches d'assistant personnel (rappels, navigation web, automatisation simple), les modeles locaux fonctionnent tres bien !

IA gratuite en marche !

Connectez maintenant vos applications de messagerie et commencez a discuter gratuitement.