IA gratuite avec Ollama
Executez OpenClaw (anciennement Moltbot) entierement gratuitement avec Ollama. Pas de frais d'API, pas de limites, confidentialite totale.
- âEntierement gratuit â Pas de frais d'API, pas d'abonnement, jamais
- âUtilisation illimitee â Envoyez autant de messages que vous le souhaitez
- âConfidentialite totale â Toutes les donnees restent sur votre machine, jamais envoyees au cloud
- âFonctionne hors ligne â Utilisez OpenClaw sans internet apres la configuration initiale
- âInstallation facile â Une seule commande pour installer sur Mac/Linux
| Fournisseur | 1K Messages/mois | 10K Messages/mois |
|---|---|---|
| Ollama (Local) | $0 | $0 |
| Claude API | ~$5-10 | ~$50-100 |
| OpenAI GPT-4 | ~$10-20 | ~$100-200 |
| Google Gemini | ~$2-5 | ~$20-50 |
* Le seul cout avec Ollama est l'electricite (~2-5 $/mois en fonctionnement 24h/24)
Instructions d'installation
Installer Ollama
Une seule commande sur macOS ou Linux :
curl -fsSL https://ollama.ai/install.sh | shPour Windows : Telechargez depuis ollama.ai
Telecharger un modele
Telechargez un modele (nous recommandons Llama 3.1 8B) :
ollama pull llama3.1:8bCela telecharge ~5 Go. La premiere fois prend quelques minutes.
Configurer OpenClaw
Dirigez OpenClaw vers votre Ollama local :
{
"agent": {
"provider": "ollama",
"model": "llama3.1:8b",
"baseUrl": "http://localhost:11434"
}
}Commencez a utiliser !
Redemarrez OpenClaw et commencez a discuter. Votre IA fonctionne maintenant entierement sur votre machine !
openclaw restartModeles recommandes
Llama 3.2 3B
Le plus petit et le plus rapide. Adapte aux taches simples.
llama3.2:3bRAM: 4 GB
Taille: 2 GB
Vitesse: Tres rapide
Llama 3.1 8B
RecommandeMeilleur equilibre entre rapidite et qualite. Recommande pour la plupart des utilisateurs.
llama3.1:8bRAM: 8 GB
Taille: 4.7 GB
Vitesse: Rapide
Mistral 7B
Excellent pour la programmation et les taches techniques.
mistral:7bRAM: 8 GB
Taille: 4.1 GB
Vitesse: Rapide
Llama 3.1 70B
Le plus performant. Necessite un materiel puissant.
llama3.1:70bRAM: 40+ GB
Taille: 40 GB
Vitesse: Lent
Parcourez tous les modeles sur ollama.ai/library
Si vous avez un Mac avec Apple Silicon (M1, M2, M3), Ollama fonctionne extremement bien. L'architecture memoire unifiee signifie :
- âą Le Mac Mini M2 (16 Go) peut executer les modeles 8B-13B sans probleme
- âą Le Mac Studio (64 Go+) peut executer les modeles 70B
- âą Les reponses sont presque aussi rapides que l'IA cloud
- âą Fonctionnement silencieux, faible consommation d'energie
Sachez que les modeles locaux sont generalement moins performants que les modeles cloud de pointe :
- âą Llama 3.1 8B â qualite GPT-3.5 pour la plupart des taches
- âą Llama 3.1 70B approche la qualite GPT-4
- âą Claude/GPT-4 cloud reste meilleur pour le raisonnement complexe
Pour la plupart des taches d'assistant personnel (rappels, navigation web, automatisation simple), les modeles locaux fonctionnent tres bien !
IA gratuite en marche !
Connectez maintenant vos applications de messagerie et commencez a discuter gratuitement.