Systèmes d'IA : assistants auto-hébergés, RAG et infrastructure locale
La plupart des configurations locales d’IA commencent par un modèle et un temps d’exécution (runtime).
La plupart des configurations locales d’IA commencent par un modèle et un temps d’exécution (runtime).
Guide de l'assistant IA OpenClaw
La plupart des configurations locales d’IA commencent de la même manière : un modèle, un temps d’exécution et une interface de chat.
Installer OpenClaw localement avec Ollama
OpenClaw est un assistant IA hébergé en propre, conçu pour fonctionner avec des runtime de LLM locaux comme Ollama ou avec des modèles basés sur le cloud tels que Claude Sonnet.