Docker

Ollama dans Docker Compose avec GPU et stockage persistant des modèles

Ollama dans Docker Compose avec GPU et stockage persistant des modèles

Serveur Ollama orienté composition, avec GPU et persistance.

Ollama fonctionne parfaitement sur du matériel nu. Cela devient encore plus intéressant lorsque vous le traitez comme un service : une extrémité stable, des versions figées, un stockage persistant et une GPU qui est soit disponible, soit non.

Prise en main rapide du sélecteur de modèles llama.swap pour les LLM locaux compatibles avec OpenAI

Prise en main rapide du sélecteur de modèles llama.swap pour les LLM locaux compatibles avec OpenAI

Remplacement à chaud des LLM locaux sans modifier les clients.

Bientôt, vous jonglerez avec vLLM, llama.cpp et bien plus encore — chaque pile fonctionnant sur son propre port. Tout le reste de votre infrastructure souhaite toujours une URL de base unique /v1 ; sinon, vous finissez par réorganiser constamment les ports, les profils et les scripts ponctuels. llama-swap est le proxy /v1 qui précède ces piles.

Outils de développement : Le guide complet des flux de travail de développement modernes

Outils de développement : Le guide complet des flux de travail de développement modernes

Le développement logiciel implique Git pour le contrôle de version, Docker pour la conteneurisation, Bash pour l’automatisation, PostgreSQL pour les bases de données et VS Code pour l’édition, sans oublier d’innombrables autres outils qui peuvent faire ou défaire votre productivité. Cette page recueille les mémos (cheatsheets), les flux de travail et les comparaisons essentiels dont vous avez besoin pour travailler efficacement sur l’ensemble de la pile de développement.

LocalAI QuickStart : Exécuter des LLM compatibles OpenAI localement

LocalAI QuickStart : Exécuter des LLM compatibles OpenAI localement

Hébergez des APIs compatibles avec OpenAI en local avec LocalAI en quelques minutes.

LocalAI est un serveur d’inférence auto-hébergé, conçu en priorité pour une utilisation locale, qui se comporte comme une API OpenAI de remplacement pour exécuter des charges de travail d’IA sur votre propre matériel (ordinateur portable, station de travail ou serveur sur site).

Ollama vs vLLM vs LM Studio : Meilleure façon d'exécuter les LLM localement en 2026 ?

Ollama vs vLLM vs LM Studio : Meilleure façon d'exécuter les LLM localement en 2026 ?

Comparez les meilleurs outils d'hébergement local de LLM en 2026. Maturité de l'API, prise en charge du matériel, appel d'outils et cas d'usage concrets.

Exécuter des LLM localement est désormais pratique pour les développeurs, les startups et même les équipes d’entreprise.
Mais le choix de l’outil adapté — Ollama, vLLM, LM Studio, LocalAI ou d’autres — dépend de vos objectifs :