AI

Ollama dans Docker Compose avec GPU et stockage persistant des modèles

Ollama dans Docker Compose avec GPU et stockage persistant des modèles

Serveur Ollama orienté composition, avec GPU et persistance.

Ollama fonctionne parfaitement sur du matériel nu. Cela devient encore plus intéressant lorsque vous le traitez comme un service : une extrémité stable, des versions figées, un stockage persistant et une GPU qui est soit disponible, soit non.

Prise en main rapide du sélecteur de modèles llama.swap pour les LLM locaux compatibles avec OpenAI

Prise en main rapide du sélecteur de modèles llama.swap pour les LLM locaux compatibles avec OpenAI

Remplacement à chaud des LLM locaux sans modifier les clients.

Bientôt, vous jonglerez avec vLLM, llama.cpp et bien plus encore — chaque pile fonctionnant sur son propre port. Tout le reste de votre infrastructure souhaite toujours une URL de base unique /v1 ; sinon, vous finissez par réorganiser constamment les ports, les profils et les scripts ponctuels. llama-swap est le proxy /v1 qui précède ces piles.

LocalAI QuickStart : Exécuter des LLM compatibles OpenAI localement

LocalAI QuickStart : Exécuter des LLM compatibles OpenAI localement

Hébergez des APIs compatibles avec OpenAI en local avec LocalAI en quelques minutes.

LocalAI est un serveur d’inférence auto-hébergé, conçu en priorité pour une utilisation locale, qui se comporte comme une API OpenAI de remplacement pour exécuter des charges de travail d’IA sur votre propre matériel (ordinateur portable, station de travail ou serveur sur site).

Démarrage rapide de llama.cpp avec l'interface CLI et le serveur

Démarrage rapide de llama.cpp avec l'interface CLI et le serveur

Comment installer, configurer et utiliser OpenCode

Je reviens constamment vers llama.cpp pour l’inférence locale — cela vous donne un contrôle que Ollama et d’autres abstraigent, et cela fonctionne parfaitement. Il est facile d’exécuter des modèles GGUF de manière interactive avec llama-cli ou d’exposer une API HTTP compatible avec OpenAI avec llama-server.

Airtable pour les développeurs et les DevOps - Plans, API, Webhooks et exemples en Go/Python

Airtable pour les développeurs et les DevOps - Plans, API, Webhooks et exemples en Go/Python

Airtable - Limites du plan gratuit, API, webhooks, Go et Python.

Airtable est mieux pensé comme une plateforme d’application à faible code construite autour d’une interface collaborative “ressemblant à une feuille de calcul” - idéale pour créer rapidement des outils opérationnels (suivi interne, CRM léger, pipelines de contenu, files d’attente d’évaluation d’IA) où les non-développeurs ont besoin d’une interface amicale, mais les développeurs ont aussi besoin d’une surface API pour l’automatisation et l’intégration.