Self-Hosting

L'Enshittification d'Ollama - Les premiers signes

L'Enshittification d'Ollama - Les premiers signes

Ma vision de l'état actuel du développement d'Ollama

Ollama a rapidement devenu l’un des outils les plus populaires pour exécuter localement des LLM (Large Language Models). Son interface CLI simple et sa gestion des modèles optimisée ont fait de lui une option privilégiée pour les développeurs souhaitant travailler avec des modèles d’IA hors du cloud. Mais comme c’est souvent le cas avec de nombreuses plateformes prometteuses, des signes d’Enshittification apparaissent déjà :

Interfaces de chat pour les instances locales d'Ollama

Interfaces de chat pour les instances locales d'Ollama

Aperçu rapide des interfaces utilisateur les plus remarquables pour Ollama en 2025

L’hébergement local de Ollama permet d’exécuter des modèles de langage volumineux sur votre propre machine, mais son utilisation via la ligne de commande n’est pas très conviviale.
Voici plusieurs projets open source qui proposent des interfaces du style ChatGPT qui se connectent à un Ollama local.

Comparaison des distributions Kubernetes pour un homelab à 3 nœuds

Comparaison des distributions Kubernetes pour un homelab à 3 nœuds

Choisir la meilleure version de Kubernetes pour notre homelab

Je compare les variantes de Kubernetes auto-hébergées que l’on peut utiliser dans un homelab basé sur Ubuntu avec 3 nœuds (16 Go de RAM, 4 cœurs chacun), en mettant l’accent sur la facilité d’installation et de maintenance, ainsi que le support des volumes persistants et des LoadBalancers.

NVIDIA DGX Spark - nouveau petit superordinateur AI

NVIDIA DGX Spark - nouveau petit superordinateur AI

« En juillet 2025, il devrait bientôt être disponible »

Nvidia est sur le point de lancer le NVIDIA DGX Spark – un petit superordinateur d’IA basé sur l’architecture Blackwell, doté d’une mémoire unifiée de 128+Go et d’une performance d’IA de 1 PFLOPS. Un appareil intéressant pour exécuter les LLM.