AI

Test de Deepseek-R1 sur Ollama

Test de Deepseek-R1 sur Ollama

Comparaison de deux modèles deepseek-r1 avec deux modèles de base

DeepSeek’s première génération de modèles de raisonnement avec des performances comparables à celles d’OpenAI-o1,
y compris six modèles denses distillés à partir de DeepSeek-R1 basés sur Llama et Qwen.

Ollama Feuille de rappel

Ollama Feuille de rappel

Compilé cette liste de commandes Ollama il y a un certain temps...

Voici la liste et les exemples des commandes Ollama les plus utiles (fiche de commandes Ollama) que j’ai compilées il y a un certain temps. J’espère qu’elle vous sera également utile.

Farfalle vs Perplexica

Farfalle vs Perplexica

Comparaison de deux moteurs de recherche d'IA auto-hébergés

La bonne nourriture est aussi un plaisir pour les yeux. Mais dans cet article, nous allons comparer deux systèmes de recherche basés sur l’IA, Farfalle et Perplexica.

Auto-hébergement de Perplexica avec Ollama

Auto-hébergement de Perplexica avec Ollama

Exécuter localement un service du style Copilot ? Facile !

C’est très excitant !
Au lieu d’appeler Copilot ou Perplexity.ai et de tout raconter au monde,
vous pouvez maintenant héberger un service similaire sur votre propre ordinateur ou laptop !

Frontends des LLM

Frontends des LLM

Pas tant d'options à choisir, mais tout de même...

Quand j’ai commencé à expérimenter avec les LLM, les interfaces utilisateur pour eux étaient en développement actif, et maintenant certaines d’entre elles sont vraiment excellentes.

Gemma2 vs Qwen2 vs Mistral Nemo vs...

Gemma2 vs Qwen2 vs Mistral Nemo vs...

Test de détection des fautes de raisonnement

Récemment, nous avons vu plusieurs nouveaux LLM sortir. Des temps excitants. Testons-les et voyons comment ils se débrouillent lors de la détection des fautes logiques.

Rédiger des prompts efficaces pour les LLMs

Rédiger des prompts efficaces pour les LLMs

Exige quelques expérimentations mais

Il existe toutefois quelques approches courantes pour rédiger des prompts efficaces afin que le modèle de langage ne se confonde pas en tentant de comprendre ce que vous souhaitez.