
Reranking avec des modèles d'embedding
Un code Python pour le reranking de RAG
Un code Python pour le reranking de RAG
Un nouveau modèle d'IA incroyable capable de générer une image à partir de texte
Récemment, Black Forest Labs a publié un ensemble de
modèles d’IA texte à image.
Ces modèles sont dit avoir une qualité de sortie bien plus élevée.
Essayons-les
Comparaison de deux moteurs de recherche d'IA auto-hébergés
La bonne nourriture est aussi un plaisir pour les yeux. Mais dans cet article, nous comparerons deux systèmes de recherche basés sur l’IA, Farfalle et Perplexica.
Exécuter localement un service du style Copilot ? Facile !
C’est très excitant !
Au lieu d’appeler Copilot ou Perplexity.ai et de tout raconter au monde,
vous pouvez maintenant héberger un service similaire sur votre propre ordinateur ou laptop !
Pas tant d'options à choisir, mais tout de même...
Quand j’ai commencé à expérimenter avec les LLM, les interfaces utilisateur pour eux étaient en développement actif et maintenant certaines d’entre elles sont vraiment excellentes.
Test de détection des fautes de raisonnement
Récemment, nous avons vu plusieurs nouveaux LLM sortir. Des temps excitants. Testons-les et voyons comment ils se débrouillent lors de la détection des fautes logiques.
Exige quelques expérimentations mais
Il existe toutefois quelques approches courantes pour rédiger des prompts efficaces afin que le modèle de langage ne se confonde pas en tentant de comprendre ce que vous souhaitez.
Extraits de code Python fréquemment utilisés
Parfois, j’ai besoin de cela mais je ne le trouve pas immédiatement.
Donc, je les garde toutes ici.
L’étiquetage et l’entraînement nécessitent un peu de collage.
Quand j’ai entraîné un détecteur d’objets AI il y a un certain temps - LabelImg était un outil très utile, mais l’exportation depuis Label Studio vers le format COCO n’était pas acceptée par le framework MMDetection..
8 versions de llama3 (Meta+) et 5 versions de phi3 (Microsoft) de modèles LLM
Testing comment sur les modèles avec un nombre différent de paramètres et la quantification.
Les fichiers de modèles LLM d'Ollama prennent beaucoup de place.
Après avoir installé ollama, il est préférable de reconfigurer ollama pour qu’il les stocke directement dans le nouveau lieu. Ainsi, après avoir tiré un nouveau modèle, il ne sera pas téléchargé vers l’ancien emplacement.
Testons la vitesse des LLM sur GPU par rapport au CPU
Comparaison de la vitesse de prédiction de plusieurs versions de LLM (modèles de langage grand public) : llama3 (Meta/Facebook), phi3 (Microsoft), gemma (Google), mistral (open source) sur CPU et GPU.
Testons la qualité de détection des sophismes logiques dans différents modèles LLM
Comparaison de plusieurs versions LLMs : llama3 (Meta), phi3 (Microsoft), gemma (Google), mistral (open source) et qwen (Alibaba).
Il y a un certain temps, j'ai entraîné un détecteur d'objets AI.
Un froid jour d’hiver en juillet… c’est en Australie… j’ai ressenti le besoin urgent d’entraîner un modèle d’IA pour détecter les barres d’armature en béton non coupées…