Self-Hosting

Comment Ollama gère les requêtes parallèles

Comment Ollama gère les requêtes parallèles

Configurer ollama pour l'exécution de requêtes en parallèle.

Lorsque le serveur Ollama reçoit deux demandes en même temps, son comportement dépend de sa configuration et des ressources système disponibles.

Test de Deepseek-R1 sur Ollama

Test de Deepseek-R1 sur Ollama

Comparaison de deux modèles deepseek-r1 avec deux modèles de base

DeepSeek’s première génération de modèles de raisonnement avec des performances comparables à celles d’OpenAI-o1,
y compris six modèles denses distillés à partir de DeepSeek-R1 basés sur Llama et Qwen.

Démarrage rapide de PyInstaller

Démarrage rapide de PyInstaller

Combiner un programme Python en un seul fichier

Utilisez PyInstaller pour empaqueter des programmes Python en exécutables autonomes. Il fonctionne sous Linux, Windows et Mac.

Ce n’est pas la méthode la plus efficace, mais elle est utilisable.