Self-Hosting

Wie Ollama parallele Anfragen verarbeitet

Wie Ollama parallele Anfragen verarbeitet

Konfigurieren Sie ollama für die parallele Ausführung von Anfragen.

Wenn der Ollama-Server zwei Anfragen gleichzeitig erhält, hängt sein Verhalten von seiner Konfiguration und den verfügbaren Systemressourcen ab.

Testen von Deepseek-R1 mit Ollama

Testen von Deepseek-R1 mit Ollama

Vergleich zweier deepseek-r1-Modelle mit zwei Basismodellen

DeepSeek’s erste Generation von Schlussfolgerungsmodellen mit Leistung, die vergleichbar mit OpenAI-o1 ist, einschließlich sechs dichter Modelle, die aus DeepSeek-R1 basierend auf Llama und Qwen destilliert wurden.

PyInstaller Schnellstart

PyInstaller Schnellstart

Python-Programm in eine einzelne Datei zusammenführen

Verwenden Sie PyInstaller, um Python-Programme als eigenständige Ausführbare Dateien zu verpacken. Es funktioniert unter Linux, Windows und Mac.

Nicht die effizienteste Methode, aber nutzbar.

Ollama-Cheatsheet

Ollama-Cheatsheet

Habe diese Ollama-Befehlsliste vor einiger Zeit erstellt...

Hier ist die Liste und Beispiele der nützlichsten Ollama-Befehle (Ollama-Befehle-Cheat-Sheet), die ich vor einiger Zeit zusammengestellt habe. Hoffentlich wird es auch für Sie nützlich sein.

Ich hoffe, sie wird Ihnen nützlich sein.