AI

Testen von Deepseek-R1 mit Ollama

Testen von Deepseek-R1 mit Ollama

Vergleich zweier deepseek-r1-Modelle mit zwei Basismodellen

DeepSeek’s erste Generation von Schlussfolgerungsmodellen mit Leistung, die vergleichbar mit OpenAI-o1 ist, einschließlich sechs dichter Modelle, die aus DeepSeek-R1 basierend auf Llama und Qwen destilliert wurden.

Ollama-Cheatsheet

Ollama-Cheatsheet

Habe diese Ollama-Befehlsliste vor einiger Zeit erstellt...

Hier ist die Liste und Beispiele der nützlichsten Ollama-Befehle (Ollama-Befehle-Cheat-Sheet), die ich vor einiger Zeit zusammengestellt habe. Hoffentlich wird es auch für Sie nützlich sein.

Ich hoffe, sie wird Ihnen nützlich sein.

Selbsthosting von Perplexica – mit Ollama

Selbsthosting von Perplexica – mit Ollama

Einen Copilot-ähnlichen Dienst lokal ausführen? Einfach!

Das ist sehr aufregend! Statt Copilot oder perplexity.ai zu rufen und der ganzen Welt zu erzählen, wonach Sie suchen, können Sie nun einen ähnlichen Dienst auf Ihrem eigenen PC oder Laptop hosten!

Gemma2 vs. Qwen2 vs. Mistral Nemo vs...

Gemma2 vs. Qwen2 vs. Mistral Nemo vs...

Testen der Erkennung logischer Fehlschlüsse

Kürzlich haben wir mehrere neue LLMs gesehen, die veröffentlicht wurden. Aufregende Zeiten. Lassen Sie uns testen und sehen, wie sie sich bei der Erkennung logischer Fehlschlüsse schlagen.

LLM-Frontends

LLM-Frontends

Nicht so viele zur Auswahl, aber dennoch...

Als ich begann, mit LLMs zu experimentieren, waren die Benutzeroberflächen für sie noch in aktiver Entwicklung, und heute sind einige von ihnen wirklich gut.

Die Erstellung effektiver Prompts für LLMs

Die Erstellung effektiver Prompts für LLMs

Erfordert etwas Experimentieren, aber

Es gibt dennoch einige gängige Ansätze, um gute Prompts zu formulieren, damit LLMs nicht durcheinanderkommen, wenn sie versuchen zu verstehen, was man von ihnen möchte.