AI

Selbstgehostetes Perplexica – mit Ollama

Selbstgehostetes Perplexica – mit Ollama

Lokaler Betrieb eines Copilot-ähnlichen Services? Einfach!

Das ist sehr aufregend! Anstatt Copilot oder perplexity.ai zu nutzen und der ganzen Welt mitzuteilen, wonach Sie suchen, können Sie nun einen ähnlichen Dienst auf Ihrem eigenen PC oder Laptop hosten!

Gemma2 vs Qwen2 vs Mistral Nemo vs...

Gemma2 vs Qwen2 vs Mistral Nemo vs...

Testen der Erkennung logischer Fehlschlüsse

Kürzlich haben wir mehrere neue LLMs gesehen, die veröffentlicht wurden. Aufregende Zeiten. Lassen Sie uns testen und sehen, wie sie sich bei der Erkennung logischer Fehlschlüsse schlagen.

Die Erstellung effektiver Prompts für LLMs

Die Erstellung effektiver Prompts für LLMs

Erfordert etwas Experimentieren, aber

Es gibt dennoch einige gängige Ansätze, um gute Prompts zu formulieren, damit LLMs nicht durcheinanderkommen, wenn sie versuchen zu verstehen, was man von ihnen möchte.

Großer Sprachmodell-Geschwindigkeitstest

Großer Sprachmodell-Geschwindigkeitstest

Testen wir die Geschwindigkeit der LLMs auf GPU im Vergleich zu CPU

Vergleich der Vorhersagegeschwindigkeit verschiedener Versionen von LLMs: llama3 (Meta/Facebook), phi3 (Microsoft), gemma (Google), mistral (Open Source) auf CPU und GPU.

Logische Fehlschlusserkennung mit LLMs

Logische Fehlschlusserkennung mit LLMs

Lassen Sie uns die Qualität der logischen Trugschlusserkennung verschiedener LLMs testen

Vergleich mehrerer Versionen von LLMs: llama3 (Meta), phi3 (Microsoft), gemma (Google), mistral (Open Source) und qwen (Alibaba).