Reranking mit Embedding-Modellen
Python-Code für das Reranking von RAG
Python-Code für das Reranking von RAG
Beeindruckendes neues KI-Modell zur Generierung von Bildern aus Text
Kürzlich hat Black Forest Labs eine Reihe von
text-to-image AI-Modellen veröffentlicht.
Diese Modelle sollen eine deutlich höhere Ausgabegüte haben.
Lasst uns sie ausprobieren
Vergleich zweier selbst gehosteter KI-Suchmaschinen
Hervorragendes Essen ist auch ein Genuss für die Augen. Aber in diesem Beitrag vergleichen wir zwei KI-basierte Suchsysteme, Farfalle und Perplexica.
Lokaler Betrieb eines Copilot-ähnlichen Services? Einfach!
Das ist sehr aufregend! Anstatt Copilot oder perplexity.ai zu nutzen und der ganzen Welt mitzuteilen, wonach Sie suchen, können Sie nun einen ähnlichen Dienst auf Ihrem eigenen PC oder Laptop hosten!
Testen der Erkennung logischer Fehlschlüsse
Kürzlich haben wir mehrere neue LLMs gesehen, die veröffentlicht wurden. Aufregende Zeiten. Lassen Sie uns testen und sehen, wie sie sich bei der Erkennung logischer Fehlschlüsse schlagen.
Erfordert etwas Experimentieren, aber
Es gibt dennoch einige gängige Ansätze, um gute Prompts zu formulieren, damit LLMs nicht durcheinanderkommen, wenn sie versuchen zu verstehen, was man von ihnen möchte.
8 llama3 (Meta+) und 5 phi3 (Microsoft) LLM-Versionen
Testen, wie Modelle mit unterschiedlicher Anzahl an Parametern und Quantisierung sich verhalten.
Ollama-LLM-Modelldateien beanspruchen viel Speicherplatz.
Nach dem Installieren von Ollama ist es besser, Ollama sofort neu zu konfigurieren, um die Modelle direkt am neuen Speicherort abzulegen. So werden nach dem Herunterladen eines neuen Modells keine Dateien mehr am alten Ort gespeichert.
Testen wir die Geschwindigkeit der LLMs auf GPU im Vergleich zu CPU
Vergleich der Vorhersagegeschwindigkeit verschiedener Versionen von LLMs: llama3 (Meta/Facebook), phi3 (Microsoft), gemma (Google), mistral (Open Source) auf CPU und GPU.
Lassen Sie uns die Qualität der logischen Trugschlusserkennung verschiedener LLMs testen
Vergleich mehrerer Versionen von LLMs: llama3 (Meta), phi3 (Microsoft), gemma (Google), mistral (Open Source) und qwen (Alibaba).