
Farfalle vs. Perplexica
Vergleich zweier selbstge LOGGER AI-Suchmaschinen
Hervorragende Nahrung ist auch ein Genuss für die Augen. Aber in diesem Beitrag vergleichen wir zwei AI-basierte Suchsysteme, Farfalle und Perplexica.
Vergleich zweier selbstge LOGGER AI-Suchmaschinen
Hervorragende Nahrung ist auch ein Genuss für die Augen. Aber in diesem Beitrag vergleichen wir zwei AI-basierte Suchsysteme, Farfalle und Perplexica.
Welche Sprache soll für AWS Lambda verwendet werden?
Wir können eine Lambda-Funktion für die Bereitstellung auf AWS in mehreren Sprachen schreiben. Lassen Sie uns die Leistung von (fast leeren) Funktionen, die in JavaScript, Python und Golang geschrieben wurden, vergleichen…
Einen Copilot-ähnlichen Dienst lokal ausführen? Einfach!
Das ist sehr aufregend! Statt Copilot oder perplexity.ai zu rufen und der ganzen Welt zu erzählen, wonach Sie suchen, können Sie nun einen ähnlichen Dienst auf Ihrem eigenen PC oder Laptop hosten!
Nicht so viele zur Auswahl, aber dennoch...
Als ich begann, mit LLMs zu experimentieren, waren die Benutzeroberflächen dafür noch in aktiver Entwicklung und einige von ihnen sind jetzt wirklich gut.
Testen der Erkennung logischer Fehlschlüsse
Kürzlich haben wir mehrere neue LLMs gesehen, die veröffentlicht wurden. Aufregende Zeiten. Lassen Sie uns testen und sehen, wie sie sich bei der Erkennung logischer Fehlschlüsse schlagen.
Erfordert etwas Experimentieren, aber
Es gibt dennoch einige gängige Ansätze, um gute Prompts zu formulieren, damit LLMs nicht durcheinanderkommen, wenn sie versuchen zu verstehen, was man von ihnen möchte.
Lesezeichen zwischen den Laptops & Browsern synchronisieren?
Ich habe verschiedene Tools ausprobiert und bin zu dem Schluss gekommen, dass mir floccus am besten gefällt.
Häufig benötigte Python-Code-Abschnitte
Manchmal braucht man das, kann es aber nicht sofort finden.
Daher behalte ich sie alle hier.
Etikettieren und Training benötigen etwas Klebstoff
Als ich vor einiger Zeit object detection AI trainierte war LabelImg eine sehr nützliche Werkzeug, aber die Exportfunktion von Label Studio in das COCO-Format wurde vom MMDetection-Framework nicht akzeptiert…
8 LLM-Versionen von llama3 (Meta+) und 5 LLM-Versionen von phi3 (Microsoft)
Testing, wie Modelle mit unterschiedlicher Anzahl an Parametern und Quantisierung sich verhalten.
Ollama-LLM-Modelldateien benötigen viel Speicherplatz.
Nachdem Sie Ollama installiert haben, ist es besser, Ollama direkt so zu konfigurieren, dass die Modelle an einem neuen Ort gespeichert werden. So werden neue Modelle nicht mehr in den alten Speicherort heruntergeladen.
Es ist so ärgerlich, all diese Werbung anzusehen.
Sie können einen Browser-Ad-Blocker-Plugin oder -Add-on für Google Chrome, Firefox oder Safari installieren, müssen dies aber auf jedem Gerät separat durchführen.
Der Netzwerkweite Ad-Blocker ist meine bevorzugte Lösung.
Sehr häufige Fehlermeldung...
Nach dem Klonen des Git-Repositorys sollten Sie die lokale Repository-Konfiguration vornehmen, insbesondere den Benutzernamen und die E-Mail-Adresse festlegen.
Hugo ist ein statischer Seiten-Generator
Wenn die Website mit Hugo generiert wird, ist es an der Zeit, sie auf eine Hosting-Plattform zu deployen.
Hier ist ein HowTo, um sie auf AWS S3 zu pushen und mit AWS CloudFront CDN zu servieren.
Testen wir die Geschwindigkeit der LLMs auf GPU im Vergleich zu CPU
Vergleich der Vorhersagegeschwindigkeit verschiedener Versionen von LLMs: llama3 (Meta/Facebook), phi3 (Microsoft), gemma (Google), mistral (Open Source) auf CPU und GPU.