LLM-Frontends
Nicht so viele zur Auswahl, aber dennoch...
Als ich begann, mit LLMs zu experimentieren, waren die Benutzeroberflächen für sie noch in aktiver Entwicklung, und heute sind einige von ihnen wirklich gut.
Nicht so viele zur Auswahl, aber dennoch...
Als ich begann, mit LLMs zu experimentieren, waren die Benutzeroberflächen für sie noch in aktiver Entwicklung, und heute sind einige von ihnen wirklich gut.
Erfordert etwas Experimentieren, aber
Es gibt dennoch einige gängige Ansätze, um gute Prompts zu formulieren, damit LLMs nicht durcheinanderkommen, wenn sie versuchen zu verstehen, was man von ihnen möchte.
Lesezeichen zwischen den Laptops & Browsern synchronisieren?
Ich habe verschiedene Tools ausprobiert und bin zu dem Schluss gekommen, dass mir floccus am besten gefällt.
Häufig benötigte Python-Code-Snippets
Manchmal braucht man das, findet es aber nicht sofort. Daher sammle ich sie alle hier.
Etikettieren und Training benötigen etwas Klebstoff
Als ich vor einiger Zeit object detection AI trainierte war LabelImg eine sehr nützliche Werkzeug, aber die Exportfunktion von Label Studio in das COCO-Format wurde vom MMDetection-Framework nicht akzeptiert…
8 LLM-Versionen von llama3 (Meta+) und 5 LLM-Versionen von phi3 (Microsoft)
Testing, wie Modelle mit unterschiedlicher Anzahl an Parametern und Quantisierung sich verhalten.
Ollama-LLM-Modelldateien benötigen viel Speicherplatz.
Nachdem Sie Ollama installiert haben, ist es besser, Ollama direkt so zu konfigurieren, dass die Modelle an einem neuen Ort gespeichert werden. So werden neue Modelle nicht mehr in den alten Speicherort heruntergeladen.
Es ist so ärgerlich, all diese Werbung anzusehen.
Sie können einen Browser-Ad-Blocker-Plugin oder -Add-on für Google Chrome, Firefox oder Safari installieren, müssen dies aber auf jedem Gerät separat durchführen.
Der Netzwerkweite Ad-Blocker ist meine bevorzugte Lösung.
Sehr häufige Fehlermeldung...
Nach dem Klonen des Git-Repositorys sollten Sie die lokale Repository-Konfiguration vornehmen, insbesondere den Benutzernamen und die E-Mail-Adresse festlegen.
Hugo ist ein statischer Seiten-Generator
Wenn die Website mit Hugo generiert wird, ist es an der Zeit, sie auf eine Hosting-Plattform zu deployen.
Hier ist ein HowTo, um sie auf AWS S3 zu pushen und mit AWS CloudFront CDN zu servieren.
Testen wir die Geschwindigkeit der LLMs auf GPU im Vergleich zu CPU
Vergleich der Vorhersagegeschwindigkeit verschiedener Versionen von LLMs: llama3 (Meta/Facebook), phi3 (Microsoft), gemma (Google), mistral (Open Source) auf CPU und GPU.
Lassen Sie uns die Qualität der logischen Trugschlusserkennung verschiedener LLMs testen
Vergleich mehrerer Versionen von LLMs: llama3 (Meta), phi3 (Microsoft), gemma (Google), mistral (Open Source) und qwen (Alibaba).
In diesen schwierigen Zeiten kann alles passieren.
Es muss ein Backup von 1) Datenbank, 2) Dateispeicher, 3) anderen Gitea-Dateien erstellt werden. Hier geht es los.
Manchmal muss man seinen Artikel dort einfach hinzufügen ...
Das Ausschneiden, Vergrößern, Verkleinern und das Hinzufügen von Rahmen zu Bildern für diesen Blog hat mich dazu gebracht, diese häufig verwendete Funktion dem Kontextmenü von Linux Mint Cinnamon hinzuzufügen.
An dem kalten Winterabend ist es so wärmend,
Ich kannte dieses Getränk als “Glühwein”, auf Englisch wird es häufiger als Mulled Wine bezeichnet. Es hat viele Zutaten und einen ursprünglichen Geschmack. Ich liebe es!
Einige Tools Befehlszeilenparameter
Nicht eine sehr umfassende Liste, nur einige nützliche für mich