Self-Hosting

Indie Web: Die digitale Unabhängigkeit zurückgewinnen

Indie Web: Die digitale Unabhängigkeit zurückgewinnen

Besitzen Sie Ihre Inhalte und kontrollieren Sie Ihre Identität

Das Web wurde ursprünglich als ein dezentralisiertes Netzwerk entworfen, in dem jeder veröffentlichen und verbinden konnte. Mit der Zeit konsolidierten Korporationen die Kontrolle und schufen geschlossene Gärten, in denen Nutzer Produkte sind und Inhalte eingesperrt werden. Die Indie-Web-Bewegung strebt danach, das ursprüngliche Versprechen des Webs wiederherzustellen: persönlicher Besitz, kreative Freiheit und echte Verbindung.

DGX Spark vs. Mac Studio: Preisgeprüfter Vergleich von NVIDIAs persönlichem KI-Supercomputer

DGX Spark vs. Mac Studio: Preisgeprüfter Vergleich von NVIDIAs persönlichem KI-Supercomputer

Verfügbarkeit, tatsächliche Einzelhandelspreise in sechs Ländern und Vergleich mit dem Mac Studio.

NVIDIA DGX Spark ist real, erhältlich ab dem 15. Oktober 2025 und richtet sich an CUDA-Entwickler, die lokale LLM-Arbeit mit einem integrierten NVIDIA AI-Stack benötigen. US-MSRP 3.999 $; UK/DE/JP Einzelhandel ist aufgrund von Mehrwertsteuer und Vertrieb höher. AUD/KRW öffentliche Preise sind noch nicht weit verbreitet.

Kubuntu vs. KDE Neon: Ein technischer Tiefenblick

Kubuntu vs. KDE Neon: Ein technischer Tiefenblick

``` Ich habe sowohl Kubuntu als auch KDE Neon ausprobiert, Kubuntu ist stabiler. ```

Für KDE Plasma-Fans tauchen bei Diskussionen häufig zwei Linux-Distributionen auf: Kubuntu und KDE Neon. Sie mögen ähnlich erscheinen – beide liefern KDE Plasma als Standard-Desktop, basieren auf Ubuntu und sind benutzerfreundlich.

Speicherzuweisungsmodellplanung in der neuen Version von Ollama - v0.12.1

Speicherzuweisungsmodellplanung in der neuen Version von Ollama - v0.12.1

Mein eigener Test der Ollama-Modellplanung

Hier vergleiche ich, wie viel VRAM die neue Version von Ollama für das Modell zuweist (https://www.glukhov.org/de/post/2025/09/memory-allocation-in-ollama-new-version/ “Ollama VRAM-Zuweisung”) im Vergleich zur vorherigen Version. Die neue Version ist schlechter.

Ollama Enshittification - die ersten Anzeichen

Ollama Enshittification - die ersten Anzeichen

Meine Einschätzung zum aktuellen Stand der Ollama-Entwicklung

Ollama hat sich schnell zu einem der beliebtesten Tools zum lokalen Ausführen von LLMs entwickelt. Seine einfache CLI und der optimierte Modellmanagement haben es zu einer ersten Wahl für Entwickler gemacht, die mit KI-Modellen außerhalb der Cloud arbeiten möchten. Doch wie bei vielen vielversprechenden Plattformen gibt es bereits Anzeichen für Enshittification: