
Markdown-codeblokken - cheatsheet en voorbeelden van gebruik
Markdown CodeBlocks zijn eenvoudig
Hier bespreek ik Codeblock opties in Markdown.
Markdown CodeBlocks zijn eenvoudig
Hier bespreek ik Codeblock opties in Markdown.
Ik gebruikte Dokuwiki als persoonlijke kennisbank.
Dokuwiki is een zelfgehoste wikipedia https://www.glukhov.org/nl/post/2025/07/dokuwiki-selfhosted-wiki-alternatives/ “Dokuwiki” die gemakkelijk kan worden gehost op locatie en vereist geen databases. Ik draaide het dockerized, op mijn eigen kubernetes cluster.
Kies het beste gereedschap om selects te schrijven en back-ups uit te voeren
De nieuwe Linux Ubuntu 24.04 desktop editie heeft me aangeboden om Beekeeper Studio te installeren als SQL-editor en DB-beheerprogramma.
Ik gebruikte daarvoor DBeaver.
OK.
Laat ons DBeaver vergelijken met Beekeeper Studio vergelijken.
Waar is de mogelijkheid om het contextmenu aan te passen in Nautilus?
Naar het installeren van een frisse Linux op een frisse PC was ik verrast dat ik geen eenvoudige manier kon vinden om het contextmenu aan te passen in Ubuntu 24.04.
Goede dingen over Python uv
Python uv (uitgesproken als “you-vee”) is een moderne, hoogprestatie Python-pakket- en projectbeheerder geschreven in Rust. Het is ontworpen als een directe vervanging voor traditionele Python-pakketbeheer-tools zoals pip
, pip-tools
, virtualenv
, pipx
en pyenv
, met als doel om Python-ontwikkelingsworkflows te vereenvoudigen en te versnellen.
Zelf-hosten van een webzoekmachine? Simpel!
YaCy is een decentraliseerde, peer-to-peer (P2P) zoekmachine die is ontworpen om te functioneren zonder centrale servers, waardoor gebruikers lokale of globale indexen kunnen maken en zoekopdrachten kunnen uitvoeren door gedistribueerde peers te raadplegen.
Nieuwe geweldige LLMs beschikbaar in Ollama
De Qwen3 Embedding en Reranker modellen zijn de nieuwste uitgaven in de Qwen-familie, specifiek ontworpen voor geavanceerde tekst-embedding, ophalen en herordenen taken.
Alle paginaberelateerde inhoud in één map houden...
Al een tijdje ben ik geplaagd door deze vervelende gewoonte om thumbnail afbeeldingen van de pagina’s in de statische map te plaatsen. Dat geldt voor Mainroad, Rodster en vergelijkbare Hugo-themes.
Overweegt u een tweede GPU te installeren voor LLMs?
Hoe beïnvloeden PCIe-lanes de prestaties van LLM’s? Afhangend van de taak. Voor training en multi-GPU-inferentie - is de prestatievermindering aanzienlijk.
Snelle controle van Ubuntu- en Mint-versies
Om te bepalen welke Ubuntu-versie gebruikt wordt in Linux Mintinstallatie is gebaseerd op, kunt u verschillende methoden gebruiken die command-line-tools en systeembestanden betreffen.
Na het instellen van Gitea en Hugo op AWS S3...
De volgende stap is het implementeren van enige CI/CD en het instellen van
Gitea Actions voor Hugo website, om website naar AWS S3 te pushen
automatisch wanneer de master branch wordt bijgewerkt.
LLM om tekst te extraheren uit HTML...
In de Ollama modellenbibliotheek zijn er modellen die in staat zijn HTML-inhoud om te zetten in Markdown, wat handig is voor inhoudsconversietaken.
En waarom zie ik deze BSOD nou altijd...
Ik werd hard getroffen door dit probleem. Maar je zou moeten onderzoeken en testen op je PC als je BSOD er net zo uitziet als het mijne.
De oorzaak was Intel’s CPU Degradation Issue in 13th en 14th generatie.
Hoe verschillend zijn ze?
Ollama op Intel CPU: Efficiëntie versus prestatie-kernen
Ik heb een theorie om te testen – als we alle kernen op een Intel CPU gebruiken, verhoogt dat de snelheid van LLMs? Het irriteert me dat de nieuwe gemma3 27 bit model (gemma3:27b, 17 GB op ollama) niet past in de 16 GB VRAM van mijn GPU en gedeeltelijk op de CPU draait.