Self-hosten van Perplexica - met Ollama

Self-hosten van Perplexica - met Ollama

Een copilot-stijl service lokaal uitvoeren? Eenvoudig!

Dat is zeer opwindend! In plaats van copilot of perplexity.ai aan te roepen en aan het hele wereldje te vertellen wat je zoekt, kan je nu een soortgelijk dienst op je eigen PC of laptop hosten!

Gemma2 vs Qwen2 vs Mistral Nemo vs...

Gemma2 vs Qwen2 vs Mistral Nemo vs...

Testen van het detecteren van logische fouten

Onlangs hebben we meerdere nieuwe LLMs gezien die zijn vrijgegeven. Opwindende tijden. Laten we testen en zien hoe ze presteren bij het detecteren van logische fouten.

LLM-frontends

LLM-frontends

Niet zo veel om uit te kiezen, maar toch...

Toen ik begon met het experimenteren met LLMs waren de UIs voor hen actief in ontwikkeling en nu zijn sommige van hen echt goed.

Het schrijven van effectieve prompts voor LLMs

Het schrijven van effectieve prompts voor LLMs

Een beetje experimenteren vereist maar

Er zijn nog steeds enkele veelvoorkomende aanpakken om goede prompts te schrijven, zodat LLM’s niet in de war raken bij het begrijpen van wat je van hen wilt.

Boekmerken synchronisatie met Floccus

Boekmerken synchronisatie met Floccus

Synchroniseren van bladwijzers over de laptops & browsers?

Ik heb verschillende tools geprobeerd en ben tot de conclusie gekomen dat ik floccus het meest leuk vind.

Installeren van Pi-Hole - gratis Adblocker

Installeren van Pi-Hole - gratis Adblocker

Het is zo vervelend om al die reclames te moeten kijken

Je kunt een browser adblock plugin of add-on installeren voor Google Chrome, Firefox of Safari, maar je moet dit dan op elk apparaat doen.
Het netwerkbrede ad-blocker is mijn favoriete oplossing.

Hugo-site implementeren in AWS S3

Hugo-site implementeren in AWS S3

Hugo is een statische sitegenerator

Wanneer de site gegenereerd is met hugo is het tijd om deze te implementeren op een hostingplatform. Hieronder staat hoe je deze kunt pushen naar AWS S3 en laten serveren met AWS CloudFront CDN.

Snelheidstest grote taalmodellen

Snelheidstest grote taalmodellen

Laat ons de snelheid van de LLM's testen op GPU versus CPU

Vergelijking van de voorspellende snelheid van verschillende versies van LLMs: llama3 (Meta/Facebook), phi3 (Microsoft), gemma (Google), mistral (open source) op CPU en GPU.

Detectie van logische fouten met LLMs

Detectie van logische fouten met LLMs

Laat ons de kwaliteit van het detecteren van logische fouten van verschillende LLMs testen

Hier vergelijk ik verschillende LLM-versies: Llama3 (Meta), Phi3 (Microsoft), Gemma (Google), Mistral Nemo (Mistral AI) en Qwen (Alibaba).

Linux Mint Cinnamon Contextmenu

Linux Mint Cinnamon Contextmenu

Soms moet je je item daar gewoon toevoegen ...

Het koppelen, vergroten, verkleinen en het toevoegen van randen aan afbeeldingen voor deze blog heeft me ertoe aangezet om deze vaak gebruikte functie toe te voegen aan de contextmenu van Linux Mint Cinnamon.