AI

Self-Hosting Immich: Privé foto cloud

Self-Hosting Immich: Privé foto cloud

Uw foto's op een zelfgehoste AI-gedreven back-up

Immich is een revolutionaire open-source, zelfgehost oplossing voor het beheren van foto’s en video’s die je volledige controle geeft over je herinneringen. Met functies die concurreren met Google Photos - waaronder AI-gestuurde gezichtsherkenning, slimme zoekfuncties en automatische mobiele back-up - terwijl je data privé en veilig blijft op je eigen server.

NVIDIA DGX Spark vs Mac Studio vs RTX-4080: Ollama-prestatielijst

NVIDIA DGX Spark vs Mac Studio vs RTX-4080: Ollama-prestatielijst

GPT-OSS 120b benchmarks op drie AI-platforms

Ik vond enkele interessante prestatietests van GPT-OSS 120b die draaien op Ollama over drie verschillende platforms: NVIDIA DGX Spark, Mac Studio en RTX 4080. De GPT-OSS 120b model uit de Ollama bibliotheek weegt 65 GB, wat betekent dat het niet past in de 16 GB VRAM van een RTX 4080 (of de nieuwere RTX 5080).

DGX Spark vs. Mac Studio: Prijscheck van NVIDIA's persoonlijke AI-supercomputer

DGX Spark vs. Mac Studio: Prijscheck van NVIDIA's persoonlijke AI-supercomputer

Beschikbaarheid, werkelijke retailprijzen in zes landen en vergelijking met de Mac Studio.

NVIDIA DGX Spark is real, op de markt beschikbaar 15 oktober 2025, en gericht op CUDA-ontwikkelaars die lokale LLM werkzaamheden willen uitvoeren met een geïntegreerde NVIDIA AI stack. US MSRP $3.999; UK/DE/JP retail is hoger vanwege btw en distributie. AUD/KRW openbare stickerprijzen zijn nog niet algemeen gepubliceerd.

Ollama Enshittification - De vroege tekenen

Ollama Enshittification - De vroege tekenen

Mijn visie op de huidige staat van Ollama-ontwikkeling

Ollama is snel geworden tot een van de populairste tools voor het lokaal uitvoeren van LLMs. Zijn eenvoudige CLI en gestroomlijnde modelbeheer hebben het tot de favoriete optie gemaakt voor ontwikkelaars die willen werken met AI-modellen buiten de cloud. Maar net als bij veel veelbelovende platforms zijn er al tekenen van Enshittification:

Chat-UI's voor lokale Ollama-instanties

Chat-UI's voor lokale Ollama-instanties

Korte overzicht van de meest opvallende UI's voor Ollama in 2025

Locally geïnstalleerde Ollama stelt u in staat om grote taalmodellen op uw eigen computer te draaien, maar het gebruik ervan via de opdrachtnaam is niet gebruikersvriendelijk. Hier zijn verschillende open-source projecten die ChatGPT-stijl interfaces bieden die verbinding maken met een lokale Ollama.