
LLM-frontends
Niet zo veel om uit te kiezen, maar toch...
Toen ik begon met het experimenteren met LLMs waren de UI’s voor hen in actieve ontwikkeling en nu zijn er sommige echt goed.
Niet zo veel om uit te kiezen, maar toch...
Toen ik begon met het experimenteren met LLMs waren de UI’s voor hen in actieve ontwikkeling en nu zijn er sommige echt goed.
Een beetje experimenteren vereist maar
Er zijn nog steeds enkele veelvoorkomende aanpakken om goede prompts te schrijven, zodat LLM’s niet in de war raken bij het begrijpen van wat je van hen wilt.
8 llama3 (Meta+) en 5 phi3 (Microsoft) LLM-versies
Testing hoe modellen met verschillende aantal parameters en quantisatie zich gedragen.
Ollama LLM-modelbestanden nemen veel ruimte in beslag
Na het installeren van ollama is het beter om ollama direct opnieuw in te stellen om ze op te slaan in een nieuwe locatie. Zo krijgen we nieuwe modellen niet gedownload naar de oude locatie.