LLM

Self-hosting Perplexica - con Ollama

Self-hosting Perplexica - con Ollama

Eseguire un servizio nello stile di Copilot in locale? Facile!

Questo è molto eccitante! Invece di chiamare copilot o perplexity.ai e raccontare a tutti il mondo di cosa stai cercando, ora puoi ospitare un servizio simile sul tuo PC o laptop!

Frontend per LLM

Frontend per LLM

Non ce ne sono così tanti da scegliere, ma comunque...

Quando ho iniziato a sperimentare con gli LLM, le interfacce utente per loro erano in fase attiva di sviluppo e ora alcune di esse sono davvero buone.

Gemma2 vs Qwen2 vs Mistral Nemo vs...

Gemma2 vs Qwen2 vs Mistral Nemo vs...

Test della rilevazione delle fallacie logiche

Recentemente abbiamo visto il rilascio di diversi nuovi LLM. Tempi eccitanti. Testiamo e vediamo come si comportano quando rilevano fallacie logiche.

Rilevazione di errori logici con i LLM

Rilevazione di errori logici con i LLM

Testiamo la qualità della rilevazione delle fallacie logiche di diversi LLM

Confronto di diverse versioni di modelli LLM: llama3 (Meta), phi3 (Microsoft), gemma (Google), mistral (open source) e qwen (Alibaba).