Self-Hosting

Self-hosting Perplexica - con Ollama

Self-hosting Perplexica - con Ollama

Eseguire un servizio nello stile di Copilot in locale? Facile!

Questo è molto eccitante! Invece di chiamare copilot o perplexity.ai e raccontare a tutti il mondo di cosa stai cercando, ora puoi ospitare un servizio simile sul tuo PC o laptop!

Frontend per LLM

Frontend per LLM

Non ce ne sono così tanti da scegliere, ma comunque...

Quando ho iniziato a sperimentare con gli LLM, le interfacce utente per loro erano in fase attiva di sviluppo e ora alcune di esse sono davvero buone.

Gemma2 vs Qwen2 vs Mistral Nemo vs...

Gemma2 vs Qwen2 vs Mistral Nemo vs...

Test della rilevazione delle fallacie logiche

Recentemente abbiamo visto il rilascio di diversi nuovi LLM. Tempi eccitanti. Testiamo e vediamo come si comportano quando rilevano fallacie logiche.

Installazione di Pi-Hole - Adblocker gratuito

Installazione di Pi-Hole - Adblocker gratuito

È così fastidioso guardare tutti quegli spot pubblicitari

Puoi installare un plugin o un’estensione per il blocco degli annunci nel browser per Google Chrome, Firefox o Safari, ma dovrai farlo su ogni dispositivo. Il blocco degli annunci su tutta la rete è la mia soluzione preferita.

Rilevazione di errori logici con i LLM

Rilevazione di errori logici con i LLM

Testiamo la qualità della rilevazione delle fallacie logiche di diversi LLM

Confronto di diverse versioni di modelli LLM: llama3 (Meta), phi3 (Microsoft), gemma (Google), mistral (open source) e qwen (Alibaba).