AI

Self-hosting Perplexica - con Ollama

Self-hosting Perplexica - con Ollama

Eseguire un servizio nello stile di Copilot in locale? Facile!

Questo è molto eccitante! Invece di chiamare copilot o perplexity.ai e raccontare a tutti il mondo di cosa stai cercando, ora puoi ospitare un servizio simile sul tuo PC o laptop!

Frontend per LLM

Frontend per LLM

Non ce ne sono così tanti da scegliere, ma comunque...

Quando ho iniziato a sperimentare con gli LLM, le interfacce utente per loro erano in fase attiva di sviluppo e ora alcune di esse sono davvero buone.

Gemma2 vs Qwen2 vs Mistral Nemo vs...

Gemma2 vs Qwen2 vs Mistral Nemo vs...

Test della rilevazione delle fallacie logiche

Recentemente abbiamo visto il rilascio di diversi nuovi LLM. Tempi eccitanti. Testiamo e vediamo come si comportano quando rilevano fallacie logiche.

Python Cheat Sheet

Python Cheat Sheet

Frammenti di codice Python frequentemente necessari

A volte ne ho bisogno ma non riesco a trovarli subito.
Per questo motivo li tengo tutti qui.

Rilevazione di errori logici con i LLM

Rilevazione di errori logici con i LLM

Testiamo la qualità della rilevazione delle fallacie logiche di diversi LLM

Confronto di diverse versioni di modelli LLM: llama3 (Meta), phi3 (Microsoft), gemma (Google), mistral (open source) e qwen (Alibaba).

Rilevamento oggetti con Tensorflow

Rilevamento oggetti con Tensorflow

Un po' di tempo fa ho addestrato un riconoscitore oggetti AI

Un freddo giorno d’inverno a luglio… che è in Australia… ho avuto un forte bisogno di addestrare un modello AI per rilevare barre di armatura in calcestruzzo non chiuse…