
Riordinamento con modelli di embedding
Un codice Python per il rirango di RAG
Un codice Python per il rirango di RAG
Nuovo modello AI affascinante per generare un'immagine da testo
Recentemente Black Forest Labs ha pubblicato un insieme di modelli AI testo-immagine.
Questi modelli si dice che abbiano una qualità di output molto superiore.
Proviamoli
Confronto tra due motori di ricerca AI self-hosted
La buona cucina è un piacere per gli occhi. Ma in questo post confronteremo due sistemi di ricerca basati sull’AI, Farfalle e Perplexica.
Eseguire un servizio nello stile di Copilot in locale? Facile!
Questo è molto eccitante! Invece di chiamare copilot o perplexity.ai e raccontare a tutti il mondo di cosa stai cercando, ora puoi ospitare un servizio simile sul tuo PC o laptop!
Non ce ne sono così tanti da scegliere, ma comunque...
Quando ho iniziato a sperimentare con gli LLM, le interfacce utente per loro erano in fase attiva di sviluppo e ora alcune di esse sono davvero buone.
Test della rilevazione delle fallacie logiche
Recentemente abbiamo visto il rilascio di diversi nuovi LLM. Tempi eccitanti. Testiamo e vediamo come si comportano quando rilevano fallacie logiche.
Richiede alcuni esperimenti ma
Tuttavia, esistono alcuni approcci comuni per scrivere promemoria efficaci in modo che i modelli linguistici non si confondano cercando di capire cosa si desidera da essi.
Frammenti di codice Python frequentemente necessari
A volte ne ho bisogno ma non riesco a trovarli subito.
Per questo motivo li tengo tutti qui.
Etichettatura e formazione richiedono un po' di colla.
Quando ho addestrato un rilevatore di oggetti AI qualche tempo fa - LabelImg era uno strumento molto utile, ma l’esportazione da Label Studio al formato COCO non era accettata dal framework MMDetection..
8 versioni llama3 (Meta+) e 5 versioni phi3 (Microsoft) LLM
Testando come modelli con un numero diverso di parametri e quantizzazione si comportano.
I file del modello LLM di Ollama occupano molto spazio.
Dopo l’installazione di ollama è meglio riconfigurare ollama per archiviarli in un nuovo luogo subito. In questo modo, dopo aver scaricato un nuovo modello, non verrà scaricato nella vecchia posizione.
Verifichiamo la velocità degli LLM su GPU rispetto al CPU
Confronto della velocità di previsione di diverse versioni di LLM: llama3 (Meta/Facebook), phi3 (Microsoft), gemma (Google), mistral (open source) su CPU e GPU.
Testiamo la qualità della rilevazione delle fallacie logiche di diversi LLM
Confronto di diverse versioni di modelli LLM: llama3 (Meta), phi3 (Microsoft), gemma (Google), mistral (open source) e qwen (Alibaba).
Un po' di tempo fa ho addestrato un riconoscitore oggetti AI
Un freddo giorno d’inverno a luglio… che è in Australia… ho avuto un forte bisogno di addestrare un modello AI per rilevare barre di armatura in calcestruzzo non chiuse…