
Riordinamento con modelli di embedding
Un codice Python per il rirango di RAG
Un codice Python per il rirango di RAG
Nuovo modello AI affascinante per generare un'immagine da testo
Recentemente Black Forest Labs ha pubblicato un insieme di modelli AI testo-immagine.
Questi modelli si dice che abbiano una qualità di output molto superiore.
Proviamoli
Confronto tra due motori di ricerca AI self-hosted
La buona cucina è un piacere per gli occhi. Ma in questo post confronteremo due sistemi di ricerca basati sull’AI, Farfalle e Perplexica.
Eseguire un servizio nello stile di Copilot in locale? Facile!
Questo è molto eccitante! Invece di chiamare copilot o perplexity.ai e raccontare a tutti il mondo di cosa stai cercando, ora puoi ospitare un servizio simile sul tuo PC o laptop!
Non ce ne sono così tanti da scegliere, ma comunque...
Quando ho iniziato a sperimentare con gli LLM, le interfacce utente per loro erano in fase attiva di sviluppo e ora alcune di esse sono davvero buone.
Test della rilevazione delle fallacie logiche
Recentemente abbiamo visto il rilascio di diversi nuovi LLM. Tempi eccitanti. Testiamo e vediamo come si comportano quando rilevano fallacie logiche.
Richiede alcuni esperimenti ma
Tuttavia, esistono alcuni approcci comuni per scrivere promemoria efficaci in modo che i modelli linguistici non si confondano cercando di capire cosa si desidera da essi.
8 versioni llama3 (Meta+) e 5 versioni phi3 (Microsoft) LLM
Testando come modelli con un numero diverso di parametri e quantizzazione si comportano.
I file del modello LLM di Ollama occupano molto spazio.
Dopo l’installazione di ollama è meglio riconfigurare ollama per archiviarli in un nuovo luogo subito. In questo modo, dopo aver scaricato un nuovo modello, non verrà scaricato nella vecchia posizione.
Verifichiamo la velocità degli LLM su GPU rispetto al CPU
Confronto della velocità di previsione di diverse versioni di LLM: llama3 (Meta/Facebook), phi3 (Microsoft), gemma (Google), mistral (open source) su CPU e GPU.
Testiamo la qualità della rilevazione delle fallacie logiche di diversi LLM
Confronto di diverse versioni di modelli LLM: llama3 (Meta), phi3 (Microsoft), gemma (Google), mistral (open source) e qwen (Alibaba).