
Farfalle vs Perplexica
Confronto tra due motori di ricerca AI self-hosted
La buona cucina è un piacere per gli occhi. Ma in questo post confronteremo due sistemi di ricerca basati sull’AI, Farfalle e Perplexica.
Confronto tra due motori di ricerca AI self-hosted
La buona cucina è un piacere per gli occhi. Ma in questo post confronteremo due sistemi di ricerca basati sull’AI, Farfalle e Perplexica.
Quale linguaggio utilizzare per AWS Lambda?
Possiamo scrivere una funzione lambda per il deployment su AWS in diversi linguaggi. Confrontiamo le prestazioni di (quasi vuote) funzioni scritte in JavaScript, Python e Golang…
Eseguire un servizio nello stile di Copilot in locale? Facile!
Questo è molto eccitante! Invece di chiamare copilot o perplexity.ai e raccontare a tutti il mondo di cosa stai cercando, ora puoi ospitare un servizio simile sul tuo PC o laptop!
Test della rilevazione delle fallacie logiche
Recentemente abbiamo visto il rilascio di diversi nuovi LLM. Tempi eccitanti. Testiamo e vediamo come si comportano quando rilevano fallacie logiche.
Non ce ne sono così tanti da scegliere, ma comunque...
Quando ho iniziato a sperimentare con gli LLM, le interfacce utente per loro erano in fase attiva di sviluppo e ora alcune di esse sono davvero buone.
Richiede alcuni esperimenti ma
Tuttavia, esistono alcuni approcci comuni per scrivere promemoria efficaci in modo che i modelli linguistici non si confondano cercando di capire cosa si desidera da essi.
Sincronizzare i segnalibri tra i laptop e i browser?
Ho provato diversi strumenti e sono arrivato alla conclusione che preferisco floccus.
Frammenti di codice Python frequentemente necessari
A volte ne ho bisogno ma non riesco a trovarli subito.
Per questo motivo li tengo tutti qui.
Etichettatura e formazione richiedono un po' di colla.
Quando ho addestrato un rilevatore di oggetti AI qualche tempo fa - LabelImg era uno strumento molto utile, ma l’esportazione da Label Studio al formato COCO non era accettata dal framework MMDetection..
8 versioni llama3 (Meta+) e 5 versioni phi3 (Microsoft) LLM
Testando come modelli con un numero diverso di parametri e quantizzazione si comportano.
I file del modello LLM di Ollama occupano molto spazio.
Dopo l’installazione di ollama è meglio riconfigurare ollama per archiviarli in un nuovo luogo subito. In questo modo, dopo aver scaricato un nuovo modello, non verrà scaricato nella vecchia posizione.
È così fastidioso guardare tutti quegli spot pubblicitari
Puoi installare un plugin o un’estensione per il blocco degli annunci nel browser per Google Chrome, Firefox o Safari, ma dovrai farlo su ogni dispositivo. Il blocco degli annunci su tutta la rete è la mia soluzione preferita.
Messaggio di errore molto frequente...
Dopo aver clonato il repository git, effettua la configurazione del repository locale, in particolare imposta il nome utente e l’indirizzo email.
Hugo è un generatore di siti statici
Quando il sito viene generato con Hugo, è il momento di deployarlo su una piattaforma di hosting. Ecco come spingerlo su AWS S3 e servirlo con AWS CloudFront CDN.
Verifichiamo la velocità degli LLM su GPU rispetto al CPU
Confronto della velocità di previsione di diverse versioni di LLM: llama3 (Meta/Facebook), phi3 (Microsoft), gemma (Google), mistral (open source) su CPU e GPU.