Metodo Snake BBQ
Descrizione breve e i miei risultati
Questo post è solo per mostrare una bella foto dei carburi disposti a serpente nel mio BBQ, pronti per essere accesi.
Descrizione breve e i miei risultati
Questo post è solo per mostrare una bella foto dei carburi disposti a serpente nel mio BBQ, pronti per essere accesi.
Prezzi delle GPU per consumatori adatte all'AI - RTX 5080 e RTX 5090
Confrontiamo i prezzi delle GPU per consumatori di alto livello, che sono particolarmente adatte per i modelli linguistici (LLM) e in generale per l’intelligenza artificiale (AI). Specificamente sto guardando a prezzi RTX-5080 e RTX-5090.
Distribuisci l'AI aziendale su hardware a basso costo con modelli open source
La democratizzazione dell’AI è arrivata. Con modelli open source come Llama 3, Mixtral e Qwen che ora competono con i modelli proprietari, i team possono costruire potenti infrastrutture AI utilizzando hardware consumer - riducendo i costi mentre mantengono il pieno controllo sulla privacy dei dati e sull’implementazione.
due potenti sistemi di gestione della conoscenza
Scegliere lo strumento giusto per la Gestione Personale della Conoscenza (PKM) può influenzare in modo significativo la tua produttività, l’apprendimento e l’organizzazione delle informazioni. Vediamo insieme Obsidian e LogSeq.
Prezzi delle GPU per consumatori adatte all'AI - RTX 5080 e RTX 5090
Ancora e ancora confrontiamo i prezzi delle GPU per consumatori di alto livello, che sono particolarmente adatte per LLM e in generale per l’AI. Specificamente sto guardando a prezzi RTX-5080 e RTX-5090. Hanno subito un lieve calo.
MiKTeX vs TeX Live vs TinyTeX
Se scrivi documenti tecnici, paper o libri su Windows, sceglierai quasi certamente uno dei tre distribuzioni LaTeX per Windows 11:
Informazioni su Obsidian ...
Ecco un’analisi dettagliata di
Obsidian come potente strumento per la gestione personale della conoscenza (PKM),
che spiega l’architettura, le funzionalità, i punti di forza e il modo in cui supporta i moderni flussi di lavoro per la conoscenza.
Panoramica e sistemi da utilizzare per la Gestione della Conoscenza Personale
Ecco un overview di Gestione Personale della Conoscenza, i suoi obiettivi, i metodi e i sistemi software che possiamo utilizzare in questo meraviglioso giorno di luglio 2025.
Stavo utilizzando Dokuwiki come knowledge base personale
Dokuwiki è un wikipedia autoospitato che può essere ospitato facilmente in locale e non richiede alcun database. Lo stavo eseguendo dockerizzato, sul mio cluster Kubernetes personale.
Aggiornamento dei prezzi delle GPU adatte all'AI - RTX 5080 e RTX 5090
Confrontiamo i prezzi delle GPU per consumatori di alto livello, adatte in particolare per LLM e in generale per l’AI. Guardiamo specificamente a prezzi RTX 5080 e RTX 5090. Sono leggermente diminuiti.
L'implementazione di RAG? Ecco alcuni frammenti di codice in Go - 2...
Poiché l’Ollama standard non dispone di un’API di reranking diretta, sarà necessario implementare reranking utilizzando Qwen3 Reranker in GO generando gli embedding per le coppie query-documento e valutandoli.
L'implementazione di RAG? Ecco alcuni snippet di codice in Golang.
Questo piccolo Esempio di codice Go per il rirango è che chiama Ollama per generare embedding per la query e per ogni documento candidato, poi ordinando in ordine discendente per similarità coseno.
Verifica dei prezzi - RTX 5080 e RTX 5090
Solo tre mesi fa non vedevamo l’RTX 5090 in negozio, e ora eccola, ma i prezzi sono leggermente più alti rispetto al MRSP. Confrontiamo i prezzi più economici per l’RTX 5080 e l’RTX 5090 in Australia e vediamo come vanno le cose.
Note sulla ricetta per la preparazione di piccoli meatloaf
Manteniamo questo qui per l’elenco degli ingredienti e l’ispirazione - Rissoles.
Piu RAM, meno potenza, e comunque cara come...
Sistema automatizzato di alto livello per un lavoro eccezionale.
Ollama su CPU Intel: efficienza vs prestazioni
Ho un’idea da testare: se l’utilizzo di tutti i core su un processore Intel aumenterebbe la velocità degli LLM? Mi sta infastidendo il fatto che il nuovo modello gemma3 27 bit (gemma3:27b, 17 GB su ollama) non entra nei 16 GB di VRAM della mia GPU e viene eseguito parzialmente sul CPU.