Self-Hosting Cognee: Test delle Prestazioni del LLM
Test di Cognee con LLM locali - risultati reali
Cognee è un framework Python per costruire grafi di conoscenza da documenti utilizzando LLM. Ma funziona con modelli autohostati?
Test di Cognee con LLM locali - risultati reali
Cognee è un framework Python per costruire grafi di conoscenza da documenti utilizzando LLM. Ma funziona con modelli autohostati?
Come ho risolto i problemi di rete in Ubuntu
Dopo l’installazione automatica di un nuovo kernel, Ubuntu 24.04 ha perso la connessione Ethernet. Questo problema frustrante è successo nuovamente a me, quindi sto documentando la soluzione qui per aiutare gli altri che affrontano lo stesso problema.
Breve post, solo per segnalare il prezzo
Con questa folle volatilità dei prezzi della RAM, per formare e avere un’immagine più chiara, iniziamo noi a tracciare il prezzo della RAM in Australia.
I prezzi della RAM aumentano del 163-619% a causa della domanda di AI che mette a dura prova l'offerta
Il mercato della memoria sta vivendo una volatilità dei prezzi senza precedenti alla fine del 2025, con un aumento drammatico dei prezzi della RAM su tutti i segmenti: prezzi della RAM in aumento.
Prezzi delle GPU per consumatori adatte all'AI - RTX 5080 e RTX 5090
Confrontiamo i prezzi delle GPU per consumatori di alto livello, che sono particolarmente adatte per i modelli linguistici (LLM) e in generale per l’intelligenza artificiale (AI). Specificamente sto guardando a prezzi RTX-5080 e RTX-5090.
Distribuisci l'AI aziendale su hardware a basso costo con modelli open source
La democratizzazione dell’AI è arrivata. Con modelli open source come Llama 3, Mixtral e Qwen che ora competono con i modelli proprietari, i team possono costruire potenti infrastrutture AI utilizzando hardware consumer - riducendo i costi mentre mantengono il pieno controllo sulla privacy dei dati e sull’implementazione.
Abilita l'accelerazione GPU per Docker Model Runner con supporto NVIDIA CUDA
Docker Model Runner è lo strumento ufficiale di Docker per eseguire modelli AI localmente, ma abilitare l’accelerazione GPU di NVidia in Docker Model Runner richiede una configurazione specifica.
Benchmark GPT-OSS 120b su tre piattaforme AI
Ho trovato alcuni interessanti test di prestazioni su GPT-OSS 120b in esecuzione su Ollama su tre diversi piattaforme: NVIDIA DGX Spark, Mac Studio e RTX 4080. Il modello GPT-OSS 120b della libreria Ollama pesa 65 GB, il che significa che non si adatta alla VRAM da 16 GB di un RTX 4080 (o al più recente RTX 5080).
Riferimento rapido per i comandi di Docker Model Runner
Docker Model Runner (DMR) è la soluzione ufficiale di Docker per eseguire modelli AI localmente, introdotta ad aprile 2025. Questa guida rapida fornisce un riferimento veloce per tutti i comandi essenziali, le configurazioni e le best practice.
Gestione semplice di VM per Linux con GNOME Boxes
Nel panorama attuale dell’informatica, la virtualizzazione è diventata essenziale per lo sviluppo, i test e l’esecuzione di diversi sistemi operativi. Per gli utenti Linux che cercano un modo semplice e intuitivo per gestire le macchine virtuali, GNOME Boxes si distingue come un’opzione leggera e user-friendly che privilegia l’usabilità senza sacrificare le funzionalità.
I chip specializzati stanno rendendo l'inferenza dell'AI più veloce e economica.
Il futuro dell’AI non riguarda solo modelli più intelligenti modelli — riguarda il silicio più intelligente.
L’hardware specializzato per l’inferenza LLM sta guidando una rivoluzione simile a quella del mining del Bitcoin verso gli ASIC.
Disponibilità, prezzi al dettaglio in sei paesi e confronto con Mac Studio.
NVIDIA DGX Spark è reale, in vendita il 15 ottobre 2025, e rivolto agli sviluppatori CUDA che necessitano di lavori locali su LLM con un NVIDIA AI stack integrato. Prezzo MSRP USA $3.999; il prezzo al dettaglio in UK/DE/JP è più alto a causa dell’IVA e dei canali. I prezzi indicativi pubblici in AUD/KRW non sono ancora ampiamente disponibili.
Prezzi delle GPU per consumatori adatte all'AI - RTX 5080 e RTX 5090
Ancora e ancora confrontiamo i prezzi delle GPU per consumatori di alto livello, che sono particolarmente adatte per LLM e in generale per l’AI. Specificamente sto guardando a prezzi RTX-5080 e RTX-5090. Hanno subito un lieve calo.
Piccola lista di applicazioni per il monitoraggio del carico della GPU
Applicazioni per il monitoraggio del carico della GPU:
nvidia-smi vs nvtop vs nvitop vs KDE plasma systemmonitor.
Nel luglio 2025, presto dovrebbe essere disponibile
Nvidia sta per rilasciare NVIDIA DGX Spark - un piccolo supercomputer AI basato sull’architettura Blackwell con 128+GB di RAM unificata e un’efficienza AI di 1 PFLOPS. Un dispositivo interessante per eseguire LLM.
Aggiornamento dei prezzi delle GPU adatte all'AI - RTX 5080 e RTX 5090
Confrontiamo i prezzi delle GPU per consumatori di alto livello, adatte in particolare per LLM e in generale per l’AI. Guardiamo specificamente a prezzi RTX 5080 e RTX 5090. Sono leggermente diminuiti.