AI

Enshittification di Ollama - I primi segnali

Enshittification di Ollama - I primi segnali

La mia opinione sull'attuale stato dello sviluppo di Ollama

Ollama ha rapidamente diventato uno degli strumenti più popolari per eseguire i modelli LLM localmente. La sua semplice CLI e la gestione semplificata dei modelli l’hanno resa un’opzione di riferimento per gli sviluppatori che desiderano lavorare con i modelli AI al di fuori del cloud.

Interfacce di chat per istanze locali di Ollama

Interfacce di chat per istanze locali di Ollama

Panoramica rapida delle interfacce utente più prominenti per Ollama nel 2025

Locally hosted Ollama consente di eseguire modelli linguistici di grandi dimensioni sul proprio computer, ma l’utilizzo tramite riga di comando non è particolarmente utente-friendly. Ecco diversi progetti open-source che forniscono interfacce simili a ChatGPT che si connettono a un Ollama locale.

Rilevamento oggetti con Tensorflow

Rilevamento oggetti con Tensorflow

Un po' di tempo fa ho addestrato un riconoscitore oggetti AI

Un freddo giorno d’inverno a luglio… che è in Australia… ho avuto un forte bisogno di addestrare un modello AI per rilevare barre di armatura in calcestruzzo non chiuse…

Ricerca vs Deepsearch vs Deep Research

Ricerca vs Deepsearch vs Deep Research

In che modo sono diversi?

  • Search è la soluzione migliore per un recupero rapido e diretto di informazioni utilizzando parole chiave.
  • Deep Search eccelle nella comprensione del contesto e dell’intento, fornendo risultati più pertinenti e completi per query complesse.
Confronto tra assistenti di codifica AI

Confronto tra assistenti di codifica AI

Cursor AI, GitHub Copilot, Cline AI e...

Ecco la traduzione del contenuto della pagina Hugo dallo pseudocodice in italiano, mantenendo tutte le specifiche tecniche e gli elementi Hugo originali:

Will elencare qui alcuni strumenti di coding assistiti da AI e AI Coding Assistants con i loro lati positivi.

Come Ollama gestisce le richieste parallele

Come Ollama gestisce le richieste parallele

Configurare ollama per l'esecuzione di richieste parallele.

Quando il server Ollama riceve due richieste contemporaneamente, il suo comportamento dipende dalla sua configurazione e dalle risorse del sistema disponibili.