Ollama Scheda Riepilogativa
Compilato alcuni per uso futuro...
Ecco l’elenco e gli esempi dei comandi più utili di Ollama (scheda dei comandi di Ollama) Li ho compilati tempo fa. Spero che siano utili per te.
Questa scheda di Ollama si concentra sui comandi CLI, sulla gestione dei modelli e sulla personalizzazione
Installazione
- Opzione 1: Scarica dal sito web
- Visita ollama.com e scarica l’installer per il tuo sistema operativo (Mac, Linux o Windows).
- Opzione 2: Installa tramite riga di comando
- Per gli utenti Mac e Linux, utilizza il comando:
curl https://ollama.ai/install.sh | sh
- Segui le istruzioni visualizzate a schermo e inserisci la tua password se richiesto[3].
- Per gli utenti Mac e Linux, utilizza il comando:
Requisiti di sistema
- Sistema operativo: Mac o Linux (versione Windows in sviluppo)
- Memoria (RAM): Minimo 8 GB, consigliati 16 GB o più
- Archiviazione: Almeno ~10 GB di spazio libero
- Processore: Un CPU relativamente moderno (degli ultimi 5 anni)[3].
Comandi CLI di base di Ollama
Comando | Descrizione |
---|---|
ollama serve |
Avvia Ollama sul tuo sistema locale. |
ollama create <new_model> |
Crea un nuovo modello da uno esistente per la personalizzazione o l’addestramento. |
ollama show <model> |
Mostra i dettagli di un modello specifico, ad esempio la sua configurazione e la data di rilascio. |
ollama run <model> |
Esegue il modello specificato, rendendolo pronto per l’interazione. |
ollama pull <model> |
Scarica il modello specificato sul tuo sistema. |
ollama list |
Elenca tutti i modelli scaricati. |
ollama ps |
Mostra i modelli attualmente in esecuzione. |
ollama stop <model> |
Ferma il modello specifico in esecuzione. |
ollama rm <model> |
Rimuove il modello specifico dal tuo sistema. |
ollama help |
Fornisce aiuto su qualsiasi comando. |
Gestione dei modelli
-
Scarica un modello:
ollama pull mistral-nemo:12b-instruct-2407-q6_K
Questo comando scarica il modello specificato (ad esempio, Gemma 2B) sul tuo sistema.
-
Esegui un modello:
ollama run qwen2.5:32b-instruct-q3_K_S
Questo comando avvia il modello specificato e apre un REPL interattivo per l’interazione.
-
Elenca i modelli:
ollama list
Questo comando elenca tutti i modelli scaricati sul tuo sistema.
-
Ferma un modello:
ollama stop llama3.1:8b-instruct-q8_0
Questo comando ferma il modello specifico in esecuzione.
Personalizzazione dei modelli
-
Imposta il prompt del sistema: All’interno del REPL di Ollama, puoi impostare un prompt del sistema per personalizzare il comportamento del modello:
>>> /set system Per tutte le domande rispondi in inglese semplice evitando il gergo tecnico il più possibile >>> /save ipe >>> /bye
Poi, esegui il modello personalizzato:
ollama run ipe
Questo imposta un prompt del sistema e salva il modello per un uso futuro.
-
Crea un file del modello personalizzato: Crea un file di testo (ad esempio,
custom_model.txt
) con la seguente struttura:FROM llama3.1 SYSTEM [Le tue istruzioni personalizzate qui]
Poi, esegui:
ollama create mymodel -f custom_model.txt ollama run mymodel
Questo crea un modello personalizzato in base alle istruzioni nel file[3].
Utilizzo di Ollama con i file
-
Riassumi il testo da un file:
ollama run llama3.2 "Riassumi il contenuto di questo file in 50 parole." < input.txt
Questo comando riassume il contenuto di
input.txt
utilizzando il modello specificato. -
Salva le risposte del modello in un file:
ollama run llama3.2 "Dimmi qualcosa sull'energia rinnovabile." > output.txt
Questo comando salva la risposta del modello in
output.txt
.
Caso d’uso comune
-
Generazione di testo:
- Riassumere un file di testo lungo:
ollama run llama3.2 "Riassumi il seguente testo:" < long-document.txt
- Generare contenuti:
ollama run llama3.2 "Scrivi un breve articolo sui benefici dell'utilizzo dell'AI nella sanità." > article.txt
- Rispondere a domande specifiche:
ollama run llama3.2 "Quali sono le ultime tendenze dell'AI e come influenzeranno la sanità?"
.
- Riassumere un file di testo lungo:
-
Elaborazione e analisi dei dati:
- Classificare il testo in sentimenti positivi, negativi o neutri:
ollama run llama3.2 "Analizza il sentiment di questa recensione del cliente: 'Il prodotto è fantastico, ma la consegna è stata lenta.'"
- Categorizzare il testo in categorie predefinite: Utilizza comandi simili per classificare o categorizzare il testo in base a criteri predefiniti.
- Classificare il testo in sentimenti positivi, negativi o neutri:
Utilizzo di Ollama con Python
- Installa la libreria Python di Ollama:
pip install ollama
- Genera testo utilizzando Python:
Questo frammento di codice genera testo utilizzando il modello e il prompt specificati.
import ollama response = ollama.generate(model='gemma:2b', prompt='cosa è un qubit?') print(response['response'])
Link utili
- Confronto tra assistenti di coding AI
- Spostare i modelli Ollama su un diverso disco o cartella
- Come Ollama gestisce le richieste parallele
- Come Ollama utilizza le prestazioni del processore Intel e i core efficienti
- Test di Deepseek-r1 su Ollama
- Scheda Bash
- Modelli Qwen3 Embedding & Reranker su Ollama: Prestazioni all’avanguardia