Ollama Cheatsheet
Złożyłem kilka w przyszłość...
Oto lista i przykłady najbardziej przydatnych poleceń Ollama (arkusz poleceń Ollama) Zgromadziłem je kilka czasów temu. Mam nadzieję, że będzie on przydatny dla Ciebie.
Ten arkusz Ollama skupia się na poleceniach CLI, zarządzaniu modelami i dostosowaniu
Instalacja
- Opcja 1: Pobierz z witryny
- Odwiedź ollama.com i pobierz instalator dla swojego systemu operacyjnego (Mac, Linux lub Windows).
- Opcja 2: Zainstaluj przez wiersz poleceń
- Dla użytkowników Mac i Linux, użyj polecenia:
curl https://ollama.ai/install.sh | sh
- Postępuj zgodnie z instrukcjami na ekranie i wprowadź swoje hasło, jeśli zostanie poproszony[3].
- Dla użytkowników Mac i Linux, użyj polecenia:
Wymagania systemowe
- System operacyjny: Mac lub Linux (wersja Windows w trakcie rozwoju)
- Pamięć (RAM): minimum 8 GB, zalecane 16 GB lub więcej
- Przechowywanie: co najmniej ~10 GB wolnego miejsca
- Procesor: stosunkowo nowy procesor (z ostatnich 5 lat)[3].
Podstawowe polecenia CLI Ollama
Polecenie | Opis |
---|---|
ollama serve |
Uruchamia Ollama na Twoim lokalnym systemie. |
ollama create <nowy_model> |
Tworzy nowy model na podstawie istniejącego w celu dostosowania lub szkolenia. |
ollama show <model> |
Wyświetla szczegóły dotyczące konkretnego modelu, takie jak jego konfiguracja i data wydania. |
ollama run <model> |
Uruchamia wskazany model, gotowy do interakcji. |
ollama pull <model> |
Pobiera wskazany model do Twojego systemu. |
ollama list |
Wyświetla wszystkie pobrane modele. |
ollama ps |
Pokazuje obecnie uruchomione modele. |
ollama stop <model> |
Zatrzymuje wskazany uruchomiony model. |
ollama rm <model> |
Usuwa wskazany model z Twojego systemu. |
ollama help |
Udostępnia pomoc dotyczącą dowolnego polecenia. |
Zarządzanie modelami
-
Pobierz model:
ollama pull mistral-nemo:12b-instruct-2407-q6_K
To polecenie pobiera wskazany model (np. Gemma 2B) do Twojego systemu.
-
Uruchom model:
ollama run qwen2.5:32b-instruct-q3_K_S
To polecenie uruchamia wskazany model i otwiera interaktywny REPL do interakcji.
-
Wyświetl modele:
ollama list
To polecenie wyświetla wszystkie modele pobrane do Twojego systemu.
-
Zatrzymaj model:
ollama stop llama3.1:8b-instruct-q8_0
To polecenie zatrzymuje wskazany uruchomiony model.
Dostosowywanie modeli
-
Ustawienie systemowego monitu: Wewnątrz REPL Ollama możesz ustawić systemowy monit w celu dostosowania zachowania modelu:
>>> /set system Na wszystkie zadane pytania odpowiadaj po prostu po angielsku, unikając technicznego żargonu, w miarę możliwości >>> /save ipe >>> /bye
Następnie uruchom dostosowany model:
ollama run ipe
To ustawia monit systemowy i zapisuje model do późniejszego użytku.
-
Utwórz plik modelu niestandardowego: Utwórz plik tekstowy (np.
custom_model.txt
) z poniższą strukturą:FROM llama3.1 SYSTEM [Twoje niestandardowe instrukcje tutaj]
Następnie uruchom:
ollama create mymodel -f custom_model.txt ollama run mymodel
To tworzy dostosowany model na podstawie instrukcji zawartych w pliku[3].
Użycie Ollama z plikami
-
Podsumowanie tekstu z pliku:
ollama run llama3.2 "Podsumuj zawartość tego pliku w 50 słowach." < input.txt
To polecenie podsumowuje zawartość
input.txt
za pomocą wskazanego modelu. -
Zapisywanie odpowiedzi modelu do pliku:
ollama run llama3.2 "Opowiedz mi o energii odnawialnej." > output.txt
To polecenie zapisuje odpowiedź modelu do
output.txt
.
Typowe przypadki użycia
-
Generowanie tekstu:
- Podsumowanie dużego pliku tekstowego:
ollama run llama3.2 "Podsumuj poniższy tekst:" < long-document.txt
- Generowanie treści:
ollama run llama3.2 "Napisz krótki artykuł na temat korzyści z wykorzystania AI w medycynie." > article.txt
- Odpowiadanie na konkretne pytania:
ollama run llama3.2 "Jakie są najnowsze trendy w AI i jak wpłyną one na medycynę?"
.
- Podsumowanie dużego pliku tekstowego:
-
Przetwarzanie i analiza danych:
- Klasyfikacja tekstu na pozytywny, negatywny lub neutralny:
ollama run llama3.2 "Przeanalizuj ton tej recenzji klienta: 'Produkt jest fantastyczny, ale dostawa była wolna.'"
- Kategoryzacja tekstu na wstępnie zdefiniowane kategorie: Użyj podobnych poleceń do klasyfikacji lub kategoryzacji tekstu na podstawie wstępnie zdefiniowanych kryteriów.
- Klasyfikacja tekstu na pozytywny, negatywny lub neutralny:
Użycie Ollama z Pythonem
- Zainstaluj bibliotekę Pythona Ollama:
pip install ollama
- Generuj tekst za pomocą Pythona:
Ten fragment kodu generuje tekst za pomocą wskazanego modelu i monitu.
import ollama response = ollama.generate(model='gemma:2b', prompt='co to jest kubit?') print(response['response'])
Przydatne linki
- Porównanie asystentów kodowania AI
- Przeniesienie modeli Ollama na inny dysk lub folder
- Jak Ollama obsługuje żądania równoległe
- Jak Ollama wykorzystuje wydajność procesora Intel i efektywne jądra
- Testowanie modelu deepseek-r1 na Ollama
- Arkusz poleceń Bash
- Modele Qwen3 Embedding & Reranker na Ollama: Stan technologii