Ollama Cheat Sheet

Mengompilasinya beberapa untuk penggunaan di masa depan...

Konten Halaman

Berikut adalah daftar dan contoh perintah Ollama yang paling berguna (lembar perintah Ollama) Yang saya kumpulkan beberapa waktu lalu. Semoga akan berguna bagi Anda useful to you.

ollama cheatsheet

Lembar perintah Ollama ini berfokus pada perintah CLI, manajemen model, dan penyesuaian

Instalasi

  • Opsi 1: Unduh dari Situs Web
    • Kunjungi ollama.com dan unduh penginstal untuk sistem operasi Anda (Mac, Linux, atau Windows).
  • Opsi 2: Instal melalui Baris Perintah
    • Untuk pengguna Mac dan Linux, gunakan perintah:
      curl https://ollama.ai/install.sh | sh
      
    • Ikuti instruksi di layar dan masukkan kata sandi Anda jika diminta[3].

Persyaratan Sistem

  • Sistem Operasi: Mac atau Linux (versi Windows sedang dalam pengembangan)
  • Memori (RAM): Minimal 8GB, direkomendasikan 16GB atau lebih
  • Penyimpanan: Setidaknya ~10GB ruang bebas
  • Prosesor: CPU yang relatif modern (dari 5 tahun terakhir)[3].

Perintah Dasar Ollama CLI

Perintah Deskripsi
ollama serve Memulai Ollama di sistem lokal Anda.
ollama create <new_model> Membuat model baru dari model yang sudah ada untuk penyesuaian atau pelatihan.
ollama show <model> Menampilkan detail tentang model tertentu, seperti konfigurasinya dan tanggal rilis.
ollama run <model> Menjalankan model yang ditentukan, sehingga siap untuk interaksi.
ollama pull <model> Mengunduh model yang ditentukan ke sistem Anda.
ollama list Menampilkan semua model yang telah diunduh.
ollama ps Menampilkan model yang sedang berjalan.
ollama stop <model> Menghentikan model yang sedang berjalan yang ditentukan.
ollama rm <model> Menghapus model yang ditentukan dari sistem Anda.
ollama help Memberikan bantuan tentang perintah apa pun.

Manajemen Model

  • Unduh Model:

    ollama pull mistral-nemo:12b-instruct-2407-q6_K
    

    Perintah ini mengunduh model yang ditentukan (misalnya, Gemma 2B) ke sistem Anda.

  • Jalankan Model:

    ollama run qwen2.5:32b-instruct-q3_K_S
    

    Perintah ini memulai model yang ditentukan dan membuka REPL interaktif untuk interaksi.

  • Daftar Model:

    ollama list
    

    Perintah ini menampilkan semua model yang telah diunduh ke sistem Anda.

  • Hentikan Model:

    ollama stop llama3.1:8b-instruct-q8_0
    

    Perintah ini menghentikan model yang sedang berjalan yang ditentukan.

Menyesuaikan Model

  • Atur Prompt Sistem: Di dalam REPL Ollama, Anda dapat mengatur prompt sistem untuk menyesuaikan perilaku model:

    >>> /set system Untuk semua pertanyaan yang diajukan, jawab dalam bahasa Inggris sederhana sebisa mungkin menghindari jargon teknis
    >>> /save ipe
    >>> /bye
    

    Setelah itu, jalankan model yang disesuaikan:

    ollama run ipe
    

    Ini mengatur prompt sistem dan menyimpan model untuk penggunaan di masa depan.

  • Buat File Model Kustom: Buat file teks (misalnya, custom_model.txt) dengan struktur berikut:

    FROM llama3.1
    SYSTEM [Instruksi kustom Anda di sini]
    

    Kemudian, jalankan:

    ollama create mymodel -f custom_model.txt
    ollama run mymodel
    

    Ini menciptakan model kustom berdasarkan instruksi dalam file[3].

Menggunakan Ollama dengan File

  • Ringkaskan Teks dari File:

    ollama run llama3.2 "Ringkas isi file ini dalam 50 kata." < input.txt
    

    Perintah ini merangkum isi input.txt menggunakan model yang ditentukan.

  • Catat Respons Model ke File:

    ollama run llama3.2 "Ceritakan tentang energi terbarukan." > output.txt
    

    Perintah ini menyimpan respons model ke output.txt.

Kasus Penggunaan Umum

  • Penghasilan Teks:

    • Merangkum file teks besar:
      ollama run llama3.2 "Ringkas teks berikut:" < long-document.txt
      
    • Menghasilkan konten:
      ollama run llama3.2 "Tulis artikel pendek tentang manfaat menggunakan AI dalam kesehatan." > article.txt
      
    • Menjawab pertanyaan spesifik:
      ollama run llama3.2 "Apa tren terbaru dalam AI, dan bagaimana dampaknya terhadap kesehatan?"
      

    .

  • Pemrosesan dan Analisis Data:

    • Mengklasifikasikan teks menjadi sentimen positif, negatif, atau netral:
      ollama run llama3.2 "Analisis sentimen ulasan pelanggan ini: 'Produk ini luar biasa, tetapi pengiriman lambat.'"
      
    • Mengkategorikan teks ke dalam kategori yang ditentukan: Gunakan perintah serupa untuk mengklasifikasikan atau mengkategorikan teks berdasarkan kriteria yang ditentukan.

Menggunakan Ollama dengan Python

  • Instal Perpustakaan Python Ollama:
    pip install ollama
    
  • Hasilkan Teks Menggunakan Python:
    import ollama
    
    response = ollama.generate(model='gemma:2b', prompt='Apa itu qubit?')
    print(response['response'])
    
    Snippet kode ini menghasilkan teks menggunakan model dan prompt yang ditentukan.

Tautan yang Berguna