Ollama チートシート
将来的な使用のためにいくつかコンパイルしておきました…
目次
以下は、Ollama コマンドの最も役に立つリストと例です (Ollama コマンドのチートシート)。
以前にまとめたものです。
きっとあなたにとって役に立つでしょう (有用な情報)。
この Ollama チートシートは、CLI コマンド、モデル管理、カスタマイズに焦点を当てています。
インストール
- オプション1: ウェブサイトからダウンロード
- ollama.com を訪問し、使用しているオペレーティングシステム(Mac、Linux、または Windows)用のインストーラーをダウンロードしてください。
- オプション2: コマンドラインでインストール
- Mac および Linux ユーザーは、以下のコマンドを使用してください:
curl https://ollama.ai/install.sh | sh
- 画面表示に従ってください。パスワードが求められた場合は、入力してください[3]。
- Mac および Linux ユーザーは、以下のコマンドを使用してください:
システム要件
- オペレーティングシステム: Mac または Linux(Windows バージョンは開発中)
- メモリ(RAM): 最小 8GB、推奨は 16GB 以上
- ストレージ: 約 10GB の空き容量が必要
- プロセッサ: 5 年以内の比較的新しい CPU[3]。
基本的な Ollama CLI コマンド
コマンド | 説明 |
---|---|
ollama serve |
あなたのローカルシステムで Ollama を起動します。 |
ollama create <new_model> |
既存のモデルからカスタマイズやトレーニングのために新しいモデルを作成します。 |
ollama show <model> |
特定のモデルの詳細(構成やリリース日など)を表示します。 |
ollama run <model> |
指定されたモデルを実行し、インタラクションが可能になります。 |
ollama pull <model> |
指定されたモデルをあなたのシステムにダウンロードします。 |
ollama list |
ダウンロードされたすべてのモデルを一覧表示します。 |
ollama ps |
現在実行中のモデルを表示します。 |
ollama stop <model> |
指定された実行中のモデルを停止します。 |
ollama rm <model> |
指定されたモデルをあなたのシステムから削除します。 |
ollama help |
任意のコマンドについてのヘルプを提供します。 |
モデル管理
-
モデルのダウンロード:
ollama pull mistral-nemo:12b-instruct-2407-q6_K
このコマンドは、指定されたモデル(例: Gemma 2B)をあなたのシステムにダウンロードします。
-
モデルの実行:
ollama run qwen2.5:32b-instruct-q3_K_S
このコマンドは、指定されたモデルを実行し、インタラクティブな REPL を開きます。
-
モデルの一覧表示:
ollama list
このコマンドは、あなたのシステムにダウンロードされたすべてのモデルを一覧表示します。
-
モデルの停止:
ollama stop llama3.1:8b-instruct-q8_0
このコマンドは、指定された実行中のモデルを停止します。
モデルのカスタマイズ
-
システムプロンプトの設定: Ollama の REPL 内で、モデルの動作をカスタマイズするためのシステムプロンプトを設定できます:
>>> /set system すべての質問に対して、可能な限り技術用語を避けて平易な英語で回答してください >>> /save ipe >>> /bye
その後、カスタマイズされたモデルを実行します:
ollama run ipe
これにより、システムプロンプトが設定され、将来的に使用できるようモデルが保存されます。
-
カスタムモデルファイルの作成:
custom_model.txt
などのテキストファイルを作成し、以下の構造を使用してください:FROM llama3.1 SYSTEM [ここにカスタム指示を入力してください]
その後、以下のコマンドを実行してください:
ollama create mymodel -f custom_model.txt ollama run mymodel
これにより、ファイル内の指示に基づいてカスタムモデルが作成されます[3]。
ファイルと Ollama の併用
-
ファイルからのテキストの要約:
ollama run llama3.2 "このファイルの内容を50語で要約してください。" < input.txt
このコマンドは、指定されたモデルを使用して
input.txt
の内容を要約します。 -
モデルの応答をファイルにログ出力:
ollama run llama3.2 "再生可能エネルギーについて教えてください。" > output.txt
このコマンドは、モデルの応答を
output.txt
に保存します。
一般的なユースケース
-
テキスト生成:
- 大きなテキストファイルの要約:
ollama run llama3.2 "以下のテキストを要約してください:" < long-document.txt
- コンテンツ生成:
ollama run llama3.2 "AIを医療に活用する利点についての短い記事を書いてください。" > article.txt
- 特定の質問への回答:
ollama run llama3.2 "AIの最新トレンドと、それが医療に与える影響について教えてください。"
.
- 大きなテキストファイルの要約:
-
データ処理と分析:
- テキストを肯定的、否定的、中立の感情に分類:
ollama run llama3.2 "この顧客レビューの感情を分析してください: '製品は素晴らしいですが、配送が遅かったです。'"
- 事前に定義されたカテゴリにテキストを分類: 類似したコマンドを使用して、事前に定義された基準に基づいてテキストを分類またはカテゴリ化できます。
- テキストを肯定的、否定的、中立の感情に分類:
Python と Ollama の併用
- Ollama Python ライブラリのインストール:
pip install ollama
- Python を使用したテキスト生成:
このコードスニペットは、指定されたモデルとプロンプトを使用してテキストを生成します。
import ollama response = ollama.generate(model='gemma:2b', prompt='量子ビットとは何ですか?') print(response['response'])