LLMフロントエンド
選択肢は多くないが、それでも……。
LLMのUIを初めて試したとき、それらはまだ積極的に開発中でしたが、今ではいくつかは非常に優れています。
!- Jan - LLM用のマルチプラットフォームUI(jan-site_w678.jpg Jan - LLM用のフロントエンド - インストール)
Jan
- Jan(https://jan.ai/)は、Windows、Linux、Macで利用可能です。
ダーク、ライト、透明テーマが利用可能です。
!- Jan LLMフロントエンド - メインウィンドウ(jan-self_w678.jpg Jan - LLM用のフロントエンド - why selfhostへの返信の例)
Anthropic、Cohere、OpenAI、NvidiaNIM、MistralAIなど、いくつかの既存のバックエンドに接続でき、独自のモデルをホストすることもできます。スクリーンショットの下のCortexセクションに示されているように、JanはローカルでLlama3 8b q4とPhi3 medium (q4)をダウンロードしてホスティングしています。
!- Jan LLMフロントエンド - 設定オプション(jan-config_w678.jpg Jan LLMフロントエンド - 設定オプション)
良い点(私が気に入った点):
- 直感的なインターフェース
- モデルの温度、topp、頻度および存在ペナルティ、システムプロンプトを試験できる
- APIサーバーを提供
悪い点:
- なぜか、私のUbuntuベースのOSでは少し遅い。Windowsでは問題なく動作した。
- 複数のバックエンドに接続できるが、すべてが管理されている。Ollamaオプションが使いたい。
- Cortexでセルフホスティング可能なモデルの種類が少なく、クアンタイズオプションもあまりない。
- はい、Huggingface ggufは素晴らしい。しかし、私は
- OllamaがすでにダウンロードしてVRAMにロードしたものを再利用したい
- 同じモデルをどこでもホストしないようにしたい
KoboldAI
非常に注目すべきもの
Silly Tavern
非常に使い勝手の良いもの
LLM Studio
LLM Studioは、LLM用のUIとしては私の好みではないが、Huggingfaceモデルへのアクセスはより良い。
コマンドライン Ollama
はい、それもユーザーインターフェースの一種です。ただ、コマンドラインのものです。
llama3.1のLLMを実行するには、以下を実行してください:
ollama run llama3.1
終了したら、コマンドラインからollamaを終了するコマンドを送信してください:
/bye
cURL Ollama
まだcUrlをインストールしていない場合は、以下を実行してください:
sudo apt-get install curl
ollamaでローカルにホストされているmistral nemo q8 llmを呼び出すには、プロンプトを含むローカルファイルp.json
を作成してください:
{
model: mistral-nemo:12b-instruct-2407-q8_0,
prompt: What is post-modernism?,
stream: false
}
そして、bashターミナルで以下を実行してください:
curl -X POST http://localhost:11434/api/generate -d @p.json > p-result.json
結果はファイルp-result.json
に保存されます。
結果を表示したい場合は、以下を実行してください:
curl -X POST http://localhost:11434/api/generate -d @p.json
また:
これらは試していませんが、LLMのUIが非常に包括的なリストです:
- Streamlit
- Gradio
- Lobe Chat
- Text Generation WebUI
- Ollama WebUI
- Hugging Face Chat UI
- GPT-4All
- LocalGPT
- ChainFury
- Verba by Weaviate
- React用Chat UIキット by ChatScope
- Reflex Chat
- Silly Tavern
- Amica
- Serge Chat
- LLM Multitool
- Sanctum AI
- KoboldAI
- AI Messenger
- Exui
- Spellbook Docker
- Lollms WebUI
- H2O GPT