オープンウェブUI: 自己ホスト型LLMインターフェース
ローカルLLM用のセルフホスト型ChatGPT代替ソフトウェア
Open WebUI は、大規模言語モデルと対話するための強力で拡張性があり、機能豊富な自己ホスト型ウェブインターフェースです。
LLM(大規模言語モデル)のUI(ユーザーインターフェース)に初めて触れた時、それらは積極的に開発中で、今ではいくつかは本当に優れたものとなっています。
!- Jan - LLM用のマルチプラットフォームUI(jan-site_w678.jpg Jan - LLM用のフロントエンド - インストール)
ダークモード、ライトモード、透過モードのテーマが利用可能です。
!- Jan LLMフロントエンド - メインウィンドウ(jan-self_w678.jpg Jan - LLM用のフロントエンド - why selfhostへの返信の例)
Anthropic、Cohere、OpenAI、NvidiaNIM、MistralAIなど、いくつかの既存のバックエンドに接続できます。また、独自のモデルをホストすることも可能です。以下に示すスクリーンショットの「Cortex」セクションに、JanがローカルでLlama3 8b q4とPhi3 medium (q4)をダウンロードしてホストしている様子が表示されています。
!- Jan LLMフロントエンド - 設定オプション(jan-config_w678.jpg Jan LLMフロントエンド - 設定オプション)
良い点(私が気に入った点):
悪い点:
非常に注目すべきUIです。
非常に使い勝手の良いUIです。
LLM Studio は、LLM用のUIとしては私の好みではありませんが、Huggingfaceモデルへのアクセスがより良いです。
はい、これはユーザーインターフェースの一種ですが、コマンドライン形式です。
llama3.1のLLMを実行するには、以下のコマンドを実行してください:
ollama run llama3.1
終了したら、コマンドラインからollamaを終了するコマンドを送信してください:
/bye
まだcUrlをインストールしていない場合は、以下のコマンドでインストールしてください:
sudo apt-get install curl
ollama上でホストされているローカルのmistral nemo q8 llmを呼び出すには、プロンプトp.jsonを含むローカルファイルを作成してください:
{
model: mistral-nemo:12b-instruct-2407-q8_0,
prompt: What is post-modernism?,
stream: false
}
そして、bashターミナルで以下のコマンドを実行してください:
curl -X POST http://localhost:11434/api/generate -d @p.json > p-result.json
結果はファイル p-result.json に保存されます。
結果を表示するだけにしたい場合は、以下のコマンドを使用してください:
curl -X POST http://localhost:11434/api/generate -d @p.json
これらはテストしていませんが、LLM用のUIの非常に包括的なリストです:
ローカルLLM用のセルフホスト型ChatGPT代替ソフトウェア
Open WebUI は、大規模言語モデルと対話するための強力で拡張性があり、機能豊富な自己ホスト型ウェブインターフェースです。
2025年のOllamaで最も注目されているUIの概要
ローカルにホストされた Ollama は、あなたのマシン上で大規模言語モデルを実行できるが、コマンドライン経由での使用はユーザーにとって使いにくい。
以下に、ローカルの Ollama に接続するための、いくつかのオープンソースプロジェクトが提供する ChatGPTスタイルのインターフェース がある。
2つのセルフホスト型AI検索エンジンの比較
美味しい料理は目にも楽しめます。 しかし、本記事ではAIに基づく2つの検索システム、FarfalleとPerplexicaを比較します。
ローカルでCopilotスタイルのサービスを実行する?簡単!
とてもエキサイティングですね!
CopilotやPerplexity.aiに頼って、世界中に自分の目的を明かす代わりに、今や自らのPCや高性能なノートPC上で同様のサービスをホストできるようになりました!