ローカルのOllamaインスタンス用のチャットUI
2025年のOllamaで最も注目されているUIの概要
ローカルにホストされた Ollama は、自分のマシンで大規模な言語モデルを実行できるが、コマンドラインで使用するのはユーザーにとって使いにくい。
以下は、ローカルの Ollama に接続する ChatGPT スタイルのインターフェース を提供するいくつかのオープンソースプロジェクトである。
これらの UI は 会話型チャット をサポートし、多くの場合、ドキュメントのアップロードによるリトリーバル・オーガナイズド・ジェネレーション (RAG) のような機能を備えており、ウェブまたはデスクトップアプリケーションとして実行される。以下に、主なオプションの比較を示し、その後、それぞれの詳細な説明を行う。
Ollama と互換性のある UI の比較
UI ツール | プラットフォーム | ドキュメントのサポート | Ollama との統合 | 強み | 制限 |
---|---|---|---|---|---|
Page Assist | ブラウザ拡張機能 (Chrome, Firefox) | はい – ファイルをアップロードして分析 | 拡張機能の設定を通じてローカルの Ollama に接続 | ブラウザ内でのチャット; モデル管理とウェブページのコンテキスト統合が簡単。 | ブラウザ専用; 拡張機能のインストール/設定が必要。 |
Open WebUI | ウェブアプリ (セルフホスト; Docker/PWA) | はい – 内蔵の RAG (ドキュメントのアップロードまたはライブラリへの追加) | Ollama API の直接サポートまたはバンドルされたサーバー (ベース URL の設定) | 機能が豊富 (マルチLLM、オフライン、画像生成); モバイル対応 (PWA)。 | セットアップが重い (Docker/K8s); 幅広い機能が単純な使用には過剰。 |
LobeChat | ウェブアプリ (セルフホスト; PWA 対応) | はい – “Knowledge Base” にファイルをアップロード (PDF、画像など) | Ollama を複数の AI バックエンドの一つとしてサポート (Ollama の API アクセスを有効にする必要あり) | スリムな ChatGPT に似た UI; 音声チャット、プラグイン、マルチモデルサポート。 | 複雑な機能セット; 環境設定が必要 (例: Ollama とのクロスドメイン)。 |
LibreChat | ウェブアプリ (セルフホスト; マルチユーザー) | はい – “Chat with Files” を使用して RAG (埋め込み経由) | Ollama と多くの他のプロバイダーと互換性があり、チャットごとに切り替え可能 | 熟悉した ChatGPT スタイルのインターフェース; 機能が豊富 (エージェント、コードインタープリタなど)。 | インストール/設定が複雑; 大規模なプロジェクトが基本使用には過剰。 |
AnythingLLM | デスクトップアプリ (Windows, Mac, Linux) またはウェブ (Docker) | はい – 内蔵の RAG: ドキュメント (PDF、DOCX など) をドラッグ&ドロップして引用付きでインデックス化 | Ollama を LLM プロバイダーとしてサポート (設定または Docker 環境で設定) | すべてを1つにまとめた UI (あなたのドキュメント付きのプライベート ChatGPT); ノーコードエージェントビルダー、マルチユーザー対応。 | リソース使用量が高め (埋め込み DB など); デスクトップアプリには一部のマルチユーザー機能が欠如。 |
Chat-with-Notes | ウェブアプリ (軽量な Flask サーバー) | はい – テキスト/PDF ファイルをアップロードしてその内容とチャット | Ollama をすべての AI 回答に使用 (ローカルで Ollama を実行する必要あり) | 非常にシンプルなセットアップとインターフェースでドキュメントの Q&A に焦点を当て; データはローカルに残る。 | 基本的な UI と機能; シングルユーザー、1つのドキュメントのみ (高度な機能なし)。 |
これらのツールはすべて 積極的にメンテナンス されており、オープンソースである。次に、それぞれのオプションの詳細に進み、Ollama との連携方法、特徴、トレードオフについて説明する。
Page Assist (ブラウザ拡張機能)
Page Assist は、ブラウザにローカルの LLM チャットをもたらすオープンソースのブラウザ拡張機能です。Chromium ベースのブラウザと Firefox をサポートし、モデルと会話できる ChatGPT に似たサイドバーまたはタブを提供します。Page Assist は、ローカルで実行されている Ollama を AI プロバイダーとして、または他のローカルバックエンドを通じて、設定で接続できます。特に、ファイル(例: PDF やテキスト)を追加 して AI がチャット内で分析できるようにし、基本的な RAG ワークフローを可能にします。また、現在のウェブページの内容を支援したり、情報を検索したりすることもできます。
セットアップは簡単です: Chrome Web Store または Firefox Add-ons から拡張機能をインストールし、Ollama が実行されていることを確認し、Page Assist の設定で Ollama をローカル AI プロバイダーとして選択 します。インターフェースには、チャット履歴、モデル選択、チャット結果の共有可能な URL などの機能が含まれています。キーボードショートカットを使用して、フルタブチャット体験を好む場合は、ウェブ UI も利用可能です。
強み: Page Assist は軽量で便利です – ブラウザ内にあるため、別途サーバーを実行する必要がない です。ウェブブラウジングのコンテキストで非常に便利で、インターネット検索の統合とファイル添付 をサポートし、会話を豊かにします。また、キーボードショートカットによる新規チャットの作成やサイドバーの切り替えなどの便利な機能も提供しています。
制限: 拡張機能であるため、ブラウザ環境に限定される です。UI はシンプルで、フルスタンドアロンチャットアプリほど機能が豊富ではありません。例えば、マルチユーザー管理や高度なエージェントプラグインは対象外です。また、事前にパッケージされたバージョンがブラウザにない場合、初期設定では拡張機能を構築/ロードする必要があります(プロジェクトは Bun または npm を使用した構築手順を提供しています)。全体的に、Page Assist はウェブブラウジング中に Ollama チャットに迅速にアクセスしたい場合に最適で、中程度の RAG 能力を備えています。
Open WebUI (セルフホストウェブアプリケーション)
Open WebUI の設定インターフェース、Ollama 接続が設定されている(ローカル Ollama API のベース URL が設定されている)。UI にはドキュメントセクションがあり、RAG ワークフローを可能にしている。
Open WebUI は、Ollama と連携して動作する、強力で汎用的なチャットフロントエンドで、現在ではさまざまな LLM バックエンドをサポートしています。セルフホストウェブアプリケーションとして動作し、Docker や Kubernetes を使用して簡単にセットアップできます。起動後はブラウザでアクセスできます(モバイルデバイスでは Progressive Web App としてインストール可能です)。
Open WebUI は、マルチユーザー対応、モデル管理、豊富な機能 を備えたフルチャットインターフェースを提供します。重要なのは、内蔵の RAG 能力 です – ドキュメントをアップロードまたはライブラリにインポートし、リトリーバル拡張付きで質問できます。インターフェースでは、ドキュメントを直接チャットセッションにロードしたり、知識の持続的なライブラリを維持したりできます。さらに、ウェブ検索 を実行し、最新の情報を会話に注入することも可能です。
Ollama との統合: Open WebUI は Ollama の API を通じて接続します。Open WebUI の Docker コンテナを Ollama サーバーと並列に実行し、Ollama の URL を指す環境変数を設定するか、Ollama がバンドルされた特別な Docker イメージを使用できます。実際には、コンテナを起動した後、ブラウザで Open WebUI にアクセスし、正しく設定されている場合、「サーバー接続が確認されました」 と表示されます(上記の画像に示されているように)。これは、UI がローカルの Ollama モデルを使用してチャットが準備できることを意味します。Open WebUI はまた、OpenAI API と互換性のあるエンドポイント もサポートしており、LM Studio、OpenRouter など、Ollama 以外のプロバイダーともインターフェースできます。
強み: このソリューションは、最も機能が豊富で柔軟な UI の一つです。複数の同時モデルと会話スレッド、カスタム「キャラクター」やシステムプロンプト、画像生成 など、多くの機能をサポートしています。RAG の実装は堅牢で、ドキュメントの管理と、どのベクトルストアや検索サービスを使用するかを設定するためのフル UI が提供されています。Open WebUI は積極的に開発されており(GitHub 上のスター数が示すように、コミュニティが広範囲にわたっている)、拡張性とスケーリングが設計されています。複数のユーザーまたは複雑なユースケースがある場合、ローカルモデル用の包括的なチャット UI として非常に適しています。
制限: 大きな機能には、より複雑さが伴います。Open WebUI は単純な個人使用には過剰 かもしれません – Docker コンテナをデプロイし、設定を管理するには、それらに精通していない場合、恐ろしく感じるかもしれません。また、ウェブサーバー、チャット履歴用のオプションデータベースなどを実行するため、軽量アプリよりもリソースを多く消費します。さらに、ロールベースのアクセス制御やユーザー管理などの機能は、サーバー設定向けに設計されていることを示しており、家庭用 PC の単一ユーザーには必要ないかもしれません。要するに、セットアップは重く、インターフェースは基本的な ChatGPT クローンが必要な場合に複雑に感じられるかもしれません。しかし、その幅広い機能が必要な場合(または Ollama と他のモデルプロバイダーを1つの UI で簡単に切り替える必要がある場合)、Open WebUI はトップの候補です。
LobeChat (ChatGPT に似たフレームワークとプラグイン)
「Ollama がサポートされています」と表示された LobeChat インターフェースのバナー。LobeChat は、Ollama や他のプロバイダーを使用して、音声入力やプラグインを備えたスリムな ChatGPT スタイルのウェブアプリをデプロイできます。
LobeChat は、使いやすさと柔軟性を重視したオープンソースのチャットフレームワークです。これは、ChatGPT に似たウェブアプリケーション で、OpenAI や Anthropic から、Ollama を介してオープンモデルまで、複数の AI プロバイダー をサポートしています。LobeChat は、プライバシーを考慮して(あなた自身が実行する)、現代的なインターフェースを備えており、会話メモリ、音声チャットモード、テキストから画像生成のプラグインなど、便利な機能を提供しています。
LobeChat の主要な機能の一つは、Knowledge Base です。PDF、画像、音声、動画などの形式のドキュメントをアップロード し、チャット中に参照できる知識ベースを作成できます。これは、LobeChat が RAG ワークフローを標準でサポートしていることを意味します。UI はこれらのファイル/知識ベースの管理を提供し、会話中にそれらの使用を切り替えることができ、ベースの LLM 以上の豊かな Q&A 体験を提供します。
LobeChat を Ollama と使用するには、LobeChat アプリをデプロイ(例: 提供された Docker イメージやスクリプトを使用)し、Ollama をバックエンドとして設定します。LobeChat は Ollama を第一級のプロバイダーとして認識しており、Pinokio AI ブラウザを使用する場合、ワンクリックのデプロイスクリプトを提供しています。実際には、LobeChat のウェブフロントエンドが Ollama の HTTP API にアクセスできるように、Ollama の設定(LobeChat のドキュメントに従って CORS を有効にするなど)を調整する必要があります。設定後、LobeChat UI で Ollama ホストされたモデルを選択し、アップロードしたドキュメントをクエリできます。
強み: LobeChat の UI は、きれいで使いやすい とよく評価されており、ChatGPT の見た目と感じに非常に近い(これは採用を容易にします)。音声入力/出力 による会話や、プラグインシステム による機能拡張(ChatGPT のプラグインと同様、ウェブブラウジングや画像生成など)を追加で提供しています。マルチモデルサポートにより、Ollama ローカルモデルと OpenAI API モデルを同じインターフェースで簡単に切り替えることができます。また、モバイル対応の PWA としてインストール可能なので、外出先でもローカルチャットにアクセスできます。
制限: LobeChat のセットアップは他の代替手段よりも複雑かもしれません。これはフルスタックアプリケーション(通常 Docker Compose で実行)であり、若干のオーバーヘッドがあります。特に、Ollama との統合には Ollama 側でのクロスドメインリクエストを有効にする設定 が必要で、ポートの一致も必要です – 一回のタスクですが、技術的です。さらに、LobeChat は非常に強力ですが、すべてのユーザーにとってすべての機能が必要ではないかもしれません。例えば、マルチプロバイダーサポートやプラグインが必要でない場合、インターフェースは最小限のツールと比較して混雑しているように感じられるかもしれません。最後に、ワンクリックデプロイは特定の環境(Pinokio ブラウザや Vercel)を仮定しており、使用するかどうかはユーザー次第です。全体的に、LobeChat は Ollama とローカルで動作する フル機能の ChatGPT 代替 を望むユーザーにとって最適です。初期設定を多少行う必要があるかもしれませんが、それも価値があります。
LibreChat (ChatGPT クローンとマルチプロバイダーサポート)
LibreChat(以前は ChatGPT-Clone または UI と呼ばれていた)は、ChatGPT のインターフェースと機能を複製し拡張することを目的としたオープンソースプロジェクトです。ローカルにデプロイ(または自分のサーバーに)でき、Ollama を介したオープンソースモデル や他の AI バックエンドをサポートしています。本質的に、LibreChat はなじみのあるチャット体験(履歴付きのダイアログインターフェース、ユーザーとアシスタントのメッセージ)を提供しながら、バックエンドでさまざまなモデルプロバイダーをプラグインできます。
LibreChat は、RAG API と埋め込みサービスを通じて ドキュメントの相互作用と RAG をサポートしています。インターフェースでは、「Chat with Files」という機能を使用して、ドキュメントをアップロードし、質問をすることもできます。裏では、これは埋め込みとベクトルストアを使用して、ファイルから関連するコンテキストを取得します。これは、ChatGPT にカスタム知識を追加したような効果をローカルで実現できます。プロジェクトは、RAG サービスをセルフホストしたい場合に、別途リポジトリを提供しています。
LibreChat を Ollama と使用するには、LibreChat サーバーを実行(例: Node/Docker を使用)し、Ollama サービスにアクセスできるようにする必要があります。LibreChat には、「カスタムエンドポイント」 の設定があり、OpenAI と互換性のある API URL を入力できます。Ollama はローカルで OpenAI と互換性のある API を公開できるため、LibreChat は http://localhost:11434
(または Ollama がリスニングしている場所)を指すことができます。実際、LibreChat は Ollama を含む、OpenAI、Cohere などの他のサポートされた AI プロバイダーを明示的にリストしています。設定後、ドロップダウンからモデル(Ollama のモデル)を選択し、チャットを開始できます。LibreChat は、会話中にモデルやプロバイダーを切り替えることもでき、複数のチャットプリセット/コンテキストをサポートしています。
強み: LibreChat の主な利点は、チャット体験の周りに構築された豊富な機能セット です。会話の分岐、メッセージ検索、組み込みの Code Interpreter サポート(安全なサンドボックスでのコード実行)、ツール/エージェントの統合 などが含まれます。これは本質的に ChatGPT++ であり、ローカルモデルを統合する能力があります。ChatGPT の UI を好むユーザーにとって、LibreChat は非常に親しみやすく、学習曲線はわずかです。プロジェクトは活発でコミュニティ駆動(頻繁な更新と議論が証拠)であり、非常に柔軟です:さまざまな LLM エンドポイントに接続したり、チーム設定で認証付きでマルチユーザーで実行したりできます。
制限: 複数の機能により、LibreChat は 実行に重い かもしれません。インストールでは、チャットを保存するためのデータベースの設定や、さまざまな API 用の環境変数の設定が必要です。すべてのコンポーネント(RAG、エージェント、画像生成など)を有効にすると、かなり複雑なスタックになります。単一のユーザーが1つのローカルモデルでの基本的なチャットだけが必要な場合、LibreChat は過剰かもしれません。さらに、UI はなじみがあるものの、ドキュメント Q&A に特化していません – 仕事はしますが、専用の「ドキュメントライブラリ」インターフェースはなく(アップロードは通常チャット内または API 経由で行われます)。要するに、LibreChat はローカルで動作する フル ChatGPT に似た環境で、さまざまな機能を備えた場合に輝きます が、狭い用途に限定された場合は、より単純なソリューションが十分かもしれません。
AnythingLLM (すべてを1つにまとめたデスクトップまたはサーバーアプリ)
AnythingLLM は、RAG と使いやすさを重視したすべてを1つにまとめた AI アプリケーション です。オープンソース LLM や OpenAI のモデルを使用して「ドキュメントとチャット」できるように、単一の統合インターフェースを通じて提供します。特に、AnythingLLM は クロスプラットフォームのデスクトップアプリ(Windows、Mac、Linux)と セルフホストウェブサーバー(Docker 経由)の両方で利用可能です。この柔軟性により、PC 上で通常のアプリケーションのように実行したり、サーバーで複数のユーザーにデプロイしたりできます。
ドキュメントの取り扱いは AnythingLLM の中心です。PDF、TXT、DOCX などのドキュメントをドラッグ&ドロップ してアプリにアップロードすると、自動的にベクトルデータベースにインデックス化されます(デフォルトでは LanceDB が使用されます)。チャットインターフェースで質問をした場合、ドキュメントから関連するチャンクを取得し、引用付きの回答 を提供します。つまり、あなたのためにプライベートな知識ベースを構築し、LLM がそのコンテキストを使用できるようにします。ドキュメントは 「ワークスペース」 に整理できます(例えば、プロジェクトやトピックごとに1つのワークスペース)し、必要に応じてコンテキストを分離できます。
AnythingLLM と Ollama を使用するのは簡単です。設定で Ollama を LLM プロバイダーとして選択 します。Docker 経由で実行する場合、LLM_PROVIDER=ollama
などの環境変数を設定し、OLLAMA_BASE_PATH
(Ollama インスタンスの URL)を提供します。AnythingLLM サーバーはその後、すべてのモデルクエリを Ollama の API に送信します。Ollama は公式にサポートされており、ドキュメントでは、さまざまなオープンモデル(Llama 2、Mistral など)をローカルで実行するために使用できると述べています。実際、開発者は AnythingLLM と Ollama を組み合わせることで、強力なオフライン RAG 能力を発揮できると強調しています:Ollama はモデルの推論を処理し、AnythingLLM は埋め込みと UI/エージェントロジックを処理します。
強み: AnythingLLM は プライベートな Q&A とチャットのための包括的なソリューション を提供します。主な強みには、RAG の簡単なセットアップ(埋め込みとベクトルの保存の重い作業は自動化される)、複数ドキュメントのサポートと出典の明確な表示、AI エージェント(ノーコードエージェントビルダーでカスタムワークフローとツールの使用を構築できる)などの機能があります。また、サーバー モードでは、ユーザー アカウントと権限管理がデフォルトでサポートされており、マルチユーザー対応です。インターフェースはシンプル(チャットボックス + ドキュメント/ワークスペースのサイドバー)ですが、裏では強力です。個人的な使用には、デスクトップアプリが大きな利点 – ブラウザを開くことやコマンドを実行することなく、ネイティブなアプリを取得でき、デフォルトではローカルにデータを保存します。
制限: 複数のコンポーネント(LLM API、埋め込みモデル、ベクトル DB など)を統合しているため、AnythingLLM はリソースを多く消費する ことがあります。ドキュメントをインポートする際、埋め込みを生成するのに時間がかかり、メモリを多く消費する可能性があります(nomic-embed
などのモデルを使用して Ollama 自身やローカルモデルで埋め込みを生成することもサポートしています)。デスクトップアプリは使用を簡略化しますが、多くのドキュメントや非常に大きなファイルがある場合、バックグラウンドで重い処理が行われる可能性があります。もう一つの制限は、高度なユーザーが独自のスタックを構築するよりも構成が少なく感じられることです – 例えば、現在は LanceDB または Chroma を使用していますが、別のベクトルストアを使用したい場合は、構成やコードに深入りする必要があります。また、マルチプロバイダーサポートはありますが、インターフェースは基本的に1つのモデルに焦点を当てています(別のモデルを使用したい場合はグローバルプロバイダーセッティングを変更する必要があります)。要するに、AnythingLLM は Ollama と組み合わせたローカルドキュメントチャットのための 非常に優れた即席ソリューション ですが、最小限の UI よりも実行に必要なアプリケーションは大きく、複雑です。
Chat-with-Notes(ミニマルドキュメントチャットUI)
Chat-with-Notesは、Ollamaで管理されるモデルを使用してローカルのテキストファイルとチャットするためのミニマルなアプリケーションです。これは、PC上で実行する軽量なFlaskウェブサーバーであり、ドキュメントをアップロードしてその内容についてチャットできるシンプルなウェブページを提供します。このプロジェクトの目標はシンプルさです。多くの機能や装飾はなく、ローカルのLLMを使用してドキュメントと質問を答えるというコアな機能を実現しています。
Chat-with-Notesを使用するには、まずOllamaのインスタンスがモデルを実行していることを確認する必要があります(たとえば、ollama run llama2
や他のモデルでOllamaを起動するかもしれません)。その後、Flaskアプリを起動(python app.py
)し、ローカルのウェブサイトを開きます。UIはファイルのアップロードを促し、サポートされている形式にはプレーンテキスト、Markdown、コードファイル、HTML、JSON、PDFが含まれます。アップロード後、ファイルのテキストコンテンツが表示され、その内容について質問したり、AIとチャットしたりできます。会話は通常のチャットバブル形式で行われます。会話中に新しいファイルをアップロードした場合、アプリは新しいチャットを開始するか、現在のチャットの文脈を維持して新しいファイルの情報を追加するかを尋ねます。これにより、必要に応じて複数のファイルについて順番にチャットできます。また、チャットをクリアするボタンや、会話をテキストファイルにエクスポートするボタンもあります。
裏側では、Chat-with-NotesはOllama APIにクエリを送信して応答を生成します。Ollamaがモデルの推論を処理し、Chat-with-Notesはプロンプト(アップロードされたテキストの関連部分を含む)を提供するだけです。ベクトルデータベースを使用していません。代わりに、ファイルの全文(またはその一部)と質問をモデルに送信します。このアプローチは、モデルのコンテキストウィンドウに収まる程度のサイズのドキュメントに最適です。
強み: このアプリは非常に簡単にデプロイし、使用できる点が特徴です。複雑な設定はなく、PythonとOllamaがセットアップされている場合、数分で動作させることができます。インターフェースはきれいでミニマルで、テキストコンテンツとQ&Aに焦点を当てています。非常に集中しているため、すべてのデータがローカルに残り、メモリ内でのみ保持されます(Ollamaにlocalhost
で外部への呼び出しがあるだけです)。ファイルとチャットしたいだけ、ドキュメントなしでの一般的な会話が必要でない場合に、これは理想的な選択肢です。
制限: Chat-with-Notesのミニマルな設計により、他のUIには見られる多くの機能が欠如しています。たとえば、複数のモデルやプロバイダーを使用する機能はサポートしていません(Ollama専用の設計です)。また、長期的なドキュメントライブラリを維持する機能もありません。セッションごとに必要に応じてファイルをアップロードし、永続的なベクトルインデックスはありません。非常に大きなドキュメントを扱うには、手動での調整が必要になるかもしれません。なぜなら、プロンプトに多くのテキストを含めようとするからです。また、UIは機能的には問題ありませんが、ポリッシュされていない点もあります(ダークモードのサポートなし、応答のリッチなテキストフォーマットなしなど)。本質的に、これはOllamaモデルを使用してファイルを素早く一時的に分析したい場合に最適です。ニーズが成長し(たとえば、多くのドキュメントが必要になったり、より洗練されたUIを望むようになったり)、Chat-with-Notesを越える必要があるかもしれません。しかし、開始点として、またはOllama上での「私のPDFに質問する」ソリューションとして、非常に効果的です。
結論
これらのオープンソースのUIは、ローカルのOllamaモデルとの使用体験を向上させるために、ユーザーに親しみやすいチャットインターフェースや、ドキュメントの質問応答などの追加機能を提供します。最適な選択は、あなたの要件と技術的な慣れ方によります。
- 素早くセットアップし、ブラウザで使用したい場合: Page Assistは、最小限の手間で直接ウェブブラウジングに統合されるため、非常に良い選択肢です。
- フル機能のウェブアプリ環境が必要な場合: Open WebUIやLibreChatは、多機能で多モデルの柔軟性があり、パワーユーザーやマルチユーザー環境に適しています。
- ポリッシュされたChatGPTの代替で、プラグインの可能性がある場合: LobeChatは、自社ホスティングパッケージで使いやすさと機能のバランスが取れています。
- ドキュメントに焦点を当てたインタラクションが必要な場合: AnythingLLMは、すべてを1つにまとめたソリューション(特にデスクトップアプリが好きな場合)を提供し、Chat-with-Notesは、単一ドキュメントのQ&Aにミニマルなアプローチを提供します。
これらのすべてのツールが積極的にメンテナンスされているため、今後も改善やコミュニティのサポートが期待できます。これらのUIのいずれかを選択することで、ローカルのOllamaホストモデルと簡単にチャットできるようになります。ドキュメントの分析、コードの作成支援、またはクラウド依存なしで会話型AIを手に入れたい場合でも、それぞれのソリューションはオープンソースであり、さらにあなたのニーズに合わせてカスタマイズしたり、開発に貢献したりすることも可能です。
ローカルのLLMと楽しいチャットを楽しんでください!