LLM Hosting

LLMのセルフホスティングとAI主権

LLMのセルフホスティングとAI主権

セルフホスティングLLMでデータとモデルを制御する

LLMのセルフホスティングにより、データ、モデル、推論を自身のコントロール下に保つことができます。これは、チーム、企業、国家にとって実用的な**AI主権**への道です。

正しいLLMの選択:Cognee用のローカルOllama設定

正しいLLMの選択:Cognee用のローカルOllama設定

LLMを自社でホストするCogneeについての考察

Best LLM for Cognee を選ぶ際には、グラフ構築の質、幻覚率、ハードウェアの制約のバランスが求められます。
Cognee は、Ollama を介して 32B 以上の低幻覚モデルで優れた性能を発揮しますが、軽量な設定では中規模のオプションも使用可能です。

Docker Model Runner チートシート: コマンドと例

Docker Model Runner チートシート: コマンドと例

Docker Model Runner コマンドのクイックリファレンス

Docker Model Runner (DMR) は、2025年4月に導入された Docker の公式ソリューションで、AIモデルをローカルで実行するためのものです。このチートシートでは、すべての必須コマンド、構成、およびベストプラクティスのクイックリファレンスを提供しています。

オラマのエンシティフィケーション - 早期の兆候

オラマのエンシティフィケーション - 早期の兆候

現在のOllama開発状況に対する私の見解

Ollama は、LLM をローカルで実行するためのツールとして、非常に人気のあるツールの一つとなっています。
シンプルな CLI と、モデル管理の簡素化により、クラウド外で AI モデルと仕事をしたい開発者にとっての定番のオプションとなっています。

ローカルOllamaインスタンス用のチャットUI

ローカルOllamaインスタンス用のチャットUI

2025年のOllamaで最も注目されているUIの概要

ローカルにホストされた Ollama は、あなたのマシン上で大規模言語モデルを実行できるが、コマンドライン経由での使用はユーザーにとって使いにくい。
以下に、ローカルの Ollama に接続するための、いくつかのオープンソースプロジェクトが提供する ChatGPTスタイルのインターフェース がある。

クラウドLLMプロバイダーズ

クラウドLLMプロバイダーズ

LLMプロバイダーの短いリスト

LLMを使用することは非常に高価ではありません。新しい高性能なGPUを購入する必要がないかもしれません。LLMプロバイダーの一覧は、クラウド上のLLMプロバイダー で確認できます。それぞれが提供しているLLMについても記載されています。

Ollama上でDeepseek-R1をテストする

Ollama上でDeepseek-R1をテストする

2つのdeepseek-r1モデルを2つのベースモデルと比較する

DeepSeekの 1世代目の推論モデルで、OpenAI-o1と同等の性能を備えています。 これは、LlamaおよびQwenに基づいてDeepSeek-R1から蒸留された6つの密結合モデルです。