Ollama

Hugoページ翻訳品質の比較 - Ollama上のLLM

Hugoページ翻訳品質の比較 - Ollama上のLLM

qwen3 8b、14bおよび30b、devstral 24b、mistral small 24b

このテストでは、Ollama上でホストされているさまざまなLLMがHugoページを英語からドイツ語に翻訳する方法を比較しています([英語からドイツ語へのHugoページの翻訳の比較](https://www.glukhov.org/ja/post/2025/06/translation-quality-comparison-llms-on-ollama/ “英語からドイツ語へのHugoページの翻訳の比較”)。

テストした3つのページは、異なるトピックについており、いくつかの構造を持つマークダウンがありました:見出し、リスト、テーブル、リンクなど。

テスト: Ollama がインテル CPU のパフォーマンスコアと効率コアをどのように利用しているか

テスト: Ollama がインテル CPU のパフォーマンスコアと効率コアをどのように利用しているか

インテルCPUにおけるOllamaの効率コアとパフォーマンスコアの比較

私は理論をテストしたいと思っています - すべてのコアをIntel CPUで使用するとLLMの速度が上がるか?
新しいgemma3 27bitモデル(gemma3:27b、ollama上では17GB)が私のGPUの16GB VRAMに収まらず、部分的にCPU上でも実行されていることが気になります。

Ollamaが並列リクエストを処理する方法

Ollamaが並列リクエストを処理する方法

オラマを並列リクエストの実行に設定する。

Ollama サーバーが同時に2つのリクエストを受けると、その動作は設定と利用可能なシステムリソースに依存します。

Ollama上でDeepseek-R1をテストする

Ollama上でDeepseek-R1をテストする

2つのdeepseek-r1モデルを2つのベースモデルと比較する

DeepSeekの 1世代目の推論モデルで、OpenAI-o1と同等の性能を備えています。 これは、LlamaおよびQwenに基づいてDeepSeek-R1から蒸留された6つの密なモデルです。

Ollamaを使用したPerplexicaのセルフホスティング

Ollamaを使用したPerplexicaのセルフホスティング

ローカルでCopilotスタイルのサービスを実行する?簡単です!

とてもエキサイティングですね!
CopilotやPerplexity.aiにすべてを依頼する代わりに、今やあなた自身のPCやノートPCで同様のサービスをホストできるようになりました!

Gemma2 と Qwen2 と Mistral Nemo と...

Gemma2 と Qwen2 と Mistral Nemo と...

論理的誤謬の検出をテストする

最近、いくつかの新しいLLMがリリースされました。
非常にエキサイティングな時代です。
それらが論理的誤謬を検出する際のパフォーマンスをテストし、確認してみましょう。