
Ollamaの新バージョンv0.12.1におけるメモリ確保モデルのスケジューリング
オラマモデルのスケジューリングに関する自分のテスト ````
ここでは、新しいバージョンのOllamaがモデルに対してどのくらいのVRAMを割り当てているかについて、Ollama VRAM割り当てと以前のOllamaバージョンを比較しています。新しいバージョンは、実際には以前のバージョンよりも劣っています。
オラマモデルのスケジューリングに関する自分のテスト ````
ここでは、新しいバージョンのOllamaがモデルに対してどのくらいのVRAMを割り当てているかについて、Ollama VRAM割り当てと以前のOllamaバージョンを比較しています。新しいバージョンは、実際には以前のバージョンよりも劣っています。
現在のOllama開発状況に対する私の見解
Ollama は、LLMをローカルで実行するためのツールとして非常に人気を博しています。
シンプルなCLIとスムーズなモデル管理により、クラウド外でAIモデルに取り組む開発者にとっての定番オプションとなっています。
しかし、多くの有望なプラットフォームと同様に、すでに Enshittification の兆候が見られるようになってきています。
2025年のOllamaで最も注目されているUIの概要
ローカルにホストされた Ollama は、自分のマシンで大規模な言語モデルを実行できるが、コマンドラインで使用するのはユーザーにとって使いにくい。
以下は、ローカルの Ollama に接続する ChatGPT スタイルのインターフェース を提供するいくつかのオープンソースプロジェクトである。
ソフトウェアエンジニアリングツールおよび言語の比較
The Pragmatic Engineerのレターは数日前に、2025年中盤におけるプログラミング言語、IDE、AIツールの普及状況などのデータを掲載しました。
2025年7月にはすぐに利用可能になるはずです。
NVIDIAは、NVIDIA DGX Sparkを間もなくリリースします。これは、ブラックウェルアーキテクチャを採用し、128GB以上の統合RAMと1 PFLOPSのAI性能を備えた小型のAIスーパーコンピュータです。LLMを実行するための理想的なデバイスです。
RAGを実装中ですか?ここにGoのコードの一部 - 2...
標準的な Ollama には直接のリランク API がありませんので、 クエリとドキュメントのペアに対して埋め込みを生成し、それらをスコアリングすることで、Qwen3 リランカーを使用したリランキング(GO 言語で) を実装する必要があります。
以前、オブジェクト検出AIのトレーニングを行いました。
ある寒い冬の7月の日… その日はオーストラリアにいた… 私は、未封のコンクリート補強筋を検出するためのAIモデルを訓練するという緊急の必要性を感じた…
qwen3 8b、14bおよび30b、devstral 24b、mistral small 24b
このテストでは、Ollama上でホストされているさまざまなLLMがHugoページを英語からドイツ語に翻訳する方法を比較しています([英語からドイツ語へのHugoページの翻訳の比較](https://www.glukhov.org/ja/post/2025/06/translation-quality-comparison-llms-on-ollama/ “英語からドイツ語へのHugoページの翻訳の比較”)。
テストした3つのページは、異なるトピックについており、いくつかの構造を持つマークダウンがありました:見出し、リスト、テーブル、リンクなど。
RAGを実装中ですか?Golangでのコードスニペットの例をいくつか紹介します。
この小さな Reranking Goコード例はOllamaを呼び出して埋め込みを生成しています クエリと各候補ドキュメントに対して、 その後、コサイン類似度で降順にソートします。
LLM用に2番目のGPUをインストールを検討中ですか?
PCIe レーンがLLMの性能に与える影響? タスクによります。トレーニングやマルチGPUの推論では、パフォーマンスの低下が顕著です。
HTMLからテキストを抽出するLLM...
Ollama モデルライブラリには、HTML コンテンツを Markdown に変換できるモデルが存在します。これはコンテンツ変換タスクに役立ちます。HTML を Markdown に変換。
どれほど違いがあるのでしょうか?
カーソルAI vs ジョイブコパイロット vs クラインAI vs...
いくつかのAI支援によるコーディングツールおよびAIコーディングアシスタントとその魅力的な特徴について紹介します。
LLMプロバイダーの短いリスト
LLMを使用することは非常に費用が高くないため、新しい高性能なGPUを購入する必要があるとは限りません。
LLMを提供しているクラウド上のプロバイダーのリストはこちら: LLMプロバイダー一覧。
インテルCPUにおけるOllamaの効率コアとパフォーマンスコアの比較
私は理論をテストしたいと思っています - すべてのコアをIntel CPUで使用するとLLMの速度が上がるか?
新しいgemma3 27bitモデル(gemma3:27b、ollama上では17GB)が私のGPUの16GB VRAMに収まらず、部分的にCPU上でも実行されていることが気になります。