Hardware
LLMのセルフホスティングとAI主権
セルフホスティングLLMでデータとモデルを制御する
LLMを自社でホストすることで、データ、モデル、推論を自らのコントロール下に置くことが可能になります。これは、チーム、企業、国家にとって実用的な**AI主権への道です。ここでは、AI主権とは何か、どの側面と方法**で構築されるのか、LLMの自社ホスティングがどのように関与するのか、国々がこの課題にどのように対応しているのかを説明します。
16GB VRAM GPU用の最適なLLM
RTX 4080(16GB VRAM)でのLLM速度テスト
大型言語モデルをローカルで実行することで、プライバシーの確保、オフラインでの利用、およびAPIコストのゼロ化が可能です。このベンチマークでは、RTX 4080上で動作する9つの人気のあるLLM([LLMs on Ollama on an RTX 4080](https://www.glukhov.org/ja/llm-performance/benchmarks/choosing-best-llm-for-ollama-on-16gb-vram-gpu/ “LLMs on Ollama on an RTX 4080”)の実際の性能が明らかになります。
オーストラリアでGPUとRAMの価格が上昇:RTX 5090は15%、RAMは38%上昇 - 2026年1月
2025年1月GPUおよびRAM価格チェック
今日、トップレベルの消費者向けGPUとRAMモジュールについて見てみましょう。
特に注目しているのは、RTX-5080およびRTX-5090の価格と、32GB(2x16GB)DDR5 6000です。
2026年のベストLinuxターミナルエミュレータ比較
正しいターミナルを選んでLinuxワークフローを最適化しましょう
Linuxユーザーにとって最も重要なツールの一つは、端末エミュレータです。https://www.glukhov.org/ja/post/2026/01/terminal-emulators-for-linux-comparison/ “Linux端末エミュレータ比較”
DGX Spark AUの価格:主要小売店では6,249ドルから7,999ドルまで
今やオーストラリアの小売業者から実際のAUD価格が提供されています。
NVIDIA DGX Spark (GB10 Grace Blackwell)は オーストラリアで今すぐ購入可能 の主要PC小売店で在庫あり。
グローバルDGX Sparkの価格と入手方法を ご存知の方は、オーストラリアの価格がストレージ構成や小売店によって 6,249〜7,999オーストラリアドル と幅があることをご存知でしょう。
セルフホスティングされたCognee:LLM性能テスト
ローカルLLMでCogneeをテストする - 実際の結果
CogneeはPythonフレームワークで、LLMを使用してドキュメントから知識グラフを構築するためのものです。 しかし、これは自社ホストされたモデルと互換性があるのでしょうか?
Ubuntuでカーネルをアップグレードした後、ネットワークが切断された
Ubuntuでネットワークの問題を解決した方法
新しいカーネルを自動インストールした後、Ubuntu 24.04でイーサネットネットワークが失われたという問題が発生しました。この面倒な問題は私にとって2度目だったので、同じ問題に直面している他の人々の助けになるよう、ここに解決策を記録しています。
2025年12月、オーストラリアにおけるRAM価格
短い投稿ですが、価格を記録しておきます。
この異常なRAM価格の変動を理解し、より明確な見通しを持つために、まずは自分たちでオーストラリアのRAM価格を追跡しましょう。
RAM価格の急騰:2025年には最大619%上昇
RAM価格がAI需要による供給圧力で163〜619%上昇
2025年後半にかけて、メモリ市場はかつてない価格のボラティリティに直面しています。すべてのセグメントにわたってRAMの価格が急騰しており、RAM価格の急騰が深刻な状況となっています。
オーストラリアにおけるNVIDIA RTX 5080およびRTX 5090の価格 - 2025年11月
AIに最適な消費者向けGPUの価格 - RTX 5080およびRTX 5090
トップレベルの消費者向けGPUの価格を比較してみましょう。特にLLM(大規模言語モデル)に適しており、AI全般にも適しています。具体的には以下を確認しています。
コンシューマーハードウェア上のAIインフラ
予算のハードウェアでオープンモデルを使用して企業向けAIを展開
AIの民主化はここにあります。 Llama 3、Mixtral、QwenなどのオープンソースLLMが、今やプロプライエタリモデルと同等の性能を発揮するようになり、チームは消費者ハードウェアを使用して強力なAIインフラストラクチャを構築できるようになりました。これにより、コストを削減しながらも、データプライバシーやデプロイメントに関する完全なコントロールを維持することが可能です。
DockerモデルランナーにNVIDIA GPUサポートを追加する
NVIDIA CUDAをサポートするDocker Model RunnerでGPU加速を有効にする
Docker Model Runner は、AIモデルをローカルで実行するためのDocker公式ツールですが、NVIDIA GPU加速をDocker Model Runnerで有効にする には特定の設定が必要です。
NVIDIA DGX Spark vs Mac Studio vs RTX-4080: Ollamaのパフォーマンス比較
GPT-OSS 120bの3つのAIプラットフォームでのベンチマーク
Docker Model Runner チートシート: コマンドと例
Docker Model Runner コマンドのクイックリファレンス
Docker Model Runner (DMR) は、2025年4月に導入されたDocker公式のAIモデルをローカルで実行するためのソリューションです。このチートシートは、すべての必須コマンド、設定、ベストプラクティスのクイックリファレンスを提供しています。
GNOME Boxes: 特徴、利点、課題、および代替ソフトウェアに関する包括的なガイド
GNOME Boxes による Linux 用のシンプルな仮想マシン管理
現代のコンピューティング環境において、仮想化は開発、テスト、複数のオペレーティングシステムの実行において不可欠となっています。Linuxユーザーが仮想マシンを簡単に管理できる方法を探している場合、GNOME Boxesは、機能性を犠牲にすることなく、軽量で使いやすいオプションとして際立っています。