LLM

RAG と検索向けのテキスト埋め込み - Python、Ollama、OpenAI 互換 API

RAG と検索向けのテキスト埋め込み - Python、Ollama、OpenAI 互換 API

RAG エンベッディング - Python、Ollama、OpenAI API。

検索拡張生成 (RAG) を実装されている方に向けて、このセクションではテキスト埋め込み(text embeddings)について平易な言葉で解説します。埋め込みとは何か、検索や検索(リトリバル)にどのように組み込まれるか、そしてOllamallama.cppベースのサーバーが提供するOpenAI 互換の HTTP API を使用して、Pythonから 2 つの一般的なローカル環境を呼び出す方法を説明します。

SGLang クイックスタート:OpenAI API を介して LLM のインストール、設定、およびサービス提供

SGLang クイックスタート:OpenAI API を介して LLM のインストール、設定、およびサービス提供

SGLang を使ってオープンモデルを高速に提供。

SGLang は、大規模言語モデルおよびマルチモーダルモデル向けの高パフォーマンスなサービングフレームワークであり、単一の GPU から分散クラスターに至るまで、低レイテンシかつ高スループットの推論を提供するために設計されています。

llama.swap モデルスイッチャーのクイックスタート(OpenAI 互換ローカル LLM 向け)

llama.swap モデルスイッチャーのクイックスタート(OpenAI 互換ローカル LLM 向け)

クライアントを変更せずに、ローカル LLM をホットスワップします。

まもなく、vLLM や llama.cpp、さらに多くのスタックをそれぞれのポートで並行して管理することになるでしょう。しかし、下流のシステムはすべて単一の /v1 ベース URL を望みます。そうしないと、ポート、プロファイル、ワンオフスクリプトを絶えず整理し続ける羽目になります。llama-swap は、それらのスタックの前に置かれる /v1 プロキシです。

LocalAI QuickStart: ローカルで OpenAI 互換 LLM を実行する

LocalAI QuickStart: ローカルで OpenAI 互換 LLM を実行する

数分で LocalAI を使用して、OpenAI 互換 API をセルフホストできます。

LocalAI は、ご自身のハードウェア(ノート PC、ワークステーション、オンプレミスサーバー)上で AI ワークロードを実行できるように設計された、自己完結型でローカルファーストの推論サーバーです。これは、OpenAI API と互換性のある「差し替え可能な」APIとして動作します。

llama.cpp の CLI とサーバーを使用したクイックスタート

llama.cpp の CLI とサーバーを使用したクイックスタート

「OpenCode のインストール、設定、および使用方法」

llama.cpp(https://www.glukhov.org/ja/llm-hosting/llama-cpp/ “llama.cpp”)はローカルでの推論に最適です。Ollamaや他のツールが抽象化しているコントロールを提供し、簡単に動作します。llama-cliを使用してGGUFモデルをインタラクティブに実行したり、llama-serverを使用してOpenAIと互換性のあるHTTP APIを公開したりするのが簡単です。

AI 開発ツール:AI 駆動開発の完全ガイド

AI 開発ツール:AI 駆動開発の完全ガイド

人工知能は、ソフトウェアの作成、レビュー、デプロイ、保守の方法を根本から変えつつあります。AI コーディングアシスタントから GitOps 自動化、DevOps ワークフローに至るまで、開発者たちは今やソフトウェアライフサイクルのあらゆる段階で AI 駆動型ツールに依存しています。

このページは、当サイトにおける AI 開発者ツールに関連する中心的なハブです。チュートリアル、比較、チートシート、そして現代の AI 支援開発ワークフローへの深掘り記事へと接続します。

OpenCode クイックスタート:Terminal AI コーディングエージェントのインストール、設定、および利用

OpenCode クイックスタート:Terminal AI コーディングエージェントのインストール、設定、および利用

OpenCode のインストール、設定、および使用方法

OpenCode は、ターミナル(TUI + CLI)で実行可能なオープンソースの AI コーディングエージェントであり、オプションとしてデスクトップや IDE 用のインターフェースも提供します。これが OpenCode クイックスタート です:インストール、検証、モデル/プロバイダーの接続、そして実際のワークフロー(CLI + API)の実行について解説します。