埋め込みモデルによる再評価
RAG のrerankingに関するPythonコード
RAG のrerankingに関するPythonコード
テキストから画像を生成する画期的な新しいAIモデル
最近、ブラックフォレスト・ラボズは一連のテキストから画像を生成するAIモデルを公開しました。これらのモデルは、出力品質が非常に高いとされています。試してみましょう
2 つのセルフホスト型 AI 検索エンジンの比較
素晴らしい料理は目でも楽しむことができます。 しかし、この記事では、2 つの AI ベースの検索システム、Farfalle と Perplexica を比較します。
ローカルで Copilot 風サービスを実行?簡単です!
それはとても素晴らしいことです! Copilot や Perplexity.ai を呼び出して、世界中に何を求めているかを知られる代わりに、 今ではご自身の PC やラップトップで同様のサービスをホストできるようになりました!
論理的誤謬の検出のテスト
最近、いくつかの新しいLLMがリリースされました。
非常にエキサイティングな時代です。
論理的誤謬の検出能力を確認するためにテストしてみましょう。
いくつかの試行錯誤が必要ですが、
まだ、LLMがあなたの意図を理解しようとする際に混乱しないようにするための、良いプロンプトを書くためのいくつかの一般的なアプローチがあります。
よく使用されるPythonコードの断片
時折必要になるが、すぐに見つからないことがある。
そのため、ここにすべてを保存しておく。
ラベリングとトレーニングには、ある程度の接着が必要です。
以前に オブジェクト検出AIのトレーニング を行った際、LabelImgは非常に役立つツールでしたが、 Label StudioからCOCOフォーマットへのエクスポートは MMDetectionフレームワークで受け入れられていませんでした。
8つのllama3(Meta+)および5つのphi3(Microsoft)LLMバージョン
パラメータ数や量子化の異なるモデルの挙動をテストしています。
Ollama の LLM モデルファイルは非常に多くのディスク領域を占有します。
ollama のインストール 後、すぐに Ollama を再設定して、新しい場所にモデルを保存するようにするのが良いでしょう。そうすれば、新しいモデルをプルした際に、古い場所にダウンロードされなくなります。
LLMのGPUとCPUでの速度をテストしてみましょう
いくつかのLLM(大規模言語モデル)のバージョン(llama3(メタ/Facebook)、phi3(マイクロソフト)、gemma(グーグル)、mistral(オープンソース))におけるCPUおよびGPUでの予測速度の比較。
さまざまなLLMの論理的誤謬検出の質をテストしましょう
ここではいくつかのLLMバージョンを比較しています:Llama3(Meta)、Phi3(Microsoft)、Gemma(Google)、Mistral Nemo(Mistral AI)、Qwen(Alibaba)。