Self-Hosting

Ollamaを使用したPerplexicaのセルフホスティング

Ollamaを使用したPerplexicaのセルフホスティング

ローカルでCopilotスタイルのサービスを実行する?簡単です!

とてもエキサイティングですね!
CopilotやPerplexity.aiにすべてを依頼する代わりに、今やあなた自身のPCやノートPCで同様のサービスをホストできるようになりました!

Gemma2 と Qwen2 と Mistral Nemo と...

Gemma2 と Qwen2 と Mistral Nemo と...

論理的誤謬の検出をテストする

最近、いくつかの新しいLLMがリリースされました。
非常にエキサイティングな時代です。
それらが論理的誤謬を検出する際のパフォーマンスをテストし、確認してみましょう。

LLMフロントエンド

LLMフロントエンド

選択肢は多くないが、それでも……。

LLM(大規模言語モデル)のUI(ユーザーインターフェース)に初めて触れた時、それらは積極的に開発中で、今ではいくつかは本当に優れたものとなっています。

LLMの要約能力の比較

LLMの要約能力の比較

8つのllama3(Meta+)および5つのphi3(Microsoft)LLMバージョン

パラメータ数や量子化の異なるモデルの挙動をテストしています。

Pi-Hole のインストール - 無料の広告ブロッカー

Pi-Hole のインストール - 無料の広告ブロッカー

すべての広告を見るのは本当にうんざりです。

ブラウザの広告ブロッカーのプラグインやアドオンを、Google Chrome、Firefox、Safariなどにインストールできますが、それぞれのデバイスごとにこの操作を行う必要があります。ネットワーク全体で広告をブロックする方法が、私の最もお気に入りの解決策です。

LLMを用いた論理的誤謬の検出

LLMを用いた論理的誤謬の検出

さまざまなLLMの論理的誤謬検出の質をテストしましょう

ここではいくつかのLLMバージョンを比較しています:Llama3(Meta)、Phi3(Microsoft)、Gemma(Google)、Mistral Nemo(Mistral AI)、Qwen(Alibaba)。

Gitea サーバーのバックアップと復元

Gitea サーバーのバックアップと復元

これらの困難な時代には、何が起こるかわかりません。

  1. データベース、2) ファイルストレージ、3) その他のGiteaファイルをバックアップする必要があります。以下に手順を示します。