LLM

使用 Ollama 自托管 Perplexica

使用 Ollama 自托管 Perplexica

本地运行类似 Copilot 的服务?轻松!

这非常令人兴奋!
与其调用 Copilot 或 Perplexity.ai 并告诉全世界你想要什么,
你现在可以在自己的 PC 或笔记本电脑上运行类似的服务!

Gemma2 与 Qwen2 与 Mistral Nemo 与...

Gemma2 与 Qwen2 与 Mistral Nemo 与...

测试逻辑谬误检测

最近我们看到有几款新的大型语言模型(LLMs)发布。
令人兴奋的时刻。
让我们进行测试,看看它们在检测逻辑谬误时的表现如何。

大语言模型前端

大语言模型前端

选择虽不多,但仍有……

当我开始尝试使用大型语言模型(LLMs)时,它们的用户界面正处于积极开发中,而现在其中一些已经非常出色。

大语言模型速度测试

大语言模型速度测试

让我们测试LLMs在GPU与CPU上的速度表现

比较几种大语言模型(LLMs)版本在CPU和GPU上的预测速度:llama3(Meta/Facebook)、phi3(Microsoft)、gemma(Google)、mistral(开源)。

基于LLM的逻辑谬误检测

基于LLM的逻辑谬误检测

让我们测试不同大语言模型的逻辑谬误检测质量

比较几种版本的LLM:llama3(Meta)、phi3(Microsoft)、gemma(Google)、mistral(开源)和qwen(阿里巴巴)。