
Hugo 页面翻译质量对比 - Ollama 上的 LLMs
qwen3 8b、14b 和 30b,devstral 24b,mistral small 24b
在这项测试中,我正在比较不同LLMs在Ollama上如何将Hugo页面从英语翻译成德语。
我测试的三页内容涉及不同主题,其中包含一些结构良好的markdown内容:标题、列表、表格、链接等。
qwen3 8b、14b 和 30b,devstral 24b,mistral small 24b
在这项测试中,我正在比较不同LLMs在Ollama上如何将Hugo页面从英语翻译成德语。
我测试的三页内容涉及不同主题,其中包含一些结构良好的markdown内容:标题、列表、表格、链接等。
实现 RAG?这里有一些用 Golang 编写的代码片段。
这个小的 Go代码示例重新排序是调用Ollama生成嵌入 用于查询和每个候选文档, 然后按余弦相似度降序排序。
Ollama 现已推出全新强大的 LLM
Qwen3 Embedding 和 Reranker 模型 是 Qwen 系列的最新发布版本,专为高级文本嵌入、检索和重排序任务而设计。
考虑安装第二块GPU用于大型语言模型吗?
这取决于具体任务。对于训练和多GPU推理,性能下降非常明显。
使用LLM从HTML中提取文本...
在 Ollama 模型库中,有一些模型能够 将 HTML 内容转换为 Markdown,这对内容转换任务非常有用。
游标AI对比GitHub Copilot对比Cline AI对比...
Ollama 在 Intel CPU 上的效率核心与性能核心对比
我有一个理论要测试——如果利用所有Intel CPU核心是否能提高LLMs的速度?。
困扰我的是,新的gemma3 27位模型(gemma3:27b,17GB在ollama上)无法适应我GPU的16GB显存,部分运行在CPU上。
配置 ollama 以并行执行请求。
当 Ollama 服务器同时收到两个请求时,其行为取决于其配置和可用的系统资源。
两个 deepseek-r1 模型与两个基础模型的比较
DeepSeek 的第一代推理模型,性能可与 OpenAI-o1 相媲美, 包括基于 Llama 和 Qwen 从 DeepSeek-R1 蒸馏出的六个密集模型。
编译了一些以备将来使用……
以下是目前最有用的 Ollama 命令列表和示例([Ollama 命令速查表](https://www.glukhov.org/zh-cn/post/2024/12/ollama-cheatsheet/ “ollama 命令速查表)"),我之前整理过一些。
希望它对你有用(对你有用)。
下一轮LLM测试
不久之前发布了。让我们跟上进度并
测试Mistral Small与其他LLMs的性能表现。
RAG的重排序的Python代码
对比两款自托管AI搜索引擎
美味的食物不仅令人垂涎,也是一道视觉盛宴。
但在本文中,我们将比较两个基于人工智能的搜索系统,Farfalle 和 Perplexica。
本地运行类似 Copilot 的服务?轻松!
这非常令人兴奋!
与其调用 Copilot 或 Perplexity.ai 并告诉全世界你想要什么,
你现在可以在自己的 PC 或笔记本电脑上运行类似的服务!
测试逻辑谬误检测
最近我们看到有几款新的大型语言模型(LLMs)发布。
令人兴奋的时刻。
让我们进行测试,看看它们在检测逻辑谬误时的表现如何。