
Ollama 新版本 v0.12.1 中的内存分配模型调度
我对ollama模型调度的测试 ```
在这里,我比较了新版本 Ollama 为模型分配的 VRAM 量与旧版本 Ollama 的情况。新版本表现更差。
我对ollama模型调度的测试 ```
在这里,我比较了新版本 Ollama 为模型分配的 VRAM 量与旧版本 Ollama 的情况。新版本表现更差。
我对Ollama当前开发状态的看法
Ollama 已经迅速成为在本地运行大型语言模型(LLMs)最受欢迎的工具之一。
其简单的命令行界面(CLI)和流畅的模型管理功能,使其成为希望在云之外使用 AI 模型的开发人员的首选。
但与许多有前景的平台一样,已经出现了 Enshittification 的迹象:
2025年Ollama最突出的UI概览
本地托管的 Ollama 允许你在自己的机器上运行大型语言模型,但通过命令行使用它并不友好。
以下是几个提供 ChatGPT风格界面 的开源项目,它们可以连接到本地的 Ollama。
2025年7月,不久后应该就可以使用了。
NVIDIA 即将发布 NVIDIA DGX Spark - 基于 Blackwell 架构的小型 AI 超级计算机,配备 128GB 以上统一内存和 1 PFLOPS AI 性能。运行大型语言模型(LLMs)的理想设备。
关于在 GO 中实现 MCP 规范的长文解读
这里我们对**模型上下文协议(MCP)**进行了描述,简要说明了如何用Go语言实现一个MCP服务器,包括消息结构和协议规范。
实现 RAG?这里有一些 Go 代码片段 - 2...
由于标准 Ollama 没有直接的重排序 API,
您需要通过生成查询-文档对的嵌入向量并对其进行评分来实现 使用 Qwen3 重排序器在 GO 中进行重排序。
qwen3 8b、14b 和 30b,devstral 24b,mistral small 24b
在这项测试中,我正在比较不同LLMs在Ollama上如何将Hugo页面从英语翻译成德语。
我测试的三页内容涉及不同主题,其中包含一些结构良好的markdown内容:标题、列表、表格、链接等。
实现 RAG?这里有一些用 Golang 编写的代码片段。
这个小的 Go代码示例重新排序调用Ollama生成嵌入 用于查询和每个候选文档, 然后按余弦相似度降序排序。
Ollama 现已推出全新强大的 LLM
Qwen3 Embedding 和 Reranker 模型 是 Qwen 系列的最新发布,专为高级文本嵌入、检索和重排序任务而设计。
考虑安装第二块GPU用于大型语言模型吗?
这取决于具体任务。对于训练和多GPU推理,性能下降非常明显。
使用LLM从HTML中提取文本...
在 Ollama 模型库中,有一些模型可以 将 HTML 内容转换为 Markdown,这对内容转换任务非常有用。
它们之间有什么不同?
游标AI对比GitHub Copilot对比Cline AI对比...
大型语言模型提供商简要列表
使用大型语言模型(LLM)的成本并不高,可能不需要购买新的高性能GPU。
以下是一份云上LLM提供商列表,列出了他们托管的LLM。
Ollama 在 Intel CPU 上的效率核心与性能核心对比
我有一个理论要测试——如果利用所有Intel CPU核心是否能提高LLMs的速度?。
困扰我的是,新的gemma3 27位模型(gemma3:27b,17GB在ollama上)无法适应我GPU的16GB显存,部分运行在CPU上。