
Hugo 页面翻译质量对比 - Ollama 上的 LLMs
qwen3 8b、14b 和 30b,devstral 24b,mistral small 24b
在这项测试中,我正在比较不同LLMs在Ollama上如何将Hugo页面从英语翻译成德语。
我测试的三页内容涉及不同主题,其中包含一些结构良好的markdown内容:标题、列表、表格、链接等。
qwen3 8b、14b 和 30b,devstral 24b,mistral small 24b
在这项测试中,我正在比较不同LLMs在Ollama上如何将Hugo页面从英语翻译成德语。
我测试的三页内容涉及不同主题,其中包含一些结构良好的markdown内容:标题、列表、表格、链接等。
实现 RAG?这里有一些用 Golang 编写的代码片段。
这个小的 Go代码示例重新排序是调用Ollama生成嵌入 用于查询和每个候选文档, 然后按余弦相似度降序排序。
价格现实检验 — RTX 5080 和 RTX 5090
仅仅三个月前,我们还看不到RTX 5090在商店里出售,而现在它们已经上市了,但价格略高于MRSP。
让我们来比较一下澳大利亚最便宜的RTX 5080和RTX 5090的价格,看看情况如何。
自托管一个网络搜索引擎?简单!
YaCy 是一个 去中心化、点对点(P2P)搜索引擎,其设计目的是无需依赖集中式服务器,使用户能够创建本地或全球索引,并通过查询分布式对等节点来执行搜索。
更多内存,更低的功耗,但价格依然昂贵……
顶级自动化系统用于某些令人惊叹的工作。
Ollama 现已推出全新强大的 LLM
Qwen3 Embedding 和 Reranker 模型 是 Qwen 系列的最新发布版本,专为高级文本嵌入、检索和重排序任务而设计。
将所有与页面相关的内容放在一个文件夹中...
有一段时间,我一直被一个烦人的问题困扰着,那就是如何将页面的缩略图放入静态目录中。这适用于 Mainroad、Rodster 和类似的 Hugo 主题。
考虑安装第二块GPU用于大型语言模型吗?
这取决于具体任务。对于训练和多GPU推理,性能下降非常明显。
在 AWS S3 上设置好 Gitea 和 Hugo 之后...
下一步是实施一些 CI/CD 并设置 Gitea Actions for Hugo website, to push website to AWS S3 当 master 分支更新时自动推送网站到 AWS S3。
使用LLM从HTML中提取文本...
在 Ollama 模型库中,有一些模型能够 将 HTML 内容转换为 Markdown,这对内容转换任务非常有用。
游标AI对比GitHub Copilot对比Cline AI对比...
Ollama 在 Intel CPU 上的效率核心与性能核心对比
我有一个理论要测试——如果利用所有Intel CPU核心是否能提高LLMs的速度?。
困扰我的是,新的gemma3 27位模型(gemma3:27b,17GB在ollama上)无法适应我GPU的16GB显存,部分运行在CPU上。
有用的 MinIO 命令
MinIO 提供两种标准的用户界面:(1) MinIO 控制台 - 这是一个网页界面,以及
(2) MinIO 命令 - 这是一个命令行 工具 mc
。
概述与安装 Minio
MinIO 是一个开源、高性能、分布式对象存储系统,完全兼容 Amazon S3 API。
人工智能需要消耗大量算力……
在现代世界纷乱的环境中,我在这里比较不同显卡的技术规格,这些显卡适用于AI任务
(深度学习,
目标检测
和大语言模型)。
不过它们都非常昂贵。