
YaCy:去中心化搜索引擎、优势、挑战与未来
自托管一个网络搜索引擎?简单!
YaCy 是一个 去中心化、点对点(P2P)搜索引擎,其设计目的是无需依赖集中式服务器,使用户能够创建本地或全球索引,并通过查询分布式对等节点来执行搜索。
自托管一个网络搜索引擎?简单!
YaCy 是一个 去中心化、点对点(P2P)搜索引擎,其设计目的是无需依赖集中式服务器,使用户能够创建本地或全球索引,并通过查询分布式对等节点来执行搜索。
Ollama 现已推出全新强大的 LLM
Qwen3 Embedding 和 Reranker 模型 是 Qwen 系列的最新发布版本,专为高级文本嵌入、检索和重排序任务而设计。
将所有与页面相关的内容放在一个文件夹中...
有一段时间,我一直被一个烦人的问题困扰着,那就是如何将页面的缩略图放入静态目录中。这适用于 Mainroad、Rodster 和类似的 Hugo 主题。
考虑安装第二块GPU用于大型语言模型吗?
这取决于具体任务。对于训练和多GPU推理,性能下降非常明显。
快速检查 Ubuntu 和 Mint 版本
要确定你的 Linux Mint 安装所基于的 Ubuntu 版本,你可以使用几种涉及命令行工具和系统文件的方法。
在 AWS S3 上设置好 Gitea 和 Hugo 之后...
下一步是实施一些 CI/CD 并设置 Gitea Actions for Hugo website, to push website to AWS S3 当 master 分支更新时自动推送网站到 AWS S3。
使用LLM从HTML中提取文本...
在 Ollama 模型库中,有一些模型能够 将 HTML 内容转换为 Markdown,这对内容转换任务非常有用。
那我为什么一直看到这个蓝屏……
我深受这个问题的影响。但如果你的蓝屏(BSOD)和我的情况类似,你应该调查并测试你的电脑。
原因在于 Intel 第 13 代和第 14 代处理器的 CPU 退化问题。
它们之间有什么不同?
Ollama 在 Intel CPU 上的效率核心与性能核心对比
我有一个理论要测试——如果利用所有Intel CPU核心是否能提高LLMs的速度?。
困扰我的是,新的gemma3 27位模型(gemma3:27b,17GB在ollama上)无法适应我GPU的16GB显存,部分运行在CPU上。
从一开始就可以重新排列终端窗口
有几种方法可以在 Linux Mint 中启动一组终端工具并实现终端窗口的平铺布局,具体取决于您的工作流程和所需的自动化程度。
Hugo 最受欢迎的主题
让我们在 GitHub 上查看 Hugo 静态网站生成器的最佳主题列表,并检查它们的星级评分。
你可以前往 官方
Hugo 主题列表:https://themes.gohugo.io/
配置 ollama 以并行执行请求。
当 Ollama 服务器同时收到两个请求时,其行为取决于其配置和可用的系统资源。
适用于 Linux 和 Windows 的免费数据库管理工具
DBeaver 是一款通用的数据库管理工具和 SQL 客户端,专为 开发人员、数据库管理员、分析师以及任何专业处理数据的人士设计。
一点系统管理知识
可能现在应该将这个平台工程称为平台工程了。 这里有一些关于如何安装并移除Portainer的说明 - 一个用于管理Docker镜像和容器的UI。