
Ubuntu 24.04 文件管理器中的上下文菜单 - Nautilus 与 Nemo 与 Dolphin 与 Caja 的比较
在 Nautilus 中如何自定义上下文菜单?
在新电脑上安装了全新的 Linux 系统后,我惊讶地发现竟然找不到一个简单的方法来 自定义 Ubuntu 24.04 的右键菜单。
在 Nautilus 中如何自定义上下文菜单?
在新电脑上安装了全新的 Linux 系统后,我惊讶地发现竟然找不到一个简单的方法来 自定义 Ubuntu 24.04 的右键菜单。
Python uv 的优点
Python uv(发音为“you-vee”)是一个现代、高性能的 Python 包和项目管理工具,使用 Rust 编写。它被设计为传统 Python 包管理工具(如 pip
、pip-tools
、virtualenv
、pipx
和 pyenv
)的即插即用替代品,旨在简化并加速 Python 开发工作流程。
自托管一个网络搜索引擎?简单!
YaCy 是一个 去中心化、点对点(P2P)搜索引擎,其设计目的是无需依赖集中式服务器,使用户能够创建本地或全球索引,并通过查询分布式对等节点来执行搜索。
Ollama 现已推出全新强大的 LLM
Qwen3 Embedding 和 Reranker 模型 是 Qwen 系列的最新发布,专为高级文本嵌入、检索和重排序任务而设计。
将所有与页面相关的内容放在一个文件夹中...
有一段时间,我一直被一个烦人的问题困扰着,那就是如何将页面的缩略图放入静态目录中。这适用于 Mainroad、Rodster 和类似的 Hugo 主题。
考虑安装第二块GPU用于大型语言模型吗?
这取决于具体任务。对于训练和多GPU推理,性能下降非常明显。
快速检查 Ubuntu 和 Mint 版本
要确定你的 Linux Mint 安装所基于的 Ubuntu 版本,你可以使用几种涉及命令行工具和系统文件的方法。
在 AWS S3 上设置好 Gitea 和 Hugo 之后...
下一步是实施一些 CI/CD 并设置 Gitea Actions for Hugo website, to push website to AWS S3 当 master 分支更新时自动推送网站到 AWS S3。
使用LLM从HTML中提取文本...
在 Ollama 模型库中,有一些模型可以 将 HTML 内容转换为 Markdown,这对内容转换任务非常有用。
那我为什么一直看到这个蓝屏……
我深受这个问题的影响。但如果你的蓝屏(BSOD)和我的情况类似,你应该调查并测试你的电脑。
原因在于 Intel 第 13 代和第 14 代处理器的 CPU 退化问题。
它们之间有什么不同?
Ollama 在 Intel CPU 上的效率核心与性能核心对比
我有一个理论要测试——如果利用所有Intel CPU核心是否能提高LLMs的速度?。
困扰我的是,新的gemma3 27位模型(gemma3:27b,17GB在ollama上)无法适应我GPU的16GB显存,部分运行在CPU上。
从一开始就可以重新排列终端窗口
有几种方法可以在 Linux Mint 中启动一组终端工具并实现终端窗口的平铺布局,具体取决于您的工作流程和所需的自动化程度。
Hugo 最受欢迎的主题
让我们在 GitHub 上查看 Hugo 静态网站生成器的最佳主题列表,并检查它们的星级评分。
你可以前往 官方
Hugo 主题列表:https://themes.gohugo.io/
配置 ollama 以并行执行请求。
当 Ollama 服务器同时收到两个请求时,其行为取决于其配置和可用的系统资源。