Ollama Enshittification - 早期迹象
我对Ollama当前开发状态的看法
Ollama 已经迅速成为在本地运行大型语言模型(LLMs)最受欢迎的工具之一。
其简单的命令行界面(CLI)和流畅的模型管理功能,使其成为希望在云之外使用 AI 模型的开发人员的首选。
但与许多有前景的平台一样,已经出现了 Enshittification 的迹象:
我对Ollama当前开发状态的看法
Ollama 已经迅速成为在本地运行大型语言模型(LLMs)最受欢迎的工具之一。
其简单的命令行界面(CLI)和流畅的模型管理功能,使其成为希望在云之外使用 AI 模型的开发人员的首选。
但与许多有前景的平台一样,已经出现了 Enshittification 的迹象:
替代的语音 over IP 通信平台
Mumble 是一款免费且开源的语音通信(VoIP)应用程序,主要用于实时语音交流。它采用客户端-服务器架构,用户通过连接到共享服务器来互相交谈。
2025年Ollama最突出的UI概览
本地托管的 Ollama 允许你在自己的机器上运行大型语言模型,但通过命令行使用它并不友好。
以下是几个提供 ChatGPT风格界面 的开源项目,它们可以连接到本地的 Ollama。
用于GPU负载监控的应用程序小列表
GPU负载监控应用: nvidia-smi vs nvtop vs nvitop vs KDE plasma systemmonitor.
在家庭实验室集群上安装轻量级 k3s Kubernetes
以下是逐步操作指南,介绍如何在裸金属服务器(1个主节点 + 2个工作节点)上**安装一个3节点K3s集群**。
Kubernetes 变体的简要概述
比较 自托管 Kubernetes 发行版,用于在裸机或家庭服务器上部署,重点关注安装简便性、性能、系统要求和功能集。
为我们的家庭实验室选择最佳的 Kubernetes 方案
我正在比较自托管的Kubernetes变体 ,这些变体适用于基于Ubuntu的homelab,包含3个节点(每个节点16GB RAM,4个核心),重点在于安装和维护的简便性,以及对持久卷和LoadBalancers的支持。
关于常见 GitHub Actions 及其结构的简要介绍。
GitHub Actions 是 GitHub 内部的一个自动化和 CI/CD 平台,用于根据推送、拉取请求或定时任务等事件构建、测试和部署代码。
顺便说一下,docker-compose 与 docker compose 是不同的……
以下是 Docker Compose 快速参考 ,包含注释示例,帮助您快速掌握 Compose 文件和命令。
关于 Obsidian ...
以下是关于
Obsidian 作为强大的 个人知识管理 (PKM) 工具
的详细分析,解释其架构、功能、优势以及它如何支持现代知识工作流程。
2025年7月,它应该很快就会发布。
NVIDIA 即将发布 NVIDIA DGX Spark - 基于 Blackwell 架构的小型 AI 超级计算机,配备 128GB 以上统一内存和 1 PFLOPS 的 AI 性能。这是运行大型语言模型(LLM)的理想设备。
在网站上应使用哪些网络分析系统?
让我们快速了解一下可用于自托管的 Matomo、Plausible、Google 等网络分析提供商和系统 并进行比较。
标准 Ubuntu 24.04 安装流程说明
这是我安装 Ubuntu 24.04 的全新安装 时最喜欢的一套步骤。
我喜欢这里的一点是:不需要安装 NVidia 驱动程序!它们会自动安装。
我曾使用 Dokuwiki 作为个人知识库
Dokuwiki 是一个自托管的维基百科,可以轻松地在本地部署,且不需要任何数据库。
我之前是在我的宠物 Kubernetes 集群上使用 Docker 部署的。
AI适用GPU价格更新 - RTX 5080和RTX 5090
让我们比较顶级消费级GPU的价格,这些GPU特别适合用于大型语言模型(LLMs),总体上也适用于人工智能(AI)。
具体来看: RTX 5080和RTX 5090价格。它们的价格略有下降。