为 Docker 模型运行器添加 NVIDIA GPU 支持
启用 NVIDIA CUDA 支持的 Docker 模型运行器的 GPU 加速功能
Docker Model Runner 是 Docker 官方用于本地运行 AI 模型的工具,但 在 Docker Model Runner 中启用 NVidia GPU 加速 需要特定的配置。
启用 NVIDIA CUDA 支持的 Docker 模型运行器的 GPU 加速功能
Docker Model Runner 是 Docker 官方用于本地运行 AI 模型的工具,但 在 Docker Model Runner 中启用 NVidia GPU 加速 需要特定的配置。
GPT-OSS 120b 在三个 AI 平台上的基准测试
我找到了一些关于GPT-OSS 120b在三个不同平台上运行的性能测试结果:NVIDIA DGX Spark、Mac Studio和RTX 4080。Ollama库中的GPT-OSS 120b模型大小为65GB,这意味着它无法装入RTX 4080(或更新的RTX 5080的16GB显存中。
Docker Model Runner 命令快速参考
Docker Model Runner (DMR) 是 Docker 官方用于本地运行 AI 模型的解决方案,于 2025 年 4 月推出。此快速参考提供了所有关键命令、配置和最佳实践的快速查阅。
使用 GNOME Boxes 管理 Linux 虚拟机
在当今的计算环境中,虚拟化已成为开发、测试和运行多个操作系统的重要工具。对于寻求一种简单直观方式来管理虚拟机的 Linux 用户来说,GNOME Boxes 是一个轻量且用户友好的选择,它在不牺牲功能性的前提下优先考虑易用性。
专用芯片正在让人工智能推理变得更加快速、廉价。
可用性、六个国家的真实零售价格以及与Mac Studio的对比。
NVIDIA DGX Spark 是真实存在的,将于 2025年10月15日 开售,目标用户是需要 本地大型语言模型(LLM)工作 的 CUDA 开发者,配备集成的 NVIDIA AI 套件。美国建议零售价为 3,999美元;由于增值税和渠道因素,英国/德国/日本 的零售价更高。澳大利亚/韩元 的公开标价 尚未广泛发布。
适合AI的消费级GPU价格 - RTX 5080 和 RTX 5090
一再地,让我们比较顶级消费级GPU的价格,这些GPU特别适合LLMs,也适用于AI整体。
具体来说,我正在查看
RTX-5080和RTX-5090价格。
它们的价格略有下降。
用于GPU负载监控的应用程序小列表
GPU负载监控应用: nvidia-smi vs nvtop vs nvitop vs KDE plasma systemmonitor.
2025年7月,它应该很快就会发布。
NVIDIA 即将发布 NVIDIA DGX Spark - 基于 Blackwell 架构的小型 AI 超级计算机,配备 128GB 以上统一内存和 1 PFLOPS 的 AI 性能。这是运行大型语言模型(LLM)的理想设备。
AI适用GPU价格更新 - RTX 5080和RTX 5090
让我们比较顶级消费级GPU的价格,这些GPU特别适合用于大型语言模型(LLMs),总体上也适用于人工智能(AI)。
具体来看: RTX 5080和RTX 5090价格。它们的价格略有下降。
价格现实检验 — RTX 5080 和 RTX 5090
仅仅三个月前,我们还看不到RTX 5090在商店里出售,而现在它们已经上市了,但价格略高于MRSP。
让我们比较一下澳大利亚最便宜的RTX 5080和RTX 5090的价格,看看情况如何。
更多内存,更低功耗,但依然昂贵如...
顶级自动化系统用于某些令人惊叹的工作。
考虑安装第二块GPU用于大型语言模型吗?
这取决于具体任务。对于训练和多GPU推理,性能下降非常明显。
那我为什么一直看到这个蓝屏……
我深受这个问题的影响。但如果你的蓝屏(BSOD)和我的情况类似,你应该调查并测试你的电脑。
原因在于 Intel 第 13 代和第 14 代处理器的 CPU 退化问题。
Ollama 在 Intel CPU 上的效率核心与性能核心对比
我有一个理论要测试——如果利用所有Intel CPU核心是否能提高LLMs的速度?。
困扰我的是,新的gemma3 27位模型(gemma3:27b,17GB在ollama上)无法适应我GPU的16GB显存,部分运行在CPU上。