Self-Hosting

Ollama 如何处理并行请求

Ollama 如何处理并行请求

配置 ollama 以并行执行请求。

当 Ollama 服务器同时收到两个请求时,其行为取决于其配置和可用的系统资源。

在Ollama上测试Deepseek-R1

在Ollama上测试Deepseek-R1

将两个 deepseek-r1 模型与两个基础模型进行比较

DeepSeek’s 第一代推理模型,其性能可与 OpenAI-o1 相媲美,包括基于 Llama 和 Qwen 的 DeepSeek-R1 的六个密集模型。

PyInstaller 快速入门

PyInstaller 快速入门

将 Python 程序合并为单个文件

使用 PyInstaller
Python 程序打包为独立的可执行文件。它适用于 Linux、Windows 和 Mac。

虽然不是最有效的方式,但可以使用。