Ollama

Ollama 如何处理并行请求

Ollama 如何处理并行请求

配置 ollama 以并行执行请求。

当 Ollama 服务器同时收到两个请求时,其行为取决于其配置和可用的系统资源。

在Ollama上测试Deepseek-R1

在Ollama上测试Deepseek-R1

将两个 deepseek-r1 模型与两个基础模型进行比较

DeepSeek’s 第一代推理模型,其性能可与 OpenAI-o1 相媲美,包括基于 Llama 和 Qwen 的 DeepSeek-R1 的六个密集模型。

Ollama 快速参考指南

Ollama 快速参考指南

一段时间前整理了这份 Ollama 命令列表……

以下是目前最有用的 Ollama 命令列表和示例([Ollama 命令速查表](https://www.glukhov.org/zh-cn/post/2024/12/ollama-cheatsheet/ “ollama commands cheat sheet)"),我之前整理过一些。
希望对你也有帮助(对你有用)。

使用 Ollama 自托管 Perplexica

使用 Ollama 自托管 Perplexica

本地运行类似 Copilot 的服务?轻松!

这非常令人兴奋!
与其调用 Copilot 或 Perplexity.ai 并告诉全世界你想要什么,
你现在可以在自己的 PC 或笔记本电脑上运行类似的服务!