Ollama

Ollama 如何处理并行请求

Ollama 如何处理并行请求

配置 ollama 以并行执行请求。

当 Ollama 服务器同时收到两个请求时,其行为取决于其配置和可用的系统资源。

在 Ollama 上测试 Deepseek-R1

在 Ollama 上测试 Deepseek-R1

两个 deepseek-r1 模型与两个基础模型的比较

DeepSeek 的第一代推理模型,性能可与 OpenAI-o1 相媲美, 包括基于 Llama 和 Qwen 从 DeepSeek-R1 蒸馏出的六个密集模型。

Ollama 快速参考指南

Ollama 快速参考指南

编译了一些以备将来使用……

以下是目前最有用的 Ollama 命令列表和示例([Ollama 命令速查表](https://www.glukhov.org/zh-cn/post/2024/12/ollama-cheatsheet/ “ollama 命令速查表)"),我之前整理过一些。
希望它对你有用(对你有用)。

使用 Ollama 自托管 Perplexica

使用 Ollama 自托管 Perplexica

本地运行类似 Copilot 的服务?轻松!

这非常令人兴奋!
与其调用 Copilot 或 Perplexity.ai 并告诉全世界你想要什么,
你现在可以在自己的 PC 或笔记本电脑上运行类似的服务!

Gemma2 与 Qwen2 与 Mistral Nemo 与...

Gemma2 与 Qwen2 与 Mistral Nemo 与...

测试逻辑谬误检测

最近我们看到有几款新的大型语言模型(LLMs)发布。
令人兴奋的时刻。
让我们进行测试,看看它们在检测逻辑谬误时的表现如何。