
比较NVIDIA GPU在AI方面的适用性
人工智能需要消耗大量算力……
在现代世界纷乱的环境中,我在这里比较不同显卡的技术规格,这些显卡适用于AI任务
(深度学习,
目标检测
和大语言模型)。
不过它们都非常昂贵。
人工智能需要消耗大量算力……
在现代世界纷乱的环境中,我在这里比较不同显卡的技术规格,这些显卡适用于AI任务
(深度学习,
目标检测
和大语言模型)。
不过它们都非常昂贵。
配置 ollama 以并行执行请求。
当 Ollama 服务器同时收到两个请求时,其行为取决于其配置和可用的系统资源。
什么是这种时髦的AI辅助编程?
氛围编程 是一种由人工智能驱动的编程方法,开发者通过自然语言描述所需的功能,从而让人工智能工具自动生成代码。
将两个 deepseek-r1 模型与两个基础模型进行比较
DeepSeek’s 第一代推理模型,其性能可与 OpenAI-o1 相媲美,包括基于 Llama 和 Qwen 的 DeepSeek-R1 的六个密集模型。
一段时间前整理了这份 Ollama 命令列表……
以下是目前最有用的 Ollama 命令列表和示例([Ollama 命令速查表](https://www.glukhov.org/zh-cn/post/2024/12/ollama-cheatsheet/ “ollama commands cheat sheet)"),我之前整理过一些。
希望对你也有帮助(对你有用)。
下一轮LLM测试
不久之前发布了。让我们跟上进度并
测试Mistral Small与其他LLMs的性能表现。
RAG的重排序的Python代码
令人惊叹的新AI模型可根据文本生成图像
比较两款自托管AI搜索引擎
美味的食物不仅令人垂涎,也是一道视觉盛宴。
但在这篇文章中,我们将比较两个基于人工智能的搜索系统,Farfalle 和 Perplexica。
本地运行类似 Copilot 的服务?轻松!
这非常令人兴奋!
与其调用 Copilot 或 Perplexity.ai 并告诉全世界你想要什么,
你现在可以在自己的 PC 或笔记本电脑上运行类似的服务!
测试逻辑谬误检测
最近我们看到有几款新的大型语言模型(LLMs)发布。
令人兴奋的时刻。
让我们进行测试,看看它们在检测逻辑谬误时的表现如何。
选择虽不多,但仍有……
当我开始尝试使用大型语言模型(LLMs)时,它们的用户界面正处于积极开发中,而现在其中一些已经非常出色了。
需要进行一些尝试但
仍然有一些常见的方法可以编写良好的提示,使大语言模型(LLM)在理解你的需求时不会感到困惑。
8 个 llama3(Meta+)和 5 个 phi3(Microsoft)大语言模型版本
测试不同参数数量和量化模型的行为。
Ollama LLM 模型文件占用大量空间
在安装 ollama之后,最好立即重新配置 ollama,以便将模型存储在新位置。这样,当我们拉取新模型时,它就不会被下载到旧位置。