大语言模型前端
选择虽不多,但仍有……
目录
当我开始尝试使用大型语言模型(LLMs)时,它们的用户界面正处于积极开发中,而现在其中一些已经非常出色。
!- Jan - 适用于LLMs的多平台UI(jan-site_w678.jpg Jan - LLMs前端 - 安装)
Jan
- Jan(https://jan.ai/) 可用于 Windows、Linux 和 Mac。
具有深色、浅色和透明主题。
!- Jan LLM前端 - 主窗口(jan-self_w678.jpg Jan - LLMs前端 - 回答为什么自托管的示例)
可以连接到多个现有后端,如 Anthropic、Cohere、OpenAI、NvidiaNIM、MistralAI 等,并且可以在其上托管模型 - 请参见下图中的 Cortex 部分 - 显示 Jan 下载并本地托管 Llama3 8b q4 和 Phi3 medium (q4)。
!- Jan LLM前端 - 配置选项(jan-config_w678.jpg Jan LLM前端 - 配置选项)
优点(我喜欢的):
- 直观的界面
- 可以尝试模型温度、topp、频率和存在惩罚以及系统提示
- 提供 API 服务器
缺点:
- 在我的基于 Ubuntu 的操作系统上似乎有些慢。在 Windows 上运行良好。
- 可以连接到许多后端,但它们都是托管的。使用 Ollama 选项会更好。
- 在 Cortex 中可用于自托管的模型变体不多。量化选项也不多。
- 是的,Huggingface gguf 非常棒。但我想
- 重用 ollama 已经下载并加载到 VRAM 中的模型
- 不要在每个地方都托管相同的模型
KoboldAI
一个非常突出的选项
Silly Tavern
另一个非常多功能的选项
LLM Studio
LLM Studio 不是我最喜欢的 LLM 用户界面,但它对 Huggingface 模型的访问更好。
命令行 Ollama
是的,这也是一个用户界面,只是命令行界面。
要运行 llama3.1 LLM:
ollama run llama3.1
完成后,发送命令退出 Ollama 命令行:
/bye
cURL Ollama
如果尚未安装 cUrl,请先安装:
sudo apt-get install curl
要调用在 Ollama 上本地托管的 mistral nemo q8 LLM,请创建一个包含提示的本地文件 p.json
:
{
model: mistral-nemo:12b-instruct-2407-q8_0,
prompt: 什么是后现代主义?,
stream: false
}
现在在 bash 终端中执行:
curl -X POST http://localhost:11434/api/generate -d @p.json > p-result.json
结果将在文件 p-result.json
中
如果你想直接打印结果:
curl -X POST http://localhost:11434/api/generate -d @p.json
另外:
我没有测试这些,但这是一个相当全面的 LLM 用户界面列表:
- Streamlit
- Gradio
- Lobe Chat
- Text Generation WebUI
- Ollama WebUI
- Hugging Face Chat UI
- GPT-4All
- LocalGPT
- ChainFury
- Verba by Weaviate
- Chat UI Kit for React by ChatScope
- Reflex Chat
- Silly Tavern
- Amica
- Serge Chat
- LLM Multitool
- Sanctum AI
- KoboldAI
- AI Messenger
- Exui
- Spellbook Docker
- Lollms WebUI
- H2O GPT