Open WebUI: Interface de LLM Auto-Hospedada
Alternativa de ChatGPT auto-hospedada para LLMs locais
Open WebUI é uma poderosa, extensível e rica em recursos interface web autosservida para interagir com modelos de linguagem grandes.
Quando comecei a experimentar com LLMs, as interfaces deles estavam em desenvolvimento ativo e agora algumas delas são realmente boas.
!- Jan - interface multiplataforma para LLMs(jan-site_w678.jpg Jan - Frontend para LLMs - instalação)
Possui temas escuros, claros e transparentes.
!- Jan LLM frontend - janela principal(jan-self_w678.jpg Jan - Frontend para LLMs - exemplo de resposta para por que selfhost)
Pode se conectar a vários backends existentes, como Anthropic, Cohere, OpenAI, NvidiaNIM, MistralAI etc, e hospedar modelos por conta própria - veja a seção Cortex na captura de tela abaixo - mostrando Jan baixado e hospedando localmente Llama3 8b q4 e Phi3 medium (q4).
!- Jan LLM frontend - opções de configuração(jan-config_w678.jpg Jan LLM frontend - opções de configuração)
Pontos positivos (o que gostei):
Pontos negativos:
Um dos mais proeminentes
Outro muito versátil
LLM Studio não é minha interface favorita para LLMs, mas tem melhor acesso aos modelos do Huggingface.
Sim, isso também é uma interface de usuário, apenas uma via linha de comando.
Para executar o LLM llama3.1:
ollama run llama3.1
quando terminar, envie um comando para sair da linha de comando do Ollama:
/bye
Instale o cUrl se ainda não o fez:
sudo apt-get install curl
Para chamar o mistral nemo q8 llm local hospedado no Ollama - crie um arquivo local com o prompt p.json:
{
model: mistral-nemo:12b-instruct-2407-q8_0,
prompt: O que é pós-modernismo?,
stream: false
}
e agora execute no terminal bash:
curl -X POST http://localhost:11434/api/generate -d @p.json > p-result.json
o resultado estará no arquivo p-result.json
se quiser apenas imprimir o resultado:
curl -X POST http://localhost:11434/api/generate -d @p.json
Não testei esses, mas é uma lista bastante abrangente de interfaces para LLMs:
Alternativa de ChatGPT auto-hospedada para LLMs locais
Open WebUI é uma poderosa, extensível e rica em recursos interface web autosservida para interagir com modelos de linguagem grandes.
Visão geral rápida das interfaces de usuário mais proeminentes para Ollama em 2025
O Ollama hospedado localmente permite que você execute modelos de linguagem grandes em sua própria máquina, mas usar o Ollama via linha de comando não é amigável para o usuário.
Aqui estão vários projetos de código aberto que oferecem interfaces do tipo ChatGPT que se conectam a um Ollama local.
Comparando duas ferramentas de busca por IA auto-hospedadas
Comida incrível é um prazer para os olhos também. Mas neste post, vamos comparar dois sistemas de busca baseados em IA, Farfalle e Perplexica.
Executando um serviço do tipo copilot localmente? Fácil!
Isso é muito emocionante!
Em vez de chamar o copilot ou perplexity.ai e contar ao mundo inteiro o que você está buscando, agora você pode hospedar um serviço semelhante no seu próprio PC ou laptop!