LLM Hosting

Enshittification do Ollama - os Primeiros Sinais

Enshittification do Ollama - os Primeiros Sinais

Minha visão sobre o estado atual do desenvolvimento do Ollama

A Ollama tornou-se rapidamente uma das ferramentas mais populares para executar LLMs localmente.

Sua CLI simples e gestão de modelos simplificada tornaram-na uma opção preferencial para desenvolvedores que desejam trabalhar com modelos de IA fora da nuvem.

Interfaces de Chat para Instâncias Locais do Ollama

Interfaces de Chat para Instâncias Locais do Ollama

Visão geral rápida das principais interfaces de usuário para Ollama em 2025

O Ollama hospedado localmente permite executar modelos de linguagem grandes na sua própria máquina, mas usá-lo via linha de comando não é amigável. Aqui estão vários projetos de código aberto que oferecem interfaces estilo ChatGPT que se conectam a uma instância local do Ollama.

Testando o Deepseek-R1 no Ollama

Testando o Deepseek-R1 no Ollama

Comparando dois modelos deepseek-r1 com dois modelos base

A primeira geração de modelos de raciocínio da DeepSeek com desempenho comparável ao OpenAI-o1, incluindo seis modelos densos destilados do DeepSeek-R1 com base em Llama e Qwen.

Hospedagem própria do Perplexica — com Ollama

Hospedagem própria do Perplexica — com Ollama

Executando um serviço estilo Copilot localmente? Fácil!

Isso é muito emocionante! Em vez de chamar o Copilot ou o perplexity.ai e contar a todos o que você procura, agora você pode hospedar um serviço semelhante no seu próprio PC ou laptop!