Ollama

Como o Ollama Lida com Solicitações Paralelas

Como o Ollama Lida com Solicitações Paralelas

Compreenda a concorrência e a fila do Ollama e aprenda como ajustar o OLLAMA_NUM_PARALLEL para solicitações paralelas estáveis.

Este guia explica como o Ollama gerencia solicitações paralelas (concorrência, filas e limites de recursos) e como ajustá-lo usando a variável de ambiente OLLAMA_NUM_PARALLEL (e configurações relacionadas).

Testando o Deepseek-R1 no Ollama

Testando o Deepseek-R1 no Ollama

Comparando dois modelos deepseek-r1 com dois modelos base

A primeira geração de modelos de raciocínio da DeepSeek com desempenho comparável ao OpenAI-o1, incluindo seis modelos densos destilados do DeepSeek-R1 com base em Llama e Qwen.

Farfalle x Perplexica

Farfalle x Perplexica

Comparando dois motores de busca de IA auto-hospedados

Comida incrível é um prazer também para os seus olhos. Mas, neste post, compararemos dois sistemas de busca baseados em IA, Farfalle e Perplexica.

Hospedagem própria do Perplexica - com Ollama

Hospedagem própria do Perplexica - com Ollama

Executando um serviço estilo Copilot localmente? Fácil!

Isso é muito emocionante! Em vez de chamar o Copilot ou o Perplexity.ai e contar a todos o que você busca, agora você pode hospedar um serviço similar no seu próprio PC ou laptop!

Gemma2 x Qwen2 x Mistral Nemo x...

Gemma2 x Qwen2 x Mistral Nemo x...

Teste de detecção de falácias lógicas

Recentemente, vimos o lançamento de vários novos LLMs. Tempos emocionantes. Vamos testar e ver como eles se comportam na detecção de falácias lógicas.

Escrever prompts eficazes para LLMs

Escrever prompts eficazes para LLMs

Exige alguma experimentação, mas

Ainda assim, existem algumas abordagens comuns sobre como escrever bons prompts para que os LLMs não fiquem confusos ao tentar entender o que se espera deles.