AI

Como o Ollama lida com solicitações paralelas

Como o Ollama lida com solicitações paralelas

Configurando ollama para execução de solicitações em paralelo.

Quando o servidor Ollama recebe duas solicitações ao mesmo tempo, seu comportamento depende da sua configuração e dos recursos do sistema disponíveis.

Vibe Coding - Significado e Descrição

Vibe Coding - Significado e Descrição

O que é esse coding assistido por IA que está em moda?

Vibe coding é uma abordagem de programação impulsionada por IA, onde os desenvolvedores descrevem a funcionalidade desejada em linguagem natural, permitindo que ferramentas de IA gerem código automaticamente.

Farfalle vs Perplexica

Farfalle vs Perplexica

Comparando duas ferramentas de busca por IA auto-hospedadas

Comida incrível é um prazer para os olhos também. Mas neste post, vamos comparar dois sistemas de busca baseados em IA, Farfalle e Perplexica.

Auto-hospedagem do Perplexica - com Ollama

Auto-hospedagem do Perplexica - com Ollama

Executando um serviço do tipo copilot localmente? Fácil!

Isso é muito emocionante! Em vez de chamar o copilot ou perplexity.ai e contar ao mundo inteiro o que você está buscando, agora você pode hospedar um serviço semelhante no seu próprio PC ou laptop!

Frontends de LLM

Frontends de LLM

Não há tantas opções assim, mas ainda assim...

Quando comecei a experimentar com LLMs, as interfaces deles estavam em desenvolvimento ativo e agora algumas delas são realmente boas.

Gemma2 vs Qwen2 vs Mistral Nemo vs...

Gemma2 vs Qwen2 vs Mistral Nemo vs...

Testando a detecção de falácias lógicas

Recentemente, vimos a liberação de vários novos LLMs. Tempos emocionantes. Vamos testar e ver como eles se saem ao detectar falácias lógicas.