Farfalle x Perplexica

Farfalle x Perplexica

Comparando dois motores de busca de IA auto-hospedados

Comida incrível é um prazer também para os seus olhos. Mas, neste post, compararemos dois sistemas de busca baseados em IA, Farfalle e Perplexica.

Hospedagem própria do Perplexica - com Ollama

Hospedagem própria do Perplexica - com Ollama

Executando um serviço estilo Copilot localmente? Fácil!

Isso é muito emocionante! Em vez de chamar o Copilot ou o Perplexity.ai e contar a todos o que você busca, agora você pode hospedar um serviço similar no seu próprio PC ou laptop!

Gemma2 x Qwen2 x Mistral Nemo x...

Gemma2 x Qwen2 x Mistral Nemo x...

Teste de detecção de falácias lógicas

Recentemente, vimos o lançamento de vários novos LLMs. Tempos emocionantes. Vamos testar e ver como eles se comportam na detecção de falácias lógicas.

Escrever prompts eficazes para LLMs

Escrever prompts eficazes para LLMs

Exige alguma experimentação, mas

Ainda assim, existem algumas abordagens comuns sobre como escrever bons prompts para que os LLMs não fiquem confusos ao tentar entender o que se espera deles.

Instalando o Pi-Hole — bloqueador de anúncios gratuito

Instalando o Pi-Hole — bloqueador de anúncios gratuito

É tão irritante assistir a todos aqueles anúncios.

Você pode instalar um plugin ou extensão de bloqueador de anúncios para o Google Chrome, Firefox ou Safari, mas terá de fazer isso em cada dispositivo. O bloqueador de anúncios em rede é a minha solução favorita.

Implantar site Hugo no AWS S3

Implantar site Hugo no AWS S3

O Hugo é um gerador de sites estáticos.

Quando o site é gerado com o Hugo, é hora de implantá-lo em alguma plataforma de hospedagem. Aqui está um tutorial sobre como fazer o push para o AWS S3 e servir com a CDN AWS CloudFront.

Teste de Velocidade de Grandes Modelos de Linguagem

Teste de Velocidade de Grandes Modelos de Linguagem

Vamos testar a velocidade dos LLMs em GPU versus CPU.

Comparando a velocidade de predição de várias versões de LLMs: llama3 (Meta/Facebook), phi3 (Microsoft), gemma (Google), mistral (código aberto) em CPU e GPU.

Detecção de Falácias Lógicas com LLMs

Detecção de Falácias Lógicas com LLMs

Vamos testar a qualidade da detecção de falácias lógicas em diferentes LLMs.

Aqui estou comparando várias versões de LLMs (Modelos de Linguagem): Llama3 (Meta), Phi3 (Microsoft), Gemma (Google), Mistral Nemo (Mistral AI) e Qwen (Alibaba).

Backup e Restauração do Servidor Gitea

Backup e Restauração do Servidor Gitea

Tudo pode acontecer nestes tempos difíceis.

É necessário fazer o backup de 1) do banco de dados, 2) do armazenamento de arquivos e 3) de alguns outros arquivos do Gitea. Vamos lá.

Assinar

Receba novos artigos sobre sistemas, infraestrutura e engenharia de IA.