Farfalle x Perplexica
Comparando dois motores de busca de IA auto-hospedados
Comida incrível é um prazer também para os seus olhos. Mas, neste post, compararemos dois sistemas de busca baseados em IA, Farfalle e Perplexica.
Comparando dois motores de busca de IA auto-hospedados
Comida incrível é um prazer também para os seus olhos. Mas, neste post, compararemos dois sistemas de busca baseados em IA, Farfalle e Perplexica.
Qual linguagem utilizar para o AWS Lambda?
Podemos escrever funções Lambda para implantação na AWS em várias linguagens. Vamos comparar o desempenho de funções (quase vazias) escritas em JavaScript, Python e Golang…
Executando um serviço estilo Copilot localmente? Fácil!
Isso é muito emocionante! Em vez de chamar o Copilot ou o Perplexity.ai e contar a todos o que você busca, agora você pode hospedar um serviço similar no seu próprio PC ou laptop!
Teste de detecção de falácias lógicas
Recentemente, vimos o lançamento de vários novos LLMs. Tempos emocionantes. Vamos testar e ver como eles se comportam na detecção de falácias lógicas.
Exige alguma experimentação, mas
Ainda assim, existem algumas abordagens comuns sobre como escrever bons prompts para que os LLMs não fiquem confusos ao tentar entender o que se espera deles.
Sincronizando favoritos entre laptops e navegadores?
Experimentei diferentes ferramentas e cheguei à conclusão de que gosto mais do Floccus.
Fragmentos de código Python frequentemente necessários
Às vezes preciso disto, mas não consigo encontrar imediatamente. Portanto, mantenho tudo aqui.
A rotulagem e o treinamento precisam de alguma colagem.
Quando treinei um detector de objetos com IA há algum tempo, o LabelImg foi uma ferramenta muito útil, mas a exportação do Label Studio para o formato COCO não era aceita pelo framework MMDetection..
8 versões do LLM llama3 (Meta+) e 5 versões do LLM phi3 (Microsoft)
Testando como modelos com diferentes números de parâmetros e quantização estão se comportando.
Os arquivos de modelos LLM do Ollama ocupam muito espaço.
Após instalar o Ollama, é melhor reconfigurar o Ollama para armazená-los em um novo local imediatamente. Assim, após baixar um novo modelo, ele não será baixado para o local antigo.
É tão irritante assistir a todos aqueles anúncios.
Você pode instalar um plugin ou extensão de bloqueador de anúncios para o Google Chrome, Firefox ou Safari, mas terá de fazer isso em cada dispositivo. O bloqueador de anúncios em rede é a minha solução favorita.
Mensagem de erro muito frequente...
Após clonar o repositório git, realize a configuração do repositório local, especialmente definindo o nome de usuário e o endereço de e-mail.
O Hugo é um gerador de sites estáticos.
Quando o site é gerado com o Hugo, é hora de implantá-lo em alguma plataforma de hospedagem. Aqui está um tutorial sobre como fazer o push para o AWS S3 e servir com a CDN AWS CloudFront.
Vamos testar a velocidade dos LLMs em GPU versus CPU.
Comparando a velocidade de predição de várias versões de LLMs: llama3 (Meta/Facebook), phi3 (Microsoft), gemma (Google), mistral (código aberto) em CPU e GPU.
Vamos testar a qualidade da detecção de falácias lógicas em diferentes LLMs.
Aqui estou comparando várias versões de LLMs (Modelos de Linguagem): Llama3 (Meta), Phi3 (Microsoft), Gemma (Google), Mistral Nemo (Mistral AI) e Qwen (Alibaba).
Tudo pode acontecer nestes tempos difíceis.
É necessário fazer o backup de 1) do banco de dados, 2) do armazenamento de arquivos e 3) de alguns outros arquivos do Gitea. Vamos lá.
Receba novos artigos sobre sistemas, infraestrutura e engenharia de IA.