Farfalle x Perplexica
Comparando dois motores de busca de IA auto-hospedados
Comida incrível é um prazer também para os seus olhos. Mas, neste post, compararemos dois sistemas de busca baseados em IA, Farfalle e Perplexica.
Comparando dois motores de busca de IA auto-hospedados
Comida incrível é um prazer também para os seus olhos. Mas, neste post, compararemos dois sistemas de busca baseados em IA, Farfalle e Perplexica.
Executando um serviço estilo Copilot localmente? Fácil!
Isso é muito emocionante! Em vez de chamar o Copilot ou o Perplexity.ai e contar a todos o que você busca, agora você pode hospedar um serviço similar no seu próprio PC ou laptop!
Teste de detecção de falácias lógicas
Recentemente, vimos o lançamento de vários novos LLMs. Tempos emocionantes. Vamos testar e ver como eles se comportam na detecção de falácias lógicas.
Exige alguma experimentação, mas
Ainda assim, existem algumas abordagens comuns sobre como escrever bons prompts para que os LLMs não fiquem confusos ao tentar entender o que se espera deles.
Fragmentos de código Python frequentemente necessários
Às vezes preciso disto, mas não consigo encontrar imediatamente. Portanto, mantenho tudo aqui.
A rotulagem e o treinamento precisam de alguma colagem.
Quando treinei um detector de objetos com IA há algum tempo, o LabelImg foi uma ferramenta muito útil, mas a exportação do Label Studio para o formato COCO não era aceita pelo framework MMDetection..
8 versões do LLM llama3 (Meta+) e 5 versões do LLM phi3 (Microsoft)
Testando como modelos com diferentes números de parâmetros e quantização estão se comportando.
Os arquivos de modelos LLM do Ollama ocupam muito espaço.
Após instalar o Ollama, é melhor reconfigurar o Ollama para armazená-los em um novo local imediatamente. Assim, após baixar um novo modelo, ele não será baixado para o local antigo.
Vamos testar a velocidade dos LLMs em GPU versus CPU.
Comparando a velocidade de predição de várias versões de LLMs: llama3 (Meta/Facebook), phi3 (Microsoft), gemma (Google), mistral (código aberto) em CPU e GPU.
Vamos testar a qualidade da detecção de falácias lógicas em diferentes LLMs.
Aqui estou comparando várias versões de LLMs (Modelos de Linguagem): Llama3 (Meta), Phi3 (Microsoft), Gemma (Google), Mistral Nemo (Mistral AI) e Qwen (Alibaba).
Há bastante tempo, treinei um sistema de IA de detecção de objetos.
Num dia frio de julho … que é na Austrália … Senti uma necessidade urgente de treinar um modelo de IA para detectar barras de aço de reforço de concreto sem as tampas de proteção…