Self-Hosting

Autohospedaje de Perplexica con Ollama

Autohospedaje de Perplexica con Ollama

¿Ejecutando un servicio estilo copilot localmente? ¡Fácil!

¡Eso es muy emocionante! En lugar de llamar a copilot o perplexity.ai y contarle al mundo entero qué es lo que buscas, ahora puedes alojar un servicio similar en tu propio PC o laptop.

Frontends de LLM

Frontends de LLM

No hay tantas opciones, pero aún así...

Cuando empecé a experimentar con LLMs, las interfaces de usuario para ellos estaban en desarrollo activo y ahora algunas de ellas son realmente buenas.

Gemma2 vs Qwen2 vs Mistral Nemo vs...

Gemma2 vs Qwen2 vs Mistral Nemo vs...

Prueba de detección de falacias lógicas

Recientemente hemos visto la liberación de varios nuevos LLMs. Tiempo emocionante. Vamos a probar y ver cómo se desempeñan al detectar falacias lógicas.

Instalando Pi-Hole - bloqueador de anuncios gratuito

Instalando Pi-Hole - bloqueador de anuncios gratuito

Es tan molesto ver todos esos anuncios

Puedes instalar un complemento o extensión de bloqueo de anuncios en el navegador para Google Chrome, Firefox o Safari, pero tendrás que hacerlo en cada dispositivo.
El bloqueador de anuncios a nivel de red es mi solución favorita.

Detección de falacias lógicas con LLMs

Detección de falacias lógicas con LLMs

Probemos la calidad de detección de falacias lógicas de diferentes LLMs

Aquí estoy comparando varias versiones de LLM: Llama3 (Meta), Phi3 (Microsoft), Gemma (Google), Mistral Nemo (Mistral AI) y Qwen (Alibaba).