Autoalojamiento de Perplexica - con Ollama

Autoalojamiento de Perplexica - con Ollama

¿Ejecutando un servicio de estilo Copilot de forma local? ¡Fácil!

¡Eso es muy emocionante! En lugar de llamar a Copilot o Perplexity.ai y contarle al mundo entero lo que buscas, ¡ahora puedes alojar un servicio similar en tu propio PC o portátil!

Gemma2 vs Qwen2 vs Mistral Nemo vs...

Gemma2 vs Qwen2 vs Mistral Nemo vs...

Prueba de detección de falacias lógicas

Recientemente hemos visto la liberación de varios nuevos LLMs. Tiempo emocionante. Vamos a probar y ver cómo se desempeñan al detectar falacias lógicas.

Escribir prompts efectivos para LLMs

Escribir prompts efectivos para LLMs

Requiere algún experimento pero

Aún así, existen algunos enfoques comunes para escribir buenos prompts de manera que los modelos de lenguaje no se confundan al intentar entender lo que deseas.

Instalando Pi-Hole - bloqueador de anuncios gratuito

Instalando Pi-Hole - bloqueador de anuncios gratuito

Es tan molesto ver todos esos anuncios

Puedes instalar un complemento o extensión de bloqueo de anuncios en el navegador para Google Chrome, Firefox o Safari, pero tendrás que hacerlo en cada dispositivo.
El bloqueador de anuncios a nivel de red es mi solución favorita.

Desplegar un sitio Hugo en AWS S3

Desplegar un sitio Hugo en AWS S3

Hugo es un generador de sitios estáticos.

Cuando el sitio se genera con Hugo, es el momento de desplegarlo en alguna plataforma de alojamiento. Aquí hay una guía sobre cómo subirlo a AWS S3 y servirlo con la CDN de AWS CloudFront.

Prueba de velocidad de modelos de lenguaje grandes

Prueba de velocidad de modelos de lenguaje grandes

Probemos la velocidad de los LLM en GPU frente a CPU

Comparando la velocidad de predicción de varias versiones de LLMs: llama3 (Meta/Facebook), phi3 (Microsoft), gemma (Google), mistral (open source) en CPU y GPU.

Detección de falacias lógicas con LLMs

Detección de falacias lógicas con LLMs

Probemos la calidad de detección de falacias lógicas de diferentes LLMs

Aquí estoy comparando varias versiones de LLM: Llama3 (Meta), Phi3 (Microsoft), Gemma (Google), Mistral Nemo (Mistral AI) y Qwen (Alibaba).

Suscribirse

Recibe nuevas publicaciones sobre sistemas, infraestructura e ingeniería de IA.