LLM

Cómo Ollama maneja las solicitudes en paralelo

Cómo Ollama maneja las solicitudes en paralelo

Configurando ollama para la ejecución de solicitudes en paralelo.

Cuando el servidor Ollama recibe dos solicitudes al mismo tiempo, su comportamiento depende de su configuración y de los recursos del sistema disponibles.

Vibe Coding - Significado y descripción

Vibe Coding - Significado y descripción

¿Qué es este atractivo codificación asistida por IA?

Vibe coding es un enfoque de programación impulsado por IA donde los desarrolladores describen la funcionalidad deseada en lenguaje natural, permitiendo que las herramientas de IA generen código automáticamente.

Autohospedaje de Perplexica con Ollama

Autohospedaje de Perplexica con Ollama

¿Ejecutando un servicio estilo copilot localmente? ¡Fácil!

¡Eso es muy emocionante! En lugar de llamar a copilot o perplexity.ai y contarle al mundo entero qué es lo que buscas, ahora puedes alojar un servicio similar en tu propio PC o laptop.

Frontends de LLM

Frontends de LLM

No hay tantas opciones, pero aún así...

Cuando empecé a experimentar con LLMs, las interfaces de usuario para ellos estaban en desarrollo activo y ahora algunas de ellas son realmente buenas.

Gemma2 vs Qwen2 vs Mistral Nemo vs...

Gemma2 vs Qwen2 vs Mistral Nemo vs...

Prueba de detección de falacias lógicas

Recientemente hemos visto la liberación de varios nuevos LLMs. Tiempo emocionante. Vamos a probar y ver cómo se desempeñan al detectar falacias lógicas.

Escribir prompts efectivos para LLMs

Escribir prompts efectivos para LLMs

Requiere algún experimento pero

Aún así, existen algunos enfoques comunes para escribir buenos prompts de manera que los modelos de lenguaje no se confundan al intentar entender lo que deseas.