Método de asado de serpiente
Descripción breve y mis resultados
Este post es solo para mostrar una hermosa foto de las brasas dispuestas en forma de serpiente en mi parrilla, listas para encender.
Descripción breve y mis resultados
Este post es solo para mostrar una hermosa foto de las brasas dispuestas en forma de serpiente en mi parrilla, listas para encender.
Precios de GPU para consumidor adecuadas para IA - RTX 5080 y RTX 5090
Vamos a comparar precios para tarjetas gráficas de alto nivel para consumidores, que son adecuadas para LLMs en particular y la IA en general.
Específicamente, me estoy enfocando en
precios de RTX-5080 y RTX-5090.
Implemente inteligencia artificial empresarial en hardware de presupuesto con modelos abiertos
La democratización de la IA está aquí. Con LLMs de código abierto como Llama 3, Mixtral y Qwen ahora rivales de modelos propietarios, los equipos pueden construir una poderosa infraestructura de IA usando hardware de consumo - reduciendo costos mientras se mantiene el control total sobre la privacidad de los datos y la implementación.
dos poderosos sistemas de gestión del conocimiento
Elegir la herramienta adecuada de Gestión del Conocimiento Personal (PKM) puede tener un impacto significativo en tu productividad, aprendizaje y organización de la información. Vamos a echar un vistazo a Obsidian y LogSeq.
Precios de GPU para consumidor adecuadas para IA - RTX 5080 y RTX 5090
Una y otra vez, comparemos precios para las tarjetas gráficas de consumo de primer nivel, que son adecuadas en particular para LLMs y en general para la IA.
Específicamente estoy mirando precios de RTX-5080 y RTX-5090. Han disminuido ligeramente.
MiKTeX vs TeX Live vs TinyTeX
Si escribes documentos técnicos, papers o libros en Windows, casi con seguridad elegirás uno de los tres distribuciones de LaTeX para Windows 11:
Acerca de Obsidian ...
Aquí tienes un análisis detallado de
Obsidian como una herramienta poderosa para la gestión del conocimiento personal (GKP),
explicando su arquitectura, características, fortalezas y cómo apoya los flujos de trabajo modernos de conocimiento.
Visión general y sistemas para usar en la gestión personal del conocimiento
Aquí tienes un resumen de Gestión del Conocimiento Personal, sus objetivos, métodos y sistemas de software que podemos utilizar en este maravilloso día de julio de 2025.
Estaba utilizando Dokuwiki como base de conocimiento personal
Dokuwiki es una wikipedia autohospedada que se puede hospedar fácilmente en instalaciones propias y no requiere ninguna base de datos. Estaba ejecutándolo dockerizado, en mi clúster de Kubernetes personal.
Actualización de precios de GPU adecuadas para IA - RTX 5080 y RTX 5090
Comparemos precios de las mejores tarjetas gráficas de consumo para usuarios finales, que son adecuadas para LLMs en particular y para la inteligencia artificial en general.
Específicamente, echa un vistazo a
precios de RTX 5080 y RTX 5090. Han disminuido ligeramente.
Implementando RAG? Aquí hay algunos fragmentos de código en Go - 2...
Dado que el Ollama estándar no tiene una API de rerank directa, tendrás que implementar reranking usando Qwen3 Reranker en GO generando embeddings para pares de consulta y documentos y calificándolos.
Implementando RAG? Aquí hay algunos fragmentos de código en Golang...
Este pequeño Ejemplo de código Go para reranking llama a Ollama para generar embeddings para la consulta y para cada documento candidato, luego ordenando de forma descendente por similitud coseno.
Revisión de la realidad de los precios - RTX 5080 y RTX 5090
Hace solo 3 meses no veíamos la RTX 5090 en tiendas, y ahora aquí están, pero los precios son ligeramente más altos que el MRSP. Comparemos los precios más baratos para RTX 5080 y RTX 5090 en Australia y veamos cómo va.
Solo notas de receta sobre cómo cocinar pequeños medallones de carne
Keeping this here for the list of ingredients and inspiration - Rissoles.
Más RAM, menos potencia, y aún así cara como...
Sistema automatizado de alto rendimiento para algún trabajo increíble.
Ollama en CPU de Intel: núcleos eficientes vs. núcleos de rendimiento
Tengo una teoría para probar: ¿si utilizamos todos los núcleos en una CPU de Intel aumentaría la velocidad de los LLMs? Me molesta que el nuevo modelo gemma3 de 27 bits (gemma3:27b, 17 GB en ollama) no se ajuste a los 16 GB de VRAM de mi GPU, y se ejecute parcialmente en la CPU.