AI

Enshittificación de Ollama - Las primeras señales

Enshittificación de Ollama - Las primeras señales

Mi visión sobre el estado actual del desarrollo de Ollama

Ollama ha pasado rápidamente a ser una de las herramientas más populares para ejecutar modelos de lenguaje grande (LLM) en local.
Su CLI simple y su gestión de modelos optimizada han convertido a Ollama en una opción preferida para desarrolladores que desean trabajar con modelos de IA fuera de la nube.

Interfaz de chat para instancias locales de Ollama

Interfaz de chat para instancias locales de Ollama

Breve visión general de las interfaces de usuario más destacadas para Ollama en 2025

Locally hosted Ollama permite ejecutar modelos de lenguaje grandes en tu propia máquina, pero usarlo desde la línea de comandos no es muy amigable para el usuario. Aquí hay varios proyectos de código abierto que ofrecen interfaces estilo ChatGPT que se conectan a un Ollama local.

Detección de objetos con Tensorflow

Detección de objetos con Tensorflow

Hace bastante tiempo entrené un detector de objetos AI

Un frío día de invierno en julio… que es en Australia… sentí la urgente necesidad de entrenar un modelo de IA para detectar barras de refuerzo de concreto sin tapones…

Cómo Ollama maneja solicitudes en paralelo

Cómo Ollama maneja solicitudes en paralelo

Configurando ollama para la ejecución de solicitudes en paralelo.

Cuando el servidor Ollama recibe dos solicitudes al mismo tiempo, su comportamiento depende de su configuración y de los recursos del sistema disponibles.