Ollama

NVIDIA DGX Spark vs Mac Studio vs RTX-4080: Comparación de rendimiento de Ollama

NVIDIA DGX Spark vs Mac Studio vs RTX-4080: Comparación de rendimiento de Ollama

Resultados de benchmarks de GPT-OSS 120b en tres plataformas de IA

Investigué algunos interesantes tests de rendimiento del modelo GPT-OSS 120b ejecutándose en Ollama en tres plataformas diferentes: NVIDIA DGX Spark, Mac Studio y RTX 4080. El modelo GPT-OSS 120b del repositorio Ollama tiene un tamaño de 65 GB, lo que significa que no cabe en los 16 GB de VRAM de una RTX 4080 (ni en la más reciente RTX 5080).

Enshittificación de Ollama: los primeros signos

Enshittificación de Ollama: los primeros signos

Mi opinión sobre el estado actual del desarrollo de Ollama

Ollama ha pasado rápidamente a ser una de las herramientas más populares para ejecutar LLMs localmente.
Su CLI simple y su gestión de modelos optimizada han hecho que sea una opción favorita para desarrolladores que desean trabajar con modelos de IA fuera de la nube.
Pero, al igual que con muchas plataformas prometedoras, ya hay señales de Enshittification:

Interfaz de chat para instancias locales de Ollama

Interfaz de chat para instancias locales de Ollama

Breve visión general de las interfaces de usuario más destacadas para Ollama en 2025

Locally hosted Ollama permite ejecutar modelos de lenguaje grandes en tu propia máquina, pero usarlo desde la línea de comandos no es muy amigable para el usuario. Aquí hay varios proyectos de código abierto que ofrecen interfaces estilo ChatGPT que se conectan a un Ollama local.