Enshittificación de Ollama: los primeros signos

Mi opinión sobre el estado actual del desarrollo de Ollama

Índice

Ollama ha pasado rápidamente a ser una de las herramientas más populares para ejecutar LLMs localmente.
Su CLI simple y su gestión de modelos optimizada han hecho que sea una opción favorita para desarrolladores que desean trabajar con modelos de IA fuera de la nube.
Pero, al igual que con muchas plataformas prometedoras, ya hay señales de Enshittification:

  • el proceso gradual por el cual el software o los servicios se degradan con el tiempo, a medida que los intereses de los usuarios se subordinan lentamente a prioridades empresariales, arquitectónicas u otras internas.

enshittification and decay

En este artículo, exploraré las tendencias recientes y las quejas de los usuarios sobre Ollama que sugieren este desvío, y por qué importan para su futuro.

Para los detalles de los comandos y parámetros más frecuentes de Ollama, por favor consulte Ollama cheatsheet.

Para interfaces de usuario útiles para Ollama, vea - Interfaz de chat de código abierto para LLMs en instancias locales de Ollama

Arranque automático y control en segundo plano

Uno de los puntos de dolor más claros reportados por los usuarios es el arranque automático de Ollama al iniciar el sistema, especialmente en Windows.

  • No hay configuración clara para deshabilitar este comportamiento.
  • Incluso si lo deshabilita manualmente, las actualizaciones o reinstalaciones pueden reactivarlo silenciosamente.
  • En macOS, la aplicación de escritorio también se inicia por defecto al iniciar sesión, a menos que instale específicamente la variante solo CLI.

Este patrón — el software insertándose en su rutina de inicio sin consentimiento explícito — es una bandera roja clásica. Erodea la confianza del usuario y crea fricción para quienes valoran el control sobre su sistema.


Preocupaciones sobre telemetría y recolección de datos

Otro problema recurrente es el comportamiento de red de Ollama. Los usuarios han notado tráfico saliente incluso cuando todas las operaciones deberían ser locales. Los mantenedores han indicado que esto está relacionado con las verificaciones de actualización, no con las entradas del usuario — pero no hay un interruptor sencillo para quienes desean una experiencia completamente offline.

Para una plataforma que se vende como una herramienta local, centrada en la privacidad, esta falta de claridad genera dudas. La transparencia y las opciones de opt-out son esenciales si Ollama quiere mantener su credibilidad.


Regresiones de rendimiento con el nuevo motor

Las actualizaciones recientes introdujeron un nuevo motor de inferencia, pero en lugar de mejoras de rendimiento, algunos usuarios han reportado lo contrario:

  • La generación de tokens es hasta 10× más lenta en ciertos escenarios.
  • La utilización de la GPU es inconsistente en comparación con el motor anterior.
  • Modelos más grandes, como Qwen3:30B, ahora funcionan significativamente peor, con mayor latencia y menor throughput.

Este cambio plantea preocupaciones sobre las prioridades. Si las actualizaciones hacen que los modelos sean menos utilizables en hardware real, los desarrolladores pueden sentirse presionados a actualizar su hardware o aceptar un rendimiento degradado — otra forma sutil de depriorizar la experiencia del usuario.


Riesgos de seguridad de instancias mal configuradas

Investigadores de seguridad han encontrado servidores Ollama expuestos que funcionan sin autenticación. Vulnerabilidades como el recorrido de ruta y vectores de denegación de servicio han sido reveladas, con algunos parcheados y otros disputados.

Aunque gran parte de esto recae en los usuarios que malconfiguran las implementaciones, la falta de valores predeterminados seguros aumenta el riesgo. La responsabilidad de una plataforma incluye hacer que la opción segura sea la más fácil.


Turbo: Cambios en el modelo de negocio y monetización

El lanzamiento de Ollama Turbo — un servicio de aceleración en la nube — representó un momento decisivo. La diferenciación original de Ollama era su enfoque en control local, privacidad y distribución de código abierto. Turbo, sin embargo, introduce una dependencia de la infraestructura propia de Ollama.

  • El uso de Turbo requiere un inicio de sesión, alejándose de la experiencia local sin fricción.
  • Características clave en la aplicación de Mac ahora dependen de los servidores de Ollama, generando preocupaciones sobre cuánta funcionalidad podría seguir siendo usable offline.
  • Las discusiones en Hacker News lo marcaron como el comienzo de la enshittification, advirtiendo que la comercialización podría eventualmente introducir paywalls para capacidades que actualmente son gratuitas.

Esto no significa que Ollama haya abandonado sus principios — Turbo puede ser valioso para usuarios que desean una inferencia más rápida sin comprar nuevo hardware. Pero la percepción importa: una vez que una herramienta local requiere servicios centralizados para “la mejor” experiencia, corre el riesgo de diluir las cualidades que la hicieron destacar frente a OpenAI o Anthropic en primer lugar.


El patrón: Control del usuario vs. valores predeterminados del proveedor

Individualmente, estos problemas podrían parecer pequeños. Juntos, sugieren un patrón:

  • El comportamiento de inicio predeterminado está en encendido, no en apagado.
  • Las verificaciones de actualización ocurren automáticamente, no por opt-in.
  • Los cambios de rendimiento sirven nuevos objetivos arquitectónicos, incluso si degradan la usabilidad actual.
  • La monetización ahora introduce dependencia de servidores, no solo binarios locales.

Así comienza la enshittification — no con un solo movimiento hostil, sino con una serie de pequeños cambios que intercambian gradualmente el control del usuario por la comodidad o el ingreso del proveedor.


Lo que aún no ha sucedido (hasta ahora)

Para ser justos, Ollama aún no ha cruzado en el territorio más grave:

  • No hay anuncios ni promociones dentro de la interfaz.
  • No hay paywalls agresivos que limiten la funcionalidad local básica.
  • No hay bloqueos duros alrededor de formatos propietarios; los modelos de la comunidad siguen siendo accesibles.

Dicho esto, se requiere vigilancia. El cambio de “una herramienta que respeta tu control” a “una herramienta que hace lo que el proveedor quiere por defecto” sucede a menudo de forma gradual.


tendencia de enshittification en la ciudad

Conclusión

Ollama sigue siendo una de las mejores formas de ejecutar modelos grandes localmente. Pero las señales tempranas son claras: el comportamiento de inicio automático, la opacidad en la telemetría, las regresiones de rendimiento, los valores predeterminados inseguros y el desplazamiento hacia la nube de Turbo sugieren un movimiento lento alejándose del ethos original de la herramienta.

Para que Ollama siga siendo fiel a su promesa, los mantenedores deben priorizar transparencia, diseño por opt-in y principios centrados en lo local. De lo contrario, la plataforma corre el riesgo de socavar los valores que la hicieron atractiva en primer lugar. Pero no me hago ilusiones.

Enlaces útiles