올라마 엔시티피케이션 - 초기 징후

현재 Ollama 개발의 상태에 대한 제 관점

Page content

Ollama은 LLM을 로컬에서 실행하는 데 사용되는 가장 인기 있는 도구 중 하나로 빠르게 자리 잡았습니다.
간단한 CLI와 간소화된 모델 관리 기능 덕분에, 클라우드 외부에서 AI 모델을 사용하고자 하는 개발자들에게 필수적인 선택지가 되었습니다.
하지만 많은 유망한 플랫폼과 마찬가지로, 이미 **Enshittification**의 징후가 나타나고 있습니다.

  • 사용자의 관심이 시간이 지남에 따라 비즈니스, 아키텍처 또는 기타 내부 우선순위에 서서히 양보되는 과정으로, 소프트웨어나 서비스가 점차 악화되는 현상입니다.

enshittification and decay

이 기사에서는 Ollama에 대한 최근 트렌드와 사용자 불만을 살펴보며, 이러한 변화가 Ollama의 미래에 어떤 영향을 미칠 수 있는지 논의하겠습니다.

Ollama의 가장 빈번하게 사용되는 명령어와 파라미터에 대한 자세한 내용은 Ollama cheatsheet를 참조하시기 바랍니다.

Ollama에 유용한 UI를 원하시면 Open-Source Chat UIs for LLMs on Local Ollama Instances를 참조하시기 바랍니다.

자동 시작 및 백그라운드 제어

사용자들이 보고한 가장 명확한 불편 사항 중 하나는 시스템 부팅 시 Ollama가 자동으로 시작되는 것입니다. 특히 윈도우에서 이 문제가 두드러집니다.

  • 이 기능을 비활성화할 수 있는 명확한 설정은 없습니다.
  • 수동으로 비활성화하더라도 업데이트나 재설치 시 다시 자동으로 활성화될 수 있습니다.
  • macOS에서는 데스크탑 앱이 로그인 시 자동으로 시작되며, CLI 전용 버전을 설치하지 않는 한 기본값으로 설정됩니다.

이러한 패턴 — 사용자의 명시적인 동의 없이 소프트웨어가 시스템 시작 시 자동으로 실행되는 것 —은 전형적인 경고 신호입니다. 사용자 신뢰를 약화시키고, 시스템에 대한 제어를 중시하는 사용자들에게 불편을 줍니다.


텔레메트리 및 데이터 수집 문제

또 다른 반복적으로 나타나는 문제는 Ollama의 네트워크 행동입니다. 사용자들은 모든 작업이 로컬에서 이루어져야 할 때도 외부로의 트래픽이 발생하는 것을 목격했습니다. 유지자들은 이 현상이 업데이트 확인과 관련되어 있고 사용자 입력과는 무관하다고 밝혔지만, 완전히 오프라인 환경을 원하는 사용자들에게는 간단한 전환 옵션이 없습니다.

자신을 로컬, 개인정보 보호 중심의 도구로 홍보하는 플랫폼이 이러한 불확실성으로 인해 의심을 받는 것은 문제가 됩니다. Ollama가 신뢰성을 유지하려면 투명성과 선택적 참여 옵션이 필수적입니다.


새로운 엔진과 성능 저하

최근 업데이트에서는 새로운 추론 엔진이 도입되었지만, 일부 사용자들은 예상과 달리 성능 향상이 아닌 성능 저하를 경험했습니다.

  • 특정 상황에서는 토큰 생성 속도가 10배 느려졌습니다.
  • GPU 사용률은 이전 엔진에 비해 불일치합니다.
  • Qwen3:30B와 같은 더 큰 모델은 이제 지연 시간이 길어지고 처리량이 줄어들었습니다.

이러한 변화는 우선순위의 변화를 암시합니다. 업데이트가 실제 하드웨어에서 모델 사용성을 저하시키는 경우, 개발자들은 하드웨어 업그레이드나 성능 저하를 수용해야 할 수도 있습니다. 이는 사용자 경험을 후순위로 밀어내는 또 다른 미묘한 방식입니다.


잘못 구성된 인스턴스로 인한 보안 위험

보안 연구자들은 인증 없이 실행되는 노출된 Ollama 서버를 발견했습니다. 경로 탐색 및 서비스 거부 공격과 같은 취약점이 공개되었으며, 일부는 패치되었고, 다른 일부는 논란의 대상이 되었습니다.

이러한 문제는 대부분 사용자가 배포를 잘못 구성했기 때문이지만, 기본값이 안전하지 않다는 점은 위험을 증가시킵니다. 플랫폼의 책임은 안전한 선택이 쉬운 선택이 되도록 만드는 것입니다.


Turbo: 수익화 및 비즈니스 모델 변화

Ollama Turbo — 클라우드 가속 서비스 —의 출시는 중요한 순간이었습니다. Ollama의 원래 차별점은 로컬 제어, 개인정보 보호 및 오픈소스 배포에 집중했었습니다. 그러나 Turbo는 Ollama 자체 인프라에 의존하게 만듭니다.

  • Turbo를 사용하려면 로그인이 필요하며, 이는 제로 마찰의 로컬 중심 경험에서 벗어납니다.
  • Mac 앱의 주요 기능은 이제 Ollama 서버에 의존하게 되어, 오프라인 상태에서도 얼마나 많은 기능이 사용 가능한지에 대한 우려가 생깁니다.
  • Hacker News의 토론에서는 이 변화를 enshittification의 시작으로 보았으며, 상업화가 결국 현재 무료인 기능에 대한 유료 벽을 도입할 수 있다고 경고했습니다.

이것이 Ollama가 원칙을 포기했다는 의미는 아닙니다. Turbo는 새로운 하드웨어를 구매하지 않아도 더 빠른 추론을 원하는 사용자에게 가치가 있을 수 있습니다. 하지만 시각은 중요합니다. 로컬 중심의 도구가 “최고의 경험"을 위해 중앙 집중식 서비스를 요구하게 되면, 처음부터 OpenAI 또는 Anthropic과 구별되었던 특성들이 희석될 위험이 있습니다.


패턴: 사용자 제어 vs. 제공업체 기본값

개별적으로 보면 이러한 문제들은 작아 보일 수 있습니다. 하지만 함께 보면 다음과 같은 패턴을 보여줍니다:

  • 시작 행동의 기본값은 켜져 있는 상태이며, 꺼져 있는 상태가 아닙니다.
  • 업데이트 확인은 자동으로 이루어지며, 선택적으로 이루어지지 않습니다.
  • 성능 변화는 새로운 아키텍처 목표를 위해 이루어지며, 현재 사용성은 악화될 수 있습니다.
  • 수익화는 이제 로컬 바이너리가 아닌 서버 의존성을 도입합니다.

이것이 enshittification의 시작입니다 — 단일한 악의적인 움직임이 아니라, 사용자 제어를 제공업체의 편의나 수익을 위해 서서히 바꾸는 작은 변화의 연속입니다.


아직 발생하지 않은 것들 (아직은)

정직하게 말하면, Ollama는 아직 가장 심각한 영역으로는 진입하지 않았습니다:

  • UI 내부에 광고나 홍보는 없습니다.
  • 강력한 유료 벽이 핵심 로컬 기능을 제한하지 않습니다.
  • 프로피리에타리 포맷에 대한 강한 결합은 없으며, 커뮤니티 모델은 여전히 접근 가능합니다.

그럼에도 불구하고, 경계가 필요합니다. “사용자가 제어를 존중하는 도구"에서 “제공업체가 원하는 것을 기본값으로 하는 도구"로의 변화는 종종 점진적으로 일어납니다.


city enshittification trend

결론

Ollama는 여전히 대규모 모델을 로컬에서 실행하는 데 최고의 방법 중 하나입니다. 하지만 초기 징후는 분명합니다: 자동 시작 행동, 텔레메트리 불투명성, 성능 저하, 비보안 기본값, 그리고 Turbo의 클라우드 중심 이동은 모두 도구의 원래 이념에서 점점 멀어지는 것을 암시합니다.

Ollama이 약속을 지키려면 유지자들이 투명성, 선택적 설계, 로컬 중심 원칙을 우선시해야 합니다. 그렇지 않으면 플랫폼은 처음부터 매력적이었던 가치를 약화시킬 위험이 있습니다. 하지만 저는 기대하지 않습니다.

유용한 링크