LLM

Enshittification Ollama – wczesne objawy

Enshittification Ollama – wczesne objawy

Moje zdanie na temat obecnego stanu rozwoju Ollama

Ollama szybko stało się jednym z najpopularniejszych narzędzi do lokalnego uruchamiania modeli językowych. Jego prosty interfejs CLI oraz zoptymalizowany zarządzanie modelami sprawiły, że stał się pierwszym wyborem dla programistów, którzy chcą pracować z modelami AI poza chmurą. Ale tak jak w przypadku wielu obiecujących platform, już teraz pojawiają się pierwsze oznaki Enshittification:

Interfejsy chatu dla lokalnych instancji Ollama

Interfejsy chatu dla lokalnych instancji Ollama

Szybki przegląd najbardziej znanych interfejsów użytkownika dla Ollama w 2025 roku

Lokalnie hostowany Ollama umożliwia uruchamianie dużych modeli językowych na własnym komputerze, ale korzystanie z niego przez wiersz poleceń nie jest przyjazne dla użytkownika. Oto kilka projektów open source, które oferują interfejsy stylu ChatGPT, łączące się z lokalnym Ollama.

Dostawcy Cloud LLM

Dostawcy Cloud LLM

Krótki wykaz dostawców LLM

Użycie modeli językowych (LLM) nie jest bardzo drogie, może nie być potrzeby zakupu nowego, wspaniałego GPU.
Oto lista dostawców LLM w chmurze: dostawcy LLM w chmurze z LLM, które hostują.