LLM Hosting

Wybór odpowiedniego LLM dla Cognee: lokalna konfiguracja Ollama

Wybór odpowiedniego LLM dla Cognee: lokalna konfiguracja Ollama

Refleksje nad LLM dla samowystarczalnego Cognee

Wybór najlepszego LLM dla Cognee wymaga zrównoważenia jakości budowania grafów, poziomu halucynacji i ograniczeń sprzętowych.
Cognee wyróżnia się w przypadku większych modeli o niskim poziomie halucynacji (32B+) poprzez Ollama, jednak opcje o średnich parametrach są odpowiednie dla prostszych konfiguracji.

Enshittification Ollama – wczesne objawy

Enshittification Ollama – wczesne objawy

Moje spojrzenie na obecnym stanie rozwoju Ollama

Ollama szybko stało się jednym z najpopularniejszych narzędzi do uruchamiania modeli językowych na lokalnym komputerze.
Jego proste CLI i zoptymalizowane zarządzanie modelami sprawiły, że stało się preferowanym wyborem dla programistów, którzy chcą pracować z modelami AI poza chmurą.

Interfejsy chatu dla lokalnych instancji Ollama

Interfejsy chatu dla lokalnych instancji Ollama

Krótki przegląd najbardziej wyraźnych interfejsów użytkownika dla Ollama w 2025 roku

Lokalnie hostowane Ollama umożliwia uruchomienie dużych modeli językowych na własnym komputerze, ale korzystanie z niego za pośrednictwem wiersza poleceń nie jest przyjazne dla użytkownika. Oto kilka projektów open source, które oferują interfejsy stylu ChatGPT, łączące się z lokalnym Ollama.

Dostawcy LLM w chmurze

Dostawcy LLM w chmurze

Krótki wykaz dostawców LLM

Użycie modeli językowych dużych (LLM) nie jest bardzo drogie, może nie być potrzeby zakupu nowego, wspaniałego GPU.
Oto lista, jeśli dostawcy LLM w chmurze z LLM, które hostują.

Testowanie Deepseek-R1 na Ollama

Testowanie Deepseek-R1 na Ollama

Porównanie dwóch modeli deepseek-r1 z dwoma modelami bazowymi

Modeli DeepSeek pierwszego pokolenia z wydajnością porównywalną do modeli OpenAI-o1, w tym sześć gęstych modeli oddestylowanych z DeepSeek-R1 opartych na Llama i Qwen.