AI

Enshittification Ollama – wczesne objawy

Enshittification Ollama – wczesne objawy

Moje spojrzenie na obecnym stanie rozwoju Ollama

Ollama szybko stało się jednym z najpopularniejszych narzędzi do uruchamiania modeli językowych na lokalnym komputerze.
Jego proste CLI i zoptymalizowane zarządzanie modelami sprawiły, że stało się preferowanym wyborem dla programistów, którzy chcą pracować z modelami AI poza chmurą.

Interfejsy chatu dla lokalnych instancji Ollama

Interfejsy chatu dla lokalnych instancji Ollama

Krótki przegląd najbardziej wyraźnych interfejsów użytkownika dla Ollama w 2025 roku

Lokalnie hostowane Ollama umożliwia uruchomienie dużych modeli językowych na własnym komputerze, ale korzystanie z niego za pośrednictwem wiersza poleceń nie jest przyjazne dla użytkownika. Oto kilka projektów open source, które oferują interfejsy stylu ChatGPT, łączące się z lokalnym Ollama.

Wykrywanie obiektów z użyciem Tensorflow

Wykrywanie obiektów z użyciem Tensorflow

Nieco wcześniej wytrenowałem AI wykrywania obiektów.

W jednym zimnym zimnym dniu w lipcu … czyli w Australii … czułem nagły potrzebę trenowania modelu AI do wykrywania nierozpaczonych prętów zbrojeniowych w betonie…

Wyszukiwanie vs Deepsearch vs Deep Research

Wyszukiwanie vs Deepsearch vs Deep Research

Jak bardzo różnią się od siebie?

  • Wyszukiwanie (Search) jest najlepsze do szybkiego, prostego wyszukiwania informacji przy użyciu słów kluczowych.
  • Głębokie Wyszukiwanie wyróżnia się rozumieniem kontekstu i intencji, dostarczając bardziej trafne i kompleksowe wyniki dla złożonych zapytań.
Dostawcy LLM w chmurze

Dostawcy LLM w chmurze

Krótki wykaz dostawców LLM

Użycie modeli językowych dużych (LLM) nie jest bardzo drogie, może nie być potrzeby zakupu nowego, wspaniałego GPU.
Oto lista, jeśli dostawcy LLM w chmurze z LLM, które hostują.

Jak Ollama Obsługuje Wątki Równoległe

Jak Ollama Obsługuje Wątki Równoległe

Konfiguracja ollama do wykonywania równoległych żądań.

Gdy serwer Ollama otrzymuje dwa żądania jednocześnie, jego zachowanie zależy od konfiguracji i dostępnych zasobów systemowych.