Porównanie asystentów do kodowania AI
Cursor AI vs GitHub Copilot vs Cline AI vs...
W tym miejscu wymienię niektóre narzędzia wspomagane przez AI do kodowania oraz asystentów kodowania opartych na AI i ich pozytywne strony.
Cursor AI vs GitHub Copilot vs Cline AI vs...
W tym miejscu wymienię niektóre narzędzia wspomagane przez AI do kodowania oraz asystentów kodowania opartych na AI i ich pozytywne strony.
Ollama na procesorze Intel CPU: wydajność w porównaniu do rdzeni o wysokiej wydajności
Mam teorię do przetestowania – czy wykorzystanie Wszystkich rdzeni na procesorze Intel zwiększy szybkość LLM? Denerwuje mnie fakt, że nowy model gemma3 27 bit (gemma3:27b, 17 GB na ollama) nie mieści się w 16 GB VRAM mojej karty graficznej i częściowo działa na procesorze.
Konfigurowanie ollama do wykonywania równoległych żądań.
Gdy serwer Ollama otrzymuje dwa żądania w tym samym czasie, jego zachowanie zależy od konfiguracji i dostępnych zasobów systemowych.
Porównanie dwóch modeli deepseek-r1 do dwóch modeli bazowych
Model pierwszego pokolenia DeepSeek z porównywalną wydajnością do OpenAI-o1, w tym sześć gęstych modeli oddestylowanych z DeepSeek-R1 opartych na Llama i Qwen.
Kilka czasów temu stworzyłem listę poleceń Ollama...
Oto lista i przykłady najbardziej przydatnych poleceń Ollama (cheatsheet poleceń Ollama) Zgromadziłem je kilka czasów temu. Mam nadzieję, że będzie również przydatny dla Ciebie.
Następny etap testów LLM
Nieco wcześniej wydano. Przejdźmy do rzeczy i
testuj jak Mistral Small poradzi sobie w porównaniu do innych LLM.
Kod Pythona do ponownego rangowania RAG'a
Porównanie dwóch samodzielnie hostowanych silników wyszukiwania AI
Świetna jedzenie to przyjemność dla oczu również. Ale w tym poście porównamy dwa systemy wyszukiwania oparte na AI, Farfalle i Perplexica.
Uruchamianie lokalnego usługi w stylu Copilot? Łatwe!
To bardzo ekscytujące! Zamiast wołać copilot lub perplexity.ai i opowiadać światu, czego szukasz, teraz możesz uruchomić podobną usługę na własnym komputerze lub laptopie!
Testowanie wykrywania błędnego rozumowania
Niedawno widzieliśmy kilka nowych LLM, które zostały wydane. Wspaniałe czasy. Sprawdźmy i zobaczmy, jak działają, gdy wykrywają błędy logiczne.
Nieco mniej do wyboru, ale nadal...
Kiedy zacząłem eksperymentować z LLM, interfejsy do nich były w aktywnym rozwoju, a teraz niektóre z nich są naprawdę dobre.
Wymaga pewnego doświadczenia, ale
Nadal istnieją pewne powszechne podejścia do pisania dobrych promptów, dzięki czemu LLM nie będzie się pogubił, próbując zrozumieć, czego od niego oczekujesz.
8 wersji llama3 (Meta+) i 5 wersji phi3 (Microsoft) LLM
Testowanie działania modeli o różnej liczbie parametrów i stopniu kwantyzacji.
Pliki modeli LLM Ollama zajmują dużo miejsca.
Po zainstalowaniu ollama lepiej jest natychmiast skonfigurować Ollama, aby przechowywać je w nowym miejscu. Wtedy, gdy pobieramy nowy model, nie zostaje on pobrany do starego lokalizacji.