
MMdetection nie jest już obsługiwane
Cały zestaw narzędzi MM* jest na końcu cyklu życia...
Używałem MMDetection (mmengine, mdet, mmcv) dość często,
a teraz wygląda na to, że wycofał się z gry.
To żal. Lubiłem jego zoo modeli.
Cały zestaw narzędzi MM* jest na końcu cyklu życia...
Używałem MMDetection (mmengine, mdet, mmcv) dość często,
a teraz wygląda na to, że wycofał się z gry.
To żal. Lubiłem jego zoo modeli.
Porównanie dwóch modeli deepseek-r1 do dwóch modeli bazowych
Model pierwszego pokolenia DeepSeek z porównywalną wydajnością do OpenAI-o1, w tym sześć gęstych modeli oddestylowanych z DeepSeek-R1 opartych na Llama i Qwen.
Skompilowałem tę listę poleceń Ollama kilka czasem temu...
Oto lista i przykłady najbardziej przydatnych poleceń Ollama (cheatsheet poleceń Ollama) Zgromadziłem je kilka czasów temu. Mam nadzieję, że będzie również przydatny dla Ciebie.
Następny etap testów LLM
Nieco wcześniej wydano. Przejdźmy do rzeczy i
testuj jak Mistral Small poradzi sobie w porównaniu do innych LLM.
Kod Pythona do ponownego rangowania RAG'a
Świetny nowy model AI do generowania obrazu na podstawie tekstu
Niedawno Black Forest Labs opublikowała zestaw modeli AI tekst-do-obrazu text-to-image AI models.
Te modele mają być znane z znacznie wyższej jakości wyjściowych obrazów.
Spróbujmy ich
Porównanie dwóch samodzielnie hostowanych silników wyszukiwania AI
Świetna jedzenie to przyjemność dla oczu również. Ale w tym poście porównamy dwa systemy wyszukiwania oparte na AI, Farfalle i Perplexica.
Uruchamianie lokalnego usługi w stylu Copilot? Łatwe!
To bardzo ekscytujące! Zamiast wołać copilot lub perplexity.ai i opowiadać światu, czego szukasz, teraz możesz uruchomić podobną usługę na własnym komputerze lub laptopie!
Testowanie wykrywania błędnego rozumowania
Niedawno widzieliśmy kilka nowych LLM, które zostały wydane. Wspaniałe czasy. Sprawdźmy i zobaczmy, jak działają, gdy wykrywają błędy logiczne.
Nieco mniej do wyboru, ale nadal...
Kiedy zacząłem eksperymentować z LLM, interfejsy do nich były w aktywnym rozwoju, a teraz niektóre z nich są naprawdę dobre.
Wymaga pewnego doświadczenia, ale
Nadal istnieją pewne powszechne podejścia do pisania dobrych promptów, dzięki czemu LLM nie będzie się pogubił, próbując zrozumieć, czego od niego oczekujesz.
Często potrzebne fragmenty kodu w Pythonie
Czasami potrzebuję tego, ale nie mogę od razu znaleźć.
Więc trzymam je wszystkie tutaj.
Etykietowanie i trening wymaga pewnego stopnia łączenia
Kiedyś treningowałem detektor AI obiektów – LabelImg był bardzo pomocnym narzędziem, ale eksport z Label Studio do formatu COCO nie był akceptowany przez framework MMDetection..
8 wersji llama3 (Meta+) i 5 wersji phi3 (Microsoft) LLM
Testowanie działania modeli o różnej liczbie parametrów i stopniu kwantyzacji.
Pliki modeli LLM Ollama zajmują dużo miejsca.
Po zainstalowaniu ollama lepiej jest natychmiast skonfigurować Ollama, aby przechowywać je w nowym miejscu. Wtedy, gdy pobieramy nowy model, nie zostaje on pobrany do starego lokalizacji.