
Zainstaluj Kubernetes za pomocą kubespray
Instrukcje krok po kroku
Howto: instalacja Kubernetes za pomocą Kubespray, w tym konfiguracja środowiska, ustawienie inwentarza i uruchomienie playbooków Ansible.
Instrukcje krok po kroku
Howto: instalacja Kubernetes za pomocą Kubespray, w tym konfiguracja środowiska, ustawienie inwentarza i uruchomienie playbooków Ansible.
Częste polecenia k8s z parametrami
Oto moja k8s cheat sheet zawierająca najważniejsze polecenia i pojęcia dotyczące instalacji, uruchamiania kontenerów i czyszczenia:
Częste parametry polecenia docker
Oto arkusz skrótów Docker
zawierający najważniejsze polecenia i koncepcje od instalacji po uruchamianie kontenerów i czyszczenie:
Świetny nowy model AI do generowania obrazu na podstawie tekstu
Niedawno Black Forest Labs opublikowała zestaw modeli AI tekst-do-obrazu text-to-image AI models.
Te modele mają być znane z znacznie wyższej jakości wyjściowych obrazów.
Spróbujmy ich
Porównanie dwóch samodzielnie hostowanych silników wyszukiwania AI
Świetna jedzenie to przyjemność dla oczu również. Ale w tym poście porównamy dwa systemy wyszukiwania oparte na AI, Farfalle i Perplexica.
Uruchamianie lokalnego usługi w stylu Copilot? Łatwe!
To bardzo ekscytujące! Zamiast wołać copilot lub perplexity.ai i opowiadać światu, czego szukasz, teraz możesz uruchomić podobną usługę na własnym komputerze lub laptopie!
Testowanie wykrywania błędnego rozumowania
Niedawno widzieliśmy kilka nowych LLM, które zostały wydane. Wspaniałe czasy. Sprawdźmy i zobaczmy, jak działają, gdy wykrywają błędy logiczne.
Nieco mniej do wyboru, ale nadal...
Kiedy zacząłem eksperymentować z LLM, interfejsy do nich były w aktywnym rozwoju, a teraz niektóre z nich są naprawdę dobre.
Synchronizacja zakładek między laptopami i przeglądarkami?
Wypróbowałem różne narzędzia i dołączyłem do wniosku, że najbardziej lubię floccus.
Etykietowanie i trening wymaga pewnego stopnia łączenia
Kiedyś treningowałem detektor AI obiektów – LabelImg był bardzo pomocnym narzędziem, ale eksport z Label Studio do formatu COCO nie był akceptowany przez framework MMDetection..
8 wersji llama3 (Meta+) i 5 wersji phi3 (Microsoft) LLM
Testowanie działania modeli o różnej liczbie parametrów i stopniu kwantyzacji.
Pliki modeli LLM Ollama zajmują dużo miejsca.
Po zainstalowaniu ollama lepiej jest natychmiast skonfigurować Ollama, aby przechowywać je w nowym miejscu. Wtedy, gdy pobieramy nowy model, nie zostaje on pobrany do starego lokalizacji.
Jest tak frustrujące, że trzeba patrzeć na wszystkie te reklamy.
Możesz zainstalować wtyczkę lub dodatek do blokowania reklam w przeglądarce dla Google Chrome, Firefox lub Safari, ale musisz to zrobić na każdym urządzeniu.
Moje ulubione rozwiązanie to blokada reklam w sieci.
Sprawdźmy jakość wykrywania błędów logicznych przez różne LLM-y
Oto porównanie kilku wersji LLM: Llama3 (Meta), Phi3 (Microsoft), Gemma (Google), Mistral Nemo (Mistral AI) oraz Qwen (Alibaba).
W trudnych czasach może się wydarzyć wszystko.
Należy wykonać kopie zapasowe 1) bazy danych, 2) magazynu plików, 3) innych plików Gitea. Oto jak to zrobić.