Hostowanie Perplexica z wykorzystaniem Ollama

Hostowanie Perplexica z wykorzystaniem Ollama

Czy uruchamiasz lokalnie usługę w stylu Copilot? To proste!

To jest bardzo ekscytujące! Zamiast korzystać z Copilota lub perplexity.ai i informować cały świat o swoich potrzebach, możesz teraz hostować podobną usługę na własnym komputerze lub laptopie!

Gemma2 vs Qwen2 vs Mistral Nemo vs...

Gemma2 vs Qwen2 vs Mistral Nemo vs...

Testowanie wykrywania błędnego rozumowania

Niedawno widzieliśmy kilka nowych LLM, które zostały wydane. Wspaniałe czasy. Zróbmy test i zobaczmy, jak działają, gdy wykrywają błędy logiczne.

Napisywanie skutecznych promptów dla LLMs

Napisywanie skutecznych promptów dla LLMs

Wymaga pewnego doświadczenia, ale

Nadal istnieją pewne powszechne podejścia do pisania dobrych promptów, dzięki czemu LLM nie będzie się pogubił, próbując zrozumieć, czego od niego oczekujesz.

Instalacja Pi-Hole - darmowy blokujący reklamy

Instalacja Pi-Hole - darmowy blokujący reklamy

Jest tak frustrujące, że trzeba patrzeć na wszystkie te reklamy.

Możesz zainstalować wtyczkę lub dodatek do blokowania reklam w przeglądarce dla Google Chrome, Firefox lub Safari, ale musisz to zrobić na każdym urządzeniu.
Moje ulubione rozwiązanie to blokada reklam w sieci.

Wdrażanie strony Hugo na AWS S3

Wdrażanie strony Hugo na AWS S3

Hugo to generator statycznych stron.

Gdy strona zostanie wygenerowana przy użyciu Hugo, czas ją wdrożyć na platformę hostingową. Poniżej znajduje się przewodnik, jak przesłać ją do AWS S3 i serwować za pomocą CDN AWS CloudFront.

Test prędkości modeli dużych języków

Test prędkości modeli dużych języków

Sprawdźmy prędkość LLM na GPU vs CPU

Porównanie prędkości przewidywania kilku wersji LLM: llama3 (Meta/Facebook), phi3 (Microsoft), gemma (Google), mistral (open source) na CPU i GPU.

Subskrybuj

Otrzymuj nowe wpisy o systemach, infrastrukturze i inżynierii AI.