Pobieranie vs. reprezentacja w systemach wiedzy

Wyszukiwanie nie jest strukturą wiedzy

Page content

Większość współczesnych systemów wiedzy optymalizuje wyszukiwanie (retrieval), co jest zrozumiałe. Wyszukiwanie jest widoczne, łatwe do demonstracji i wydaje się magiczne, gdy działa poprawnie. Wpisujesz pytanie, otrzymujesz odpowiedź.

Ale wyszukiwanie to tylko połowa problemu. Głębsze pytanie brzmi:

Jaki kształt ma wiedza, zanim cokolwiek spróbuje ją odzyskać?

retrieval vs representation

To jest reprezentacja — struktura stojąca za wiedzą:

  • notatki
  • strony
  • schematy
  • grafy
  • encje
  • relacje
  • streszczenia
  • taksonomie
  • granice źródeł
  • wersje kanoniczne

Wyszukiwanie pyta:

Czy mogę znaleźć coś odpowiedniego?

Reprezentacja pyta:

Czy wiedza jest zorganizowana w sensowny sposób?

To nie są te same problemy. System RAG z kiepską reprezentacją staje się szybkim interfejsem do chaotycznego archiwum. Może odzyskiwać fragmenty, ale nie może naprawić złamanej struktury. Może cytować dokumenty, ale nie może zdecydować, który z nich jest kanoniczny. Może składać kontekst, ale nie może zagwarantować, że podległa wiedza jest spójna.

Dlatego systemy w stylu LLM Wiki są interesujące: przenoszą wysiłek z czasu zapytania na czas wprowadzania danych (ingest). Zamiast tylko odzyskiwać fragmenty, gdy użytkownik zadaje pytanie, próbują wstępnie ustrukturyzować wiedzę w strony, koncepcje, streszczenia i linki. Nie czyni to RAG przestarzałym — oznacza to, że wyszukiwanie i reprezentacja to różne warstwy, a dobre systemy wiedzy potrzebują obu.

Podstawowe rozróżnienie

Wyszukiwanie dotyczy dostępu; reprezentacja dotyczy znaczenia.

Warstwa Pytanie Przykłady
Wyszukiwanie Jak znaleźć odpowiednią informację? wyszukiwanie, embeddingi, BM25, reranking, magazyny wektorowe
Reprezentacja Jak jest ustrukturyzowana wiedza? notatki, wiki, grafy, schematy, ontologie
Rozumowanie Jak korzystać z wiedzy? synteza, porównanie, wnioskowanie, podejmowanie decyzji

Słaby system często przechodzi od razu do wyszukiwania; silny system najpierw pyta:

  1. Jakie są kluczowe koncepcje?
  2. Jakie jest kanoniczne źródło?
  3. Jakie relacje są ważne?
  4. Co zmienia się z czasem?
  5. Co powinno być odzyskiwane?
  6. Co powinno już być reprezentowane?

To jest różnica między wyszukiwaniem po dokumentach a prawdziwym systemem wiedzy.

Dlaczego wyszukiwanie stało się dominujące

Wyszukiwanie stało się dominujące, ponieważ dobrze mapuje się na nowoczesny stos AI. Typowa potokowa struktura RAG wygląda następująco:

  1. Załaduj dokumenty
  2. Podziel je na fragmenty (chunks)
  3. Wygeneruj embeddingi
  4. Przechowuj wektory
  5. Odzyskuj odpowiednie fragmenty
  6. Opcjonalnie zastosuj reranking
  7. Wstaw je do promptu LLM
  8. Wygeneruj odpowiedź

Ten potok jest praktyczny: jest stosunkowo łatwy do zbudowania, działa z chaotycznymi dokumentami, skaluje się do dużych korpusów, unika ponownego trenowania modeli i daje LLM dostęp do aktualnych informacji. Dlatego RAG stało się domyślnym wzorcem dla „AI nad dokumentami”.

Ale istnieje pułapka:

RAG poprawia dostęp do wiedzy. Nie poprawia automatycznie samej wiedzy.

Jeśli Twoja treść jest zduplikowana, przestarzała, sprzeczna, źle podzielona na fragmenty lub źl nazwana, wyszukiwanie wyniesie te problemy na wierzch — często z dużą pewnością siebie.

Co oznacza reprezentacja

Reprezentacja to sposób, w jaki wiedza jest kształtowana przed wystąpieniem wyszukiwania. Odpowiada na pytania takie jak:

  • Czy ta wiedza jest przechowywana jako dokumenty, notatki, encje czy fakty?
  • Czy relacje są jawne czy implikowane?
  • Czy istnieją strony kanoniczne?
  • Czy istnieją streszczenia?
  • Czy koncepcje są powiązane?
  • Czy system jest zorganizowany według tematu, przepływu pracy, czasu czy właściciela?
  • Czy człowiek może go utrzymywać?
  • Czy maszina może na nim wnioskować?

Reprezentacja nie jest ozdobą — determinuje, jakie operacje są możliwe.

Formy reprezentacji

Dokumenty

Dokumenty są najczęstszą formą reprezentacji. Przykłady obejmują:

  • artykuły
  • pliki PDF
  • instrukcje
  • raporty
  • pliki README
  • strony wsparcia
  • wpisy na blogu

Dokumenty są łatwe do pisania przez ludzi, ale często trudne do użycia przez maszyny, ponieważ mieszczą fakty, narrację, kontekst, przykłady, opinie, przestarzałe sekcje i powtarzające się wyjaśnienia w jednym kontenerze. Dokumenty są dobrymi kontenerami, ale nie zawsze dobrą strukturą wiedzy.

Notatki

Notatki są bardziej elastyczne niż dokumenty. Mogą być:

  • atomowe
  • połączone linkami
  • prywatne
  • niedokończone
  • skupione na koncepcjach

System notatek, taki jak PKM lub drugi mózg, może lepiej reprezentować ewoluującą wiedzę niż wypolerowane repozytorium dokumentów. Dobre notatki uchwytują myślenie w toku; złe notatki stają się nieprzeszukiwalną szufladą z szmatkami.

Wiki

Wiki reprezentują wiedzę jako utrzymywane strony. Dobre wiki ma:

  • stabilne strony
  • jasne tematy
  • linki wewnętrzne
  • właściciela (ownership)
  • odpowiedzi kanoniczne
  • wzorce aktualizacji

Wiki jest silniejsze niż luźny zrzut dokumentów, ponieważ daje wiedzy dom. „Lista kontrolna wdrożenia” istnieje w jednym miejscu. „Reagowanie na incydenty” istnieje w jednym miejscu. „Architektura RAG” istnieje w jednym miejscu. To ma znaczenie, ponieważ wyszukiwanie działa lepiej, gdy wiedza ma stabilną strukturę.

Grafy wiedzy

Grafy wiedzy reprezentują wiedzę jako encje i relacje. Zamiast przechowywać tylko tekst, modelują rzeczy takie jak:

  • Osoba pracuje nad Projektem
  • Model wspiera ContextLength
  • Strona zależy od Koncepcji
  • Usługa łączy się z Bazą Danych
  • Narzędzie implementuje Protokół

Grafy są potężne, ponieważ relacje stają się jawne, co pomaga w traversie, analizie zależności, rozwiązywaniu encji, śledzeniu pochodzenia (lineage), rozumowaniu i rekomendacjach. Ale grafy są drogie w utrzymaniu i nie są magiczne — zły graf to po prostu ustrukturyzowana konfuzja.

Schematy i ontologie

Schematy definiują oczekiwaną strukturę; ontologie idą dalej i definiują typy, relacje i ograniczenia. Odpowiadają na:

  • Jakie rzeczy istnieją?
  • Jakie właściwości mają?
  • Jak mogą się relacjonować?
  • Jakie zasady obowiązują?

To jest użyteczne, gdy liczy się poprawność, np. w wiedzy medycznej, prawnej, katalogach danych przedsiębiorczych, taksonomiach produktów i systemach zgodności. Kompromisem jest sztywność: im bardziej formalna reprezentacja, tym droższa jest jej ewolucja.

Reprezentacje generowane przez LLM

Współczesne systemy coraz częściej używają LLM do tworzenia reprezentacji. Przykłady obejmują:

  • streszczenia
  • wyodrębnione encje
  • strony tematyczne
  • mapy koncepcyjne
  • syntetyczne FAQ
  • kontury dokumentów
  • linki krzyżowe
  • wpisy w glossarium

Tutaj znajdują się systemy w stylu LLM Wiki. Używają modelu nie tylko do odpowiadania na zapytania, ale do przetwarzania wstępnego i ustrukturyzowania wiedzy przed wystąpieniem zapytania. RAG mówi „odzyskaj odpowiednie fragmenty w czasie zapytania”; LLM Wiki mówi „skompiluj przydatne struktury wiedzy w czasie wprowadzania danych”. Obie wzorce mogą koegzystować w tej samej architekturze.

Co oznacza wyszukiwanie

Wyszukiwanie to proces znajdowania odpowiednich informacji. Do powszechnych metod wyszukiwania należą:

  • wyszukiwanie słów kluczowych
  • wyszukiwanie pełnotekstowe
  • wyszukiwanie wektorowe
  • wyszukiwanie hybrydowe
  • filtrowanie metadanych travers grafu
  • reranking
  • przepisywanie zapytań
  • wyszukiwanie agencjalne (agentic search)

Wyszukiwanie nie jest jedną rzeczą — to warstwowy stos uzupełniających się metod.

Wyszukiwanie słów kluczowych

Wyszukiwanie słów kluczowych dopasowuje terminy i nadal jest użyteczne, ponieważ jest przewidywalne, debugowalne, szybkie i dobre dla dokładnych terminów, ID, komunikatów o błędach, nazw i kodu. Jego słabością jest niezgodność semantyczna: jeśli użytkownik wyszukuje „jak zatrzymać powtarzające się odpowiedzi”, ale dokument mówi o „presence penalty”, wyszukiwanie słów kluczowych może pominąć najlepszy wynik.

Wyszukiwanie wektorowe

Wyszukiwanie wektorowe odzyskuje dane na podstawie podobieństwa semantycznego. Jest użyteczne, gdy:

  • sformułowania się różnią
  • koncepcje są nieostry (fuzzy)
  • użytkownicy zadają pytania w języku naturalnym
  • dokumenty używają niespójnej terminologii

Jego słabością jest precyzja — wyszukiwanie wektorowe może odzyskiwać rzeczy, które wydają się powiązane, ale nie są faktycznie poprawne, co jest szczególnie ryzykowne w systemach technicznych.

Wyszukiwanie hybrydowe

Wyszukiwanie hybrydowe łączy wyszukiwanie słów kluczowych i wektorowe, co często jest lepsze niż każda z metod osobno. Wyszukiwanie słów kluczowych łapie dokładne dopasowania; wyszukiwanie wektorowe łapie dopasowania koncepcyjne. Dla technicznych baz wiedzy hybrydowe wyszukiwanie jest zwykle silnym domyślnym wyborem.

Reranking

Reranking bierze początkowy zestaw odzyskanych wyników i przekłada je, używając silniejszego modelu. To poprawia jakość, ponieważ pierwszy krok wyszukiwania jest często szeroki. Typowy wzorzec odzyskuje 50 fragmentów, rerankuje do top 5 lub 10, a następnie przekazuje tylko najlepszy kontekst do LLM. Reranking to jedna z najbardziej praktycznych metod poprawy jakości RAG.

Wyszukiwanie agencjalne (Agentic retrieval)

Wyszukiwanie agencjalne zamienia wyszukiwanie w proces. Zamiast jednego zapytania, agent może:

  1. Zadawać początkowe pytanie
  2. Wyszukiwać
  3. Inspekcjonować wyniki
  4. Przepisywać zapytanie
  5. Wyszukiwać ponownie
  6. Porównywać źródła
  7. Składać odpowiedź

To jest bliższe badaniom niż wyszukiwaniu. Jest użyteczne dla złożonych pytań, ale jest wolniejsze i trudniejsze do kontrolowania.

Wyszukiwanie bez reprezentacji jest kruche

System wyszukiwania może odzyskać tylko to, co istnieje. Nie może niezawodnie naprawić:

  • niejasnych koncepcji
  • zduplikowanych stron
  • niespójnej terminologii
  • przestarzałych dokumentacji
  • brakującego właściciela źródła
  • sprzecznych stwierdzeń
  • słabego linkowania wewnętrznego
  • złych granic dokumentów

To jest najczęstszy błąd w projektach RAG: zespoły budują bazę danych wektorową i oczekują, że stanie się ona systemem wiedzy. Baza danych wektorowa nie jest architekturą wiedzy — to warstwa dostępu.

Reprezentacja bez wyszukiwania jest izolowana

Istnieje również odwrotna awaria. Możesz mieć pięknie ustrukturyzowaną bazę wiedzy, której nikt nie może znaleźć. Dzieje się to w przypadku:

  • nadmiernie zaprojektowanych wiki
  • głębokich drzew folderów
  • sztywnych taksonomii
  • słabo indeksowanej dokumentacji
  • prywatnych systemów notatek bez możliwości odkrywania
  • grafów bez użytecznych interfejsów

Reprezentacja daje wiedzy strukturę; wyszukiwanie daje wiedzy zasięg. Potrzebujesz obu.

Mapa kompromisów

Szybkość vs spójność

Wyszukiwanie jest szybkie do zbudowania, a reprezentacja zajmuje więcej czasu. Jeśli potrzebujesz prototypu, wyszukiwanie wygrywa; jeśli potrzebujesz długoterminowego zaufania, reprezentacja ma większe znaczenie.

Priorytet Lepszy punkt startowy
Szybkie Q&A nad wieloma dokumentami Wyszukiwanie
Stabilna wiedza techniczna Reprezentacja
Badań eksploracyjnych PKM plus wyszukiwanie
Asystent przedsiębiorczy Ustrukturyzowany korpus plus RAG
Pamięć agenta Reprezentacja plus selektywne wyszukiwanie

Czysty prototyp RAG można zbudować szybko, ale niezawodny system wiedzy wymaga kuracji.

Elastyczność vs konsekwencja

Luźne dokumenty są elastyczne; ustrukturyzowana wiedza jest konsekwentna. Elastyczność pomaga, gdy:

  • domena zmienia się szybko
  • wiedza jest niekompletna
  • użytkownicy eksplorują
  • system jest osobisty

Konsekwencja pomaga, gdy:

  • wielu ludzi na niej polega
  • odpowiedzi muszą budzić zaufanie
  • przepływy pracy zależą od niej
  • systemy AI ją konsumują

Im więcej ludzi lub agentów zależy od wiedzy, tym większe znaczenie ma reprezentacja.

Recall vs precyzja

Systemy wyszukiwania często optymalizują recall (odzyskiwalność) jako pierwsze, co oznacza znajdowanie czegokolwiek, co może być odpowiednie. Ale dobre odpowiedzi wymagają precyzji, co oznacza znajdowanie najlepszych dowodów, a nie tylko dowodów powiązanych. Reprezentacja poprawia precyzję, czyniąc koncepcje i granice bardziej przejrzystymi — dobrze ustrukturyzowana strona jest łatwiejsza do dokładnego odzyskania niż losowy akapit ukryty w długim dokumencie.

Koszt czasu wprowadzania (ingest-time) vs koszt czasu zapytania (query-time)

RAG zwykle przenosi pracę na czas zapytania. W czasie zapytania system:

  • przepisuje zapytanie
  • odzyskuje fragmenty
  • rerankuje wyniki
  • składa kontekst
  • prosi model o wnioskowanie nad fragmentami

Systemy w stylu LLM Wiki przenoszą więcej pracy na czas wprowadzania danych. W czasie wprowadzania danych system:

  • czyta źródła
  • wyodrębnia koncepcje
  • pisze streszczenia
  • tworzy strony
  • łączy powiązane idee
  • utrzymuje strukturę
Architektura Kosztowny krok Korzyść
RAG Czas zapytania Elastyczne wyszukiwanie
LLM Wiki Czas wprowadzania Wstępnie skompilowana struktura
Graf wiedzy Czas modelowania Jawne relacje
Wiki Czas utrzymania Wiedza kanoniczna

Żadna z nich nie jest uniwersalnie lepsza — optymalizują one różne koszty.

Dlaczego istnieje LLM Wiki

LLM Wiki istnieje, ponieważ samo wyszukiwanie często powtarza pracę. W normalnym systemie RAG każde zapytanie może zmusić model do ponownego interpretowania surowych fragmentów:

  1. Odzyskaj fragmenty dotyczące tematu
  2. Poproś LLM o wnioskowanie koncepcji
  3. Wygeneruj odpowiedź
  4. Zapomnij syntezę
  5. Powtórz następnym razem

LLM Wiki mówi:

Przestań ponownie wyprowadzać tę samą syntezę. Skompiluj ją.

Zamiast tylko przechowywać surowe dokumenty, tworzy ustrukturyzowane strony, które streszczają i łączą wiedzę, co może poprawić spójność, ponowne użycie, efektywność tokenów, czytelność dla człowieka i długoterminowe utrzymanie. Ale ma to koszt: system musi utrzymywać wiki, a jeśli wiki jest błędna, przestarzała lub zhalucjonowana, struktura staje się niebezpieczna.

Halucjacje RAG vs zła reprezentacja

Ludzie często obwiniają LLM, gdy system RAG daje złą odpowiedź, i czasami to jest poprawne. Ale wiele awarii to w rzeczywistości awarie wyszukiwania lub reprezentacji.

Tryb awarii 1. Poprawny dokument, zły fragment

Odpowiedź istnieje, ale podział na fragmenty dzieli ją źle. Model otrzymuje:

  • połowę akapitu
  • brakujący kontekst
  • tabelę bez wyjaśnienia
  • definicję bez ograniczeń

LLM wypełnia te luki, co wygląda jak halucjacja, ale głębszym problemem jest złamana reprezentacja.

Tryb awarii 2. Powiązany fragment, zła odpowiedź

Wyszukiwanie wektorowe odzyskuje coś semantycznie podobnego, ale operacyjnie błędnego. Zapytanie pyta o wdrożenie produkcyjne; odzyskany fragment omawia rozwój lokalny. Terminy się nakładają, ale znaczenie się różni, więc model odpowiada instrukcjami konfiguracji lokalnej dla problemu produkcyjnego. To jest niedokładność wyszukiwania.

Tryb awarii 3. Sprzeczne źródła

Dwa dokumenty się sprzeciwiają — jeden stary, jeden nowy. System wyszukiwania zwraca oba, a LLM łączy je w pewną, ale nieważną odpowiedź. To nie jest tylko problem wyszukiwania, ale problem reprezentacji, ponieważ baza wiedzy brakuje stanu kanonicznego.

Tryb awarii 4. Brak modelu koncepcji

System ma wiele dokumentów, ale brak modelu domeny. Nie wie, że:

  • „pamięć agenta” różni się od „RAG”
  • „wiki” różni się od „PKM”
  • „wyszukiwanie embeddingów” różni się od „wyszukiwania pełnotekstowego”
  • „wdrożenie” różni się od „hostingu”

Bez reprezentacji koncepcyjnej wyszukiwanie staje się niedokładnym dopasowywaniem.

Tryb awarii 5. Generowana struktura staje się fałszywym autorytetem

Systemy LLM Wiki mają swój własny tryb awarii. Jeśli LLM wygeneruje czystą stronę z złych źródeł, wynik może wyglądać bardziej autorytatywnie niż oryginalny materiał. To jest niebezpieczne: wypolerowana halucjacja jest gorsza niż chaotyczny dokument źródłowy. Każda generowana reprezentacja potrzebuje:

  • linków do źródeł
  • recenzji
  • zasad aktualizacji
  • markerów pewności
  • właściciela (ownership)

Implikacje projektowe

Optymalizuj wyszukiwanie, gdy korpus jest duży i dynamiczny

Wyszukiwanie powinno być priorytetem, gdy:

  • korpus jest ogromny
  • dokumenty zmieniają się często
  • użytkownicy zadają wiele nieprzewidywalnych pytań
  • potrzebujesz szerokiego pokrycia
  • idealna struktura jest nierealistyczna

Przykłady: bazy wiedzy wsparcia, wyszukiwanie dokumentów przedsiębiorczych, asystenci badawczy, wewnętrzny czat nad wieloma plikami, discovery prawny i boty obsługi klienta. W tych przypadkach inwestuj w silne wyszukiwanie:

  • wyszukiwanie hybrydowe
  • filtry metadanych
  • reranking
  • przepisywanie zapytań
  • cytowanie źródeł
  • zestawy ewaluacyjne

Optymalizuj reprezentację, gdy liczy się spójność

Reprezentacja powinna być priorytetem, gdy:

  • wiedza musi budzić zaufanie
  • odpowiedzi muszą być konsekwentne
  • koncepcje są często ponownie używane
  • domena ma jasną strukturę
  • wiele systemów zależy od niej

Przykłady: wiedza architektoniczna, dokumentacja produktu, zasady zgodności, referencje API, runbuki operacyjne, skurated kolekcje badawcze i klastry technicznych blogów. W tych przypadkach inwestuj w:

  • strony kanoniczne
  • terminy glossarium
  • diagramy
  • linki wewnętrzne
  • właściciela (ownership)
  • wersjonowanie
  • rytm recenzji

Optymalizuj oba, gdy systemy AI zależą od wiedzy

Jeśli agent AI zależy od wiedzy, samo wyszukiwanie zwykle nie wystarczy. Agenci potrzebują:

  • stabilnego kontekstu
  • jasnych zasad zadania
  • trwałej pamięci
  • ustrukturyzowanych referencji
  • granic źródeł
  • zachowania aktualizacji

Dla systemów agencjalnych reprezentacja staje się częścią projektu systemu. Agent kodujący nie potrzebuje tylko odzyskać „jakieś dokumenty” — musi wiedzieć:

  • konwencje projektu
  • decyzje architektoniczne
  • wzorce poleceń
  • zabronione zależności
  • przepływ pracy testowej
  • zasady wdrożenia

Część z tego należy do RAG, część do pamięci, a część do ustrukturyzowanej dokumentacji projektu.

Praktyczny framework decyzyjny

Jeśli problemem jest znajdowanie informacji

Optymalizuj wyszukiwanie. Przykłady:

  • „Znajdź odpowiednie strony.”
  • „Odpowiadaj na pytania nad dokumentami.”
  • „Szukaj w wielu plikach PDF.”
  • „Znajdź podobne zgłoszenia wsparcia.”

Użyj:

  • wyszukiwania pełnotekstowego
  • wyszukiwania wektorowego
  • wyszukiwania hybrydowego
  • rerankingu
  • filtrowania metadanych

Jeśli problemem jest czynienie wiedzy spójną

Optymalizuj reprezentację. Przykłady:

  • „Stwórz kanoniczne wyjaśnienie.”
  • „Rozwiąż problem zduplikowanych stron.”
  • „Zdefiniuj model domeny.”
  • „Zbuduj stabilną bazę wiedzy.”

Użyj:

  • stron wiki
  • map koncepcyjnych
  • taksonomii
  • grafów wiedzy
  • streszczeń
  • schematów

Jeśli problemem jest powtarzająca się synteza

Użyj skompilowanej reprezentacji. Przykłady:

  • „Odpowiadamy na te same pytania koncepcyjne wielokrotnie.”
  • „System wielokrotnie streszcza te same źródła.”
  • „Potrzebujemy stabilnej warstwy syntezy.”

Użyj:

  • LLM Wiki
  • skurated streszczeń
  • stron tematycznych
  • generowanych stron recenzowanych przez ludzi

Jeśli problemem jest adaptacyjna ciągłość

Użyj pamięci. Przykłady:

  • „Agent powinien pamiętać preferencje użytkownika.”
  • „Agent kodujący powinien pamiętać konwencje projektu.”
  • „Asystent powinien kontynuować pracę między sesjami.”

Użyj:

  • pamięci agenta
  • magazynów preferencji
  • pamięci epizodycznej
  • pamięci semantycznej
  • pamięci projektu

Jak to odnosi się do technicznego bloga

Techniczny blog może być czymś więcej niż sekwencją postów — może stać się reprezentowanym systemem wiedzy. Artykuły to dokumenty, kategorie to słaba taksonomia, linki wewnętrzne to krawędzie grafu, strony filarowe to streszczenia kanoniczne, strony serii to skurated ścieżki, a wyszukiwanie to odzyskiwanie. Jeśli publikujesz tylko izolowane posty, wyszukiwanie musi pracować ciężej. Jeśli budujesz silną reprezentację, wyszukiwanie staje się łatwiejsze.

To oznacza:

  • jasne granice klastrowe
  • stabilne slugi
  • strony kanoniczne
  • strony porównawcze
  • wyjaśnienia w stylu glossarium
  • linki wewnętrzne
  • ustrukturyzowane metadane

Dlatego architektura strony ma znaczenie — nie tylko dla SEO, ale ponieważ jest to reprezentacja wiedzy. Klastr Knowledge Management na tej stronie jest sam w sobie przykładem publikacji opartej na reprezentacji.

Jak to odnosi się do RAG

Jakość RAG zależy mocno od reprezentacji. Dobrze ustrukturyzowany korpus źródłowy poprawia:

  • jakość fragmentów
  • dokładność odzyskiwania
  • jakość cytowań
  • konsekwencję odpowiedzi
  • klarowność ewaluacji

Przed budowaniem złożonego potoku RAG zapytaj:

  1. Czy dokumenty źródłowe są aktualne?
  2. Czy duplikaty zostały usunięte?
  3. Czy ważne koncepcje są jasno nazwane?
  4. Czy strony mają poprawny zakres (scope)?
  5. Czy tabele i bloki kodu są odzyskiwalne?
  6. Czy odpowiedzi kanoniczne są oczywiste?
  7. Czy granice dokumentów są znaczące?

Jeśli odpowiedź brzmi nie, lepsze embeddingy pomogą tylko do pewnego stopnia.

Jak to odnosi się do LLM Wiki

LLM Wiki to wzorzec oparty na reprezentacji. Jest użyteczny, gdy:

  • korpus jest mały lub średni
  • wiedza jest wystarczająco stabilna, aby ją streszczać
  • powtarzająca się synteza jest droga
  • ludzie beneficjują z czytelnych stron
  • chcesz strukturę przed wyszukiwaniem

Jest mniej użyteczny, gdy:

  • korpus jest masowy
  • treść zmienia się nieustannie
  • świeżość jest ważniejsza niż spójność
  • governance (zarządzanie) jest słabe
  • generowane streszczenia nie mogą być recenzowane

LLM Wiki nie jest zastępstwem dla RAG, ale inną warstwą, a silny system może używać obu:

  1. LLM Wiki tworzy ustrukturyzowane streszczenia.
  2. RAG odzyskuje ze surowych źródeł i stron wiki.
  3. Recenzja ludzka utrzymuje reprezentację wiarygodną.

Sugerowane wzorce architektoniczne

Wzorzec 1. Wyszukiwanie na pierwszym miejscu

Używaj, gdy liczy się szybkość.

dokumenty
  -> fragmenty (chunks)
  -> embeddingi
  -> wyszukiwanie
  -> odpowiedź LLM

Dobry dla:

  • prototypów
  • szerokiego wyszukiwania
  • dużych korpusów
  • wczesnych eksperymentów

Słabość: spójność zależy od jakości źródła.

Wzorzec 2. Reprezentacja na pierwszym miejscu

Używaj, gdy liczy się zaufanie.

źródła
  -> skurated strony
  -> linki wewnętrzne
  -> utrzymywana baza wiedzy
  -> wyszukiwanie lub RAG

Dobry dla:

  • dokumentacji
  • wiedzy technicznej
  • treści długoterminowej
  • wiedzy zespołu

Słabość: wymaga utrzymania.

Wzorzec 3. Skompilowana wiedza

Używaj, gdy liczy się powtarzająca się synteza.

surowe źródła
  -> ekstrakcja LLM
  -> generowane streszczenia
  -> strony tematyczne
  -> recenzowana baza wiedzy
  -> wyszukiwanie

Dobry dla:

  • systemów LLM Wiki
  • kolekcji badawczych
  • osobistych baz wiedzy
  • stabilnych domen

Słabość: generowana struktura musi być audytowana.

Wzorzec 4. Hybrydowa architektura wiedzy

Używaj, gdy budujesz poważne systemy.

surowe dokumenty
  -> ustrukturyzowana warstwa wiedzy
  -> indeks wyszukiwania
  -> wyszukiwanie i reranking
  -> odpowiedź AI
  -> feedback i utrzymanie

Dobry dla:

  • produkcyjnego RAG
  • wewnętrznych systemów wiedzy
  • asystentów AI
  • systemów publikacji technicznych

Słabość: więcej elementów ruchomych.

Pytania ewaluacyjne

Aby ewaluować wyszukiwanie, zapytaj:

  • Czy system znalazł odpowiednie źródło?
  • Czy nadał mu wysoki ranking?
  • Czy odzyskał wystarczająco kontekstu?
  • Czy unikał nieistotnego kontekstu?
  • Czy odpowiedza cytowała poprawne źródło?

Aby ewaluować reprezentację, zapytaj:

  • Czy wiedza jest jasno ustrukturyzowana?
  • Czy istnieje strona kanoniczna?
  • Czy koncepcje są nazwane konsekwentnie?
  • Czy relacje są jawne?
  • Czy treść jest utrzymywana?
  • Czy mogą z niej korzystać zarówno ludzie, jak i maszyny?

Nie ewaluuj systemu wiedzy tylko po jakości odpowiedzi — dobra odpowiedź może ukryć złą strukturę.

Subiektywna zasada

Jeśli Twój system awaruje okazjonalnie, popraw wyszukiwanie. Jeśli awaruje powtarzalnie w tej samej koncepcyjnej dziedzinie, popraw reprezentację.

Złe wyszukiwanie pomija odpowiednią informację. Zła reprezentacja oznacza, że odpowiednia informacja nie istnieje naprawdę w użytecznym kształcie.

Podsumowanie

Wyszukiwanie i reprezentacja rozwiązują różne problemy: wyszukiwanie daje dostęp, reprezentacja daje strukturę. RAG jest potężne, ponieważ czyni zewnętrzną wiedzę dostępną dla LLM w czasie zapytania, ale RAG nie czyni automatycznie wiedzy spójną, kanoniczną lub utrzymywaną. Dlatego wiki, systemy PKM, grafy wiedzy i systemy w stylu LLM Wiki nadal mają znaczenie.

Przyszłość nie jest wyszukiwaniem przeciwko reprezentacji, ale warstwowymi systemami wiedzy:

  • reprezentacja dla struktury
  • wyszukiwanie dla dostępu
  • pamięć dla ciągłości
  • rozumowanie dla syntezy

Jeśli budujesz poważny system wiedzy, nie zaczynaj od bazy danych wektorowej. Zacznij od kształtu wiedzy, a następnie zdecyduj, jak powinna być odzyskiwana.

Źródła i dalsza lektura

Subskrybuj

Otrzymuj nowe wpisy o systemach, infrastrukturze i inżynierii AI.