Recupero vs Rappresentazione nei Sistemi di Conoscenza

La ricerca non è struttura della conoscenza

Indice

La maggior parte dei sistemi di conoscenza moderni ottimizza il recupero (retrieval), ed è comprensibile. La ricerca è visibile, facile da dimostrare e sembra magica quando funziona. Scrivi una domanda, ottieni una risposta.

Ma il recupero è solo metà del problema. La domanda più profonda è:

Qual è la forma della conoscenza prima che qualsiasi cosa tenti di recuperarla?

retrieval vs representation

Questa è la rappresentazione — la struttura dietro la conoscenza:

  • note
  • pagine
  • schemi
  • grafi
  • entità
  • relazioni
  • sintesi
  • tassonomie
  • confini delle fonti
  • versioni canoniche

Il recupero chiede:

Posso trovare qualcosa di rilevante?

La rappresentazione chiede:

La conoscenza è organizzata in un modo che ha senso?

Questi non sono lo stesso problema. Un sistema RAG con una scarsa rappresentazione diventa un’interfaccia veloce verso un archivio disordinato. Può recuperare frammenti, ma non può correggere una struttura rotta. Può citare documenti, ma non può decidere quale sia canonico. Può assemblare il contesto, ma non può garantire che la conoscenza sottostante sia coerente.

Questo è il motivo per cui sistemi in stile LLM Wiki sono interessanti: spostano lo sforzo dal momento della query al momento dell’ingestione. Invece di recuperare solo blocchi quando un utente fa una domanda, tentano di pre-strutturare la conoscenza in pagine, concetti, sintesi e link. Questo non rende il RAG obsoleto — significa che il recupero e la rappresentazione sono livelli diversi, e i buoni sistemi di conoscenza hanno bisogno di entrambi.

La distinzione fondamentale

Il recupero riguarda l’accesso; la rappresentazione riguarda il significato.

Livello Domanda Esempi
Recupero Come trovo le informazioni giuste? ricerca, embedding, BM25, riordinamento, store vettoriali
Rappresentazione Come è strutturata la conoscenza? note, wiki, grafi, schemi, ontologie
Ragionamento Come uso la conoscenza? sintesi, confronto, inferenza, presa di decisioni

Un sistema debole salta spesso direttamente al recupero; un sistema forte chiede prima:

  1. Quali sono i concetti fondamentali?
  2. Qual è la fonte canonica?
  3. Quali relazioni sono importanti?
  4. Cosa cambia nel tempo?
  5. Cosa dovrebbe essere recuperato?
  6. Cosa dovrebbe già essere rappresentato?

Questa è la differenza tra la ricerca sui documenti e un vero sistema di conoscenza.

Perché il recupero è diventato dominante

Il recupero è diventato dominante perché si mappa bene sullo stack AI moderno. Un tipico pipeline RAG appare così:

  1. Carica documenti
  2. Dividili in blocchi (chunks)
  3. Genera embedding
  4. Archivia i vettori
  5. Recupera i blocchi rilevanti
  6. Riordinarli opzionalmente
  7. Inserirli in un prompt LLM
  8. Genera una risposta

Questo pipeline è pratico: è relativamente facile da costruire, funziona con documenti disordinati, scala a corpus di grandi dimensioni, evita il riaddestramento dei modelli e dà agli LLM accesso a informazioni attuali. Ecco perché il RAG è diventato il modello predefinito per “AI sui documenti”.

Ma c’è una trappola:

Il RAG migliora l’accesso alla conoscenza. Non migliora automaticamente la conoscenza.

Se il tuo contenuto è duplicato, superato, contraddittorio, suddiviso in blocchi in modo sbagliato o denominato male, il recupero metterà in evidenza questi problemi — spesso con molta confidenza.

Cosa significa rappresentazione

La rappresentazione è il modo in cui la conoscenza viene modellata prima che avvenga il recupero. Risponde a domande come:

  • Questa conoscenza è memorizzata come documenti, note, entità o fatti?
  • Le relazioni sono esplicite o implicite?
  • Esistono pagine canoniche?
  • Ci sono sintesi?
  • I concetti sono collegati?
  • Il sistema è organizzato per argomento, flusso di lavoro, tempo o proprietà?
  • Un essere umano può mantenerlo?
  • Una macchina può ragionare su di esso?

La rappresentazione non è decorazione — determina quali tipi di operazioni sono possibili.

Forme di rappresentazione

Documenti

I documenti sono la rappresentazione più comune. Gli esempi includono:

  • articoli
  • PDF
  • manuali
  • report
  • file README
  • pagine di supporto
  • post del blog

I documenti sono facili da scrivere per gli umani, ma spesso sono difficili da usare per le macchine perché mescolano fatti, narrazione, contesto, esempi, opinioni, sezioni superate e spiegazioni ripetute nello stesso contenitore. I documenti sono buoni contenitori, ma non sono sempre buone strutture di conoscenza.

Note

Le note sono più flessibili dei documenti. Possono essere:

  • atomiche
  • collegate
  • private
  • incomplete
  • focalizzate sui concetti

Un sistema di note, come un PKM o un second brain, può rappresentare la conoscenza in evoluzione meglio di un repository di documenti rifiniti. Le buone note catturano il pensiero in corso; le cattive note diventano un cassetto della spazzatura irricercabile.

Wiki

I Wiki rappresentano la conoscenza come pagine mantenute. Un buon wiki ha:

  • pagine stabili
  • argomenti chiari
  • link interni
  • proprietà (ownership)
  • risposte canoniche
  • modelli di aggiornamento

Un wiki è più forte di un dump di documenti sciolti perché dà alla conoscenza una casa. “Checklist di deployment” vive in un unico posto. “Risposta agli incidenti” vive in un unico posto. “Architettura RAG” vive in un unico posto. Questo è importante perché il recupero funziona meglio quando la conoscenza ha una struttura stabile.

Grafi di conoscenza

I grafi di conoscenza rappresentano la conoscenza come entità e relazioni. Invece di memorizzare solo testo, modellano cose come:

  • Persona lavora su Progetto
  • Modello supporta ContextLength
  • Pagina dipende da Concetto
  • Servizio si connette a Database
  • Strumento implementa Protocollo

I grafi sono potenti perché le relazioni diventano esplicite, il che aiuta con la traversata, l’analisi delle dipendenze, la risoluzione delle entità, la discendenza (lineage), il ragionamento e le raccomandazioni. Ma i grafi sono costosi da mantenere e non sono magici — un cattivo grafo è solo confusione strutturata.

Schemi e ontologie

Gli schemi definiscono la struttura attesa; le ontologie vanno oltre e definiscono tipi, relazioni e vincoli. Rispondono a:

  • Quali tipi di cose esistono?
  • Quali proprietà hanno?
  • Come possono relazionarsi?
  • Quali regole si applicano?

Questo è utile quando la correttezza è fondamentale, come nella conoscenza medica, nella conoscenza legale, nei cataloghi di dati aziendali, nelle tassonomie dei prodotti e nei sistemi di conformità. Il compromesso è la rigidità: più formale è la rappresentazione, più costoso è evolverla.

Rappresentazioni generate da LLM

I sistemi moderni usano sempre più gli LLM per creare rappresentazioni. Gli esempi includono:

  • sintesi
  • entità estratte
  • pagine tematiche
  • mappe concettuali
  • FAQ sintetiche
  • outline dei documenti
  • link incrociati
  • voci del glossario

È qui che si collocano i sistemi in stile LLM Wiki. Usano il modello non solo per rispondere alle query, ma per pre-elaborare e strutturare la conoscenza prima che la query avvenga. Il RAG dice “recupera blocchi rilevanti al momento della query”; LLM Wiki dice “compila strutture di conoscenza utili al momento dell’ingestione”. Entrambi i modelli possono coesistere nella stessa architettura.

Cosa significa il recupero

Il recupero è il processo di ricerca di informazioni rilevanti. I metodi di recupero comuni includono:

  • ricerca per parola chiave
  • ricerca full-text
  • ricerca vettoriale
  • ricerca ibrida
  • filtraggio per metadati
  • traversata del grafo
  • riordinamento (reranking)
  • riscrittura della query
  • ricerca agentic

Il recupero non è una sola cosa — è uno stack stratificato di metodi complementari.

Ricerca per parola chiave

La ricerca per parola chiave corrisponde ai termini ed è ancora utile perché è prevedibile, debuggabile, veloce e buona per termini esatti, ID, messaggi di errore, nomi e codice. La sua debolezza è la discrepanza semantica: se l’utente cerca “come fermare le risposte ripetute” ma il documento dice “presence penalty”, la ricerca per parola chiave potrebbe perdere il risultato migliore.

Ricerca vettoriale

La ricerca vettoriale recupera per similarità semantica. È utile quando:

  • la formulazione differisce
  • i concetti sono vaghi
  • gli utenti pongono domande in linguaggio naturale
  • i documenti usano una terminologia incoerente

La sua debolezza è la precisione — la ricerca vettoriale può recuperare cose che sembrano correlate ma non sono effettivamente corrette, il che è particolarmente rischioso nei sistemi tecnici.

Ricerca ibrida

La ricerca ibrida combina il recupero per parola chiave e vettoriale, che è spesso migliore di ciascuno da solo. La ricerca per parola chiave cattura le corrispondenze esatte; la ricerca vettoriale cattura le corrispondenze concettuali. Per le basi di conoscenza tecniche, il recupero ibrido è di solito un’ottima impostazione predefinita.

Riordinamento (Reranking)

Reranking prende un insieme iniziale di risultati recuperati e li riordina usando un modello più potente. Questo migliora la qualità perché il primo passo del recupero è spesso ampio. Un modello tipico recupera 50 blocchi, li riordina ai primi 5 o 10, poi passa solo il miglior contesto all’LLM. Il riordinamento è uno dei modi più pratici per migliorare la qualità del RAG.

Recupero Agentic

Il recupero Agentic trasforma la ricerca in un processo. Invece di una singola query, un agente può:

  1. Porre una domanda iniziale
  2. Cercare
  3. Ispezionare i risultati
  4. Reformulare la query
  5. Cercare di nuovo
  6. Confrontare le fonti
  7. Sintetizzare una risposta

Questo è più vicino alla ricerca che alla semplice ricerca. È utile per domande complesse, ma è più lento e più difficile da controllare.

Il recupero senza rappresentazione è fragile

Un sistema di recupero può recuperare solo ciò che esiste. Non può correggere in modo affidabile:

  • concetti non chiari
  • pagine duplicate
  • terminologia incoerente
  • documentazione superata
  • mancanza di proprietà della fonte
  • affermazioni contraddittorie
  • linking interno debole
  • confini dei documenti errati

Questo è l’errore più comune nei progetti RAG: i team costruiscono un database vettoriale e si aspettano che diventi un sistema di conoscenza. Un database vettoriale non è un’architettura di conoscenza — è un livello di accesso.

La rappresentazione senza recupero è isolata

Esiste anche il fallimento opposto. Puoi avere una base di conoscenza magnificamente strutturata che nessuno riesce a trovare. Questo accade con:

  • wiki sovradimensionati
  • alberi di cartelle profondi
  • tassonomie rigide
  • documentazione indicizzata male
  • sistemi di note privati senza scoperta
  • grafi senza interfacce utilizzabili

La rappresentazione dà struttura alla conoscenza; il recupero dà portata alla conoscenza. Hai bisogno di entrambi.

La mappa dei compromessi

Velocità vs coerenza

Il recupero è veloce da costruire e la rappresentazione richiede più tempo. Se hai bisogno di un prototipo, il recupero vince; se hai bisogno di fiducia a lungo termine, la rappresentazione è più importante.

Priorità Punto di partenza migliore
Q&A veloce su molti documenti Recupero
Conoscenza tecnica stabile Rappresentazione
Ricerca esplorativa PKM più recupero
Assistente aziendale Corpus strutturato più RAG
Memoria dell’agente Rappresentazione più recupero selettivo

Un prototipo RAG puro può essere costruito rapidamente, ma un sistema di conoscenza affidabile richiede curatela.

Flessibilità vs coerenza

I documenti sciolti sono flessibili; la conoscenza strutturata è coerente. La flessibilità aiuta quando:

  • il dominio cambia rapidamente
  • la conoscenza è incompleta
  • gli utenti stanno esplorando
  • il sistema è personale

La coerenza aiuta quando:

  • più persone si affidano a essa
  • le risposte devono essere affidabili
  • i flussi di lavoro dipendono da essa
  • i sistemi AI la consumano

Più persone o agenti dipendono dalla conoscenza, più la rappresentazione è importante.

Richiamo (Recall) vs precisione

I sistemi di recupero spesso ottimizzano prima il richiamo, il che significa trovare qualsiasi cosa che potrebbe essere rilevante. Ma le buone risposte hanno bisogno di precisione, il che significa trovare la migliore evidenza piuttosto che semplicemente evidenza correlata. La rappresentazione migliora la precisione rendendo i concetti e i confini più chiari — una pagina ben strutturata è più facile da recuperare accuratamente rispetto a un paragrafo casuale sepolto all’interno di un lungo documento.

Costo al momento dell’ingestione vs costo al momento della query

Il RAG di solito sposta il lavoro al momento della query. Al momento della query, il sistema:

  • riscrive la query
  • recupera i blocchi
  • riordina i risultati
  • assembla il contesto
  • chiede al modello di ragionare sui frammenti

I sistemi in stile LLM Wiki spostano più lavoro al momento dell’ingestione. Al momento dell’ingestione, il sistema:

  • legge le fonti
  • estrae i concetti
  • scrive sintesi
  • crea pagine
  • collega idee correlate
  • mantiene la struttura
Architettura Passo costoso Vantaggio
RAG Momento della query Recupero flessibile
LLM Wiki Momento dell’ingestione Struttura pre-compilata
Grafo di conoscenza Tempo di modellazione Relazioni esplicite
Wiki Tempo di manutenzione Conoscenza canonica

Nessuno di questi è universalmente migliore — ottimizzano costi diversi.

Perché esiste LLM Wiki

LLM Wiki esiste perché il recupero da solo spesso ripete il lavoro. In un normale sistema RAG, ogni query può costringere il modello a interpretare di nuovo i frammenti grezzi:

  1. Recupera blocchi su un argomento
  2. Chiedi all’LLM di inferire il concetto
  3. Genera una risposta
  4. Dimentica la sintesi
  5. Ripeti la prossima volta

LLM Wiki dice:

Smetti di ri-derivare la stessa sintesi. Compila.

Invece di memorizzare solo documenti grezzi, crea pagine strutturate che riassumono e connettono la conoscenza, il che può migliorare coerenza, riuso, efficienza dei token, leggibilità umana e manutenzione a lungo termine. Ma ha un costo: il sistema deve mantenere il wiki, e se il wiki è sbagliato, superato o allucinato, la struttura diventa pericolosa.

Allucinazione RAG vs cattiva rappresentazione

Le persone spesso incolpano l’LLM quando un sistema RAG dà una risposta sbagliata, e a volte questo è corretto. Ma molti fallimenti sono in realtà fallimenti di recupero o rappresentazione.

Modalità di fallimento 1. Documento corretto, blocco sbagliato

La risposta esiste, ma il chunking la divide male. Il modello riceve:

  • metà di un paragrafo
  • contesto mancante
  • una tabella senza spiegazione
  • una definizione senza vincoli

L’LLM riempie quelle lacune, il che sembra un’allucinazione, ma il problema più profondo è una rappresentazione rotta.

Modalità di fallimento 2. Blocco correlato, risposta sbagliata

La ricerca vettoriale recupera qualcosa semanticamente simile ma operativamente sbagliato. La query chiede del deployment in produzione; il blocco recuperato discute lo sviluppo locale. I termini si sovrappongono ma il significato differisce, quindi il modello risponde con istruzioni di configurazione locale per un problema di produzione. Questa è imprecisione del recupero.

Modalità di fallimento 3. Fonti contraddittorie

Due documenti sono in disaccordo — uno vecchio, uno nuovo. Il sistema di recupero restituisce entrambi, e l’LLM li fonde in una risposta confidenziale ma invalida. Questo non è solo un problema di recupero ma un problema di rappresentazione, perché la base di conoscenza manca di uno stato canonico.

Modalità di fallimento 4. Nessun modello concettuale

Il sistema ha molti documenti ma nessun modello del dominio. Non sa che:

  • “memoria dell’agente” differisce da “RAG”
  • “wiki” differisce da “PKM”
  • “ricerca per embedding” differisce da “ricerca full-text”
  • “deployment” differisce da “hosting”

Senza rappresentazione concettuale, il recupero diventa una corrispondenza approssimativa.

Modalità di fallimento 5. La struttura generata diventa falsa autorità

I sistemi LLM Wiki hanno la loro modalità di fallimento. Se un LLM genera una pagina pulita da fonti cattive, il risultato può sembrare più autorevole del materiale originale. Questo è pericoloso: un’allucinazione lucida è peggio di un documento sorgente disordinato. Qualsiasi rappresentazione generata ha bisogno di:

  • link alle fonti
  • revisione
  • regole di aggiornamento
  • marcatori di confidenza
  • proprietà (ownership)

Implicazioni di design

Ottimizza il recupero quando il corpus è grande e dinamico

Il recupero dovrebbe essere la priorità quando:

  • il corpus è enorme
  • i documenti cambiano frequentemente
  • gli utenti pongono molte domande imprevedibili
  • hai bisogno di una copertura ampia
  • una struttura perfetta è irrealistica

Esempi: basi di conoscenza di supporto, ricerca documenti aziendali, assistenti di ricerca, chat interna su molti file, discovery legale e bot di customer service. In questi casi, investi in un forte recupero:

  • ricerca ibrida
  • filtri per metadati
  • riordinamento
  • riscrittura della query
  • citazione della fonte
  • set di valutazione

Ottimizza la rappresentazione quando la coerenza è importante

La rappresentazione dovrebbe essere la priorità quando:

  • la conoscenza deve essere affidabile
  • le risposte devono essere coerenti
  • i concetti sono riutilizzati spesso
  • il dominio ha una struttura chiara
  • più sistemi dipendono da essa

Esempi: conoscenza architetturale, documentazione del prodotto, regole di conformità, riferimenti API, runbook operativi, collezioni di ricerca curate e cluster di blog tecnici. In questi casi, investi in:

  • pagine canoniche
  • termini del glossario
  • diagrammi
  • link interni
  • proprietà (ownership)
  • versioning
  • cadenza di revisione

Ottimizza entrambi quando i sistemi AI dipendono dalla conoscenza

Se un agente AI dipende dalla conoscenza, il recupero da solo di solito non è sufficiente. Gli agenti hanno bisogno di:

  • contesto stabile
  • regole di compito chiare
  • memoria durevole
  • riferimenti strutturati
  • confini delle fonti
  • comportamento di aggiornamento

Per i sistemi agentic, la rappresentazione diventa parte del design del sistema. Un agente di coding non ha bisogno solo di recuperare “alcuni documenti” — deve conoscere:

  • convenzioni del progetto
  • decisioni architetturali
  • pattern dei comandi
  • dipendenze vietate
  • flusso di lavoro di testing
  • regole di deployment

Parte di questo appartiene al RAG, parte alla memoria e parte alla documentazione strutturata del progetto.

Framework decisionale pratico

Se il problema è trovare informazioni

Ottimizza il recupero. Esempi:

  • “Trova pagine rilevanti.”
  • “Rispondi alle domande sui documenti.”
  • “Cerca attraverso molti PDF.”
  • “Localizza ticket di supporto simili.”

Usa:

  • ricerca full-text
  • ricerca vettoriale
  • recupero ibrido
  • riordinamento
  • filtraggio per metadati

Se il problema è rendere la conoscenza coerente

Ottimizza la rappresentazione. Esempi:

  • “Crea una spiegazione canonica.”
  • “Risolvi le pagine duplicate.”
  • “Definisci il modello di dominio.”
  • “Costruisci una base di conoscenza stabile.”

Usa:

  • pagine wiki
  • mappe concettuali
  • tassonomie
  • grafi di conoscenza
  • sintesi
  • schemi

Se il problema è la sintesi ripetuta

Usa la rappresentazione compilata. Esempi:

  • “Risponiamo alle stesse domande concettuali ripetutamente.”
  • “Il sistema continua a riassumere le stesse fonti.”
  • “Abbiamo bisogno di un livello di sintesi stabile.”

Usa:

  • LLM Wiki
  • sintesi curate
  • pagine tematiche
  • pagine generate revisionate dagli umani

Se il problema è la continuità adattiva

Usa la memoria. Esempi:

  • “L’agente dovrebbe ricordare le preferenze dell’utente.”
  • “L’agente di coding dovrebbe ricordare le convenzioni del progetto.”
  • “L’assistente dovrebbe continuare il lavoro tra le sessioni.”

Usa:

  • memoria dell’agente
  • archivi delle preferenze
  • memoria episodica
  • memoria semantica
  • memoria del progetto

Come questo si applica a un blog tecnico

Un blog tecnico può essere più di una sequenza di post — può diventare un sistema di conoscenza rappresentato. Gli articoli sono documenti, le categorie sono una tassonomia debole, i link interni sono spigoli del grafo, le pagine pilastro sono sintesi canoniche, le pagine delle serie sono percorsi curati e la ricerca è il recupero. Se pubblichi solo post isolati, il recupero deve lavorare più duramente. Se costruisci una forte rappresentazione, il recupero diventa più facile.

Questo significa:

  • confini di cluster chiari
  • slug stabili
  • pagine canoniche
  • pagine di confronto
  • spiegatori in stile glossario
  • link interni
  • metadati strutturati

Questo è il motivo per cui l’architettura del sito è importante — non solo per il SEO, ma perché è rappresentazione della conoscenza. Il cluster Knowledge Management su questo sito è esso stesso un esempio di pubblicazione con priorità alla rappresentazione.

Come questo si applica al RAG

La qualità del RAG dipende fortemente dalla rappresentazione. Un corpus sorgente ben strutturato migliora:

  • qualità dei blocchi
  • accuratezza del recupero
  • qualità delle citazioni
  • coerenza delle risposte
  • chiarezza della valutazione

Prima di costruire un pipeline RAG complesso, chiedi:

  1. I documenti sorgente sono attuali?
  2. I duplicati sono rimossi?
  3. I concetti importanti sono chiaramente denominati?
  4. Le pagine sono scodate correttamente?
  5. Le tabelle e i blocchi di codice sono recuperabili?
  6. Le risposte canoniche sono evidenti?
  7. I confini dei documenti hanno senso?

Se la risposta è no, embedding migliori aiuteranno solo fino a un certo punto.

Come questo si applica a LLM Wiki

LLM Wiki è un modello di priorità alla rappresentazione. È utile quando:

  • il corpus è di piccole o medie dimensioni
  • la conoscenza è abbastanza stabile da essere riassunta
  • la sintesi ripetuta è costosa
  • gli umani traggono beneficio da pagine leggibili
  • vuoi struttura prima del recupero

È meno utile quando:

  • il corpus è massiccio
  • il contenuto cambia costantemente
  • la freschezza è più importante della coerenza
  • la governance è debole
  • le sintesi generate non possono essere revisionate

LLM Wiki non è un sostituto per il RAG ma un livello diverso, e un sistema forte può usare entrambi:

  1. LLM Wiki crea sintesi strutturate.
  2. RAG recupera dalle fonti grezze e dalle pagine wiki.
  3. La revisione umana mantiene la rappresentazione affidabile.

Pattern architetturali suggeriti

Pattern 1. Prima il recupero

Usa quando la velocità è importante.

documenti
  -> blocchi
  -> embedding
  -> recupero
  -> risposta LLM

Buono per:

  • prototipi
  • ricerca ampia
  • corpus di grandi dimensioni
  • esperimenti iniziali

Debolezza: la coerenza dipende dalla qualità della fonte.

Pattern 2. Prima la rappresentazione

Usa quando la fiducia è importante.

fonti
  -> pagine curate
  -> link interni
  -> base di conoscenza mantenuta
  -> ricerca o RAG

Buono per:

  • documentazione
  • conoscenza tecnica
  • contenuti a lungo termine
  • conoscenza del team

Debolezza: richiede manutenzione.

Pattern 3. Conoscenza compilata

Usa quando la sintesi ripetuta è importante.

fonti grezze
  -> estrazione LLM
  -> sintesi generate
  -> pagine tematiche
  -> base di conoscenza revisionata
  -> recupero

Buono per:

  • sistemi LLM Wiki
  • collezioni di ricerca
  • basi di conoscenza personali
  • domini stabili

Debolezza: la struttura generata deve essere auditata.

Pattern 4. Architettura di conoscenza ibrida

Usa quando si costruiscono sistemi seri.

documenti grezzi
  -> livello di conoscenza strutturata
  -> indice di ricerca
  -> recupero e riordinamento
  -> risposta AI
  -> feedback e manutenzione

Buono per:

  • RAG in produzione
  • sistemi di conoscenza interni
  • assistenti AI
  • sistemi di pubblicazione tecnica

Debolezza: più componenti mobili.

Domande di valutazione

Per valutare il recupero, chiedi:

  • Il sistema ha trovato la fonte giusta?
  • Ha classificato la fonte giusta in alto?
  • Ha recuperato abbastanza contesto?
  • Ha evitato il contesto irrilevante?
  • La risposta ha citato la fonte corretta?

Per valutare la rappresentazione, chiedi:

  • La conoscenza è strutturata chiaramente?
  • C’è una pagina canonica?
  • I concetti sono denominati in modo coerente?
  • Le relazioni sono esplicite?
  • Il contenuto è mantenuto?
  • Possono usarlo sia umani che macchine?

Non valutare un sistema di conoscenza solo per la qualità della risposta — una buona risposta può nascondere una cattiva struttura.

La regola opinionata

Se il tuo sistema fallisce occasionalmente, migliora il recupero. Se fallisce ripetutamente nella stessa area concettuale, migliora la rappresentazione.

Un cattivo recupero manca delle informazioni giuste. Una cattiva rappresentazione significa che le informazioni giuste non esistono realmente in una forma utilizzabile.

Conclusione

Il recupero e la rappresentazione risolvono problemi diversi: il recupero dà accesso, la rappresentazione dà struttura. Il RAG è potente perché rende la conoscenza esterna disponibile agli LLM al momento della query, ma il RAG non rende automaticamente la conoscenza coerente, canonica o mantenuta. Ecco perché i wiki, i sistemi PKM, i grafi di conoscenza e i sistemi in stile LLM Wiki sono ancora importanti.

Il futuro non è recupero vs rappresentazione ma sistemi di conoscenza stratificati:

  • rappresentazione per la struttura
  • recupero per l’accesso
  • memoria per la continuità
  • ragionamento per la sintesi

Se stai costruendo un sistema di conoscenza serio, non iniziare con il database vettoriale. Inizia con la forma della conoscenza, poi decidi come dovrebbe essere recuperata.

Fonti e letture aggiuntive

Iscriviti

Ricevi nuovi articoli su sistemi, infrastruttura e ingegneria AI.