Recuperação vs. Representação em Sistemas de Conhecimento
A busca não é estrutura de conhecimento
A maioria dos sistemas de conhecimento modernos otimiza a recuperação, e isso é compreensível. A pesquisa é visível, fácil de demonstrar e parece mágica quando funciona. Digite uma pergunta, obtenha uma resposta.
Mas a recuperação é apenas metade do problema. A questão mais profunda é:
Qual é a forma do conhecimento antes que qualquer coisa tente recuperá-lo?

Isso é representação — a estrutura por trás do conhecimento:
- notas
- páginas
- esquemas
- grafos
- entidades
- relacionamentos
- resumos
- taxonomias
- limites de origem
- versões canônicas
A recuperação pergunta:
Consigo encontrar algo relevante?
A representação pergunta:
O conhecimento está organizado de uma maneira que faz sentido?
Estes não são o mesmo problema. Um sistema RAG com má representação torna-se uma interface rápida para um arquivo desorganizado. Pode recuperar fragmentos, mas não pode corrigir uma estrutura quebrada. Pode citar documentos, mas não pode decidir qual é canônico. Pode montar contexto, mas não pode garantir que o conhecimento subjacente seja coerente.
É por isso que sistemas no estilo LLM Wiki são interessantes: eles deslocam o esforço do tempo de consulta para o tempo de ingestão. Em vez de apenas recuperar trechos quando um usuário faz uma pergunta, eles tentam pré-estruturar o conhecimento em páginas, conceitos, resumos e links. Isso não torna o RAG obsoleto — significa que recuperação e representação são camadas diferentes, e bons sistemas de conhecimento precisam de ambos.
A distinção fundamental
Recuperação é sobre acesso; representação é sobre significado.
| Camada | Pergunta | Exemplos |
|---|---|---|
| Recuperação | Como encontro a informação correta? | pesquisa, embeddings, BM25, reclassificação, lojas vetoriais |
| Representação | Como o conhecimento está estruturado? | notas, wikis, grafos, esquemas, ontologias |
| Raciocínio | Como uso o conhecimento? | síntese, comparação, inferência, tomada de decisão |
Um sistema fraco frequentemente salta diretamente para a recuperação; um sistema forte primeiro pergunta:
- Quais são os conceitos centrais?
- Qual é a fonte canônica?
- Quais relacionamentos importam?
- O que muda com o tempo?
- O que deve ser recuperado?
- O que já deve estar representado?
Esta é a diferença entre pesquisar sobre documentos e um sistema de conhecimento real.
Por que a recuperação se tornou dominante
A recuperação se tornou dominante porque se encaixa bem na pilha de IA moderna. Um pipeline típico de RAG parece com isso:
- Carregar documentos
- Dividi-los em trechos (chunks)
- Gerar embeddings
- Armazenar vetores
- Recuperar trechos relevantes
- Opcionalmente, reclassificá-los
- Colocá-los em um prompt de LLM
- Gerar uma resposta
Este pipeline é prático: é relativamente fácil de construir, funciona com documentos desordenados, escala para grandes corpora, evita o retreinamento de modelos e dá aos LLMs acesso a informações atuais. É por isso que o RAG se tornou o padrão para “IA sobre documentos”.
Mas há uma armadilha:
O RAG melhora o acesso ao conhecimento. Ele não melhora automaticamente o conhecimento.
Se o seu conteúdo for duplicado, desatualizado, contraditório, mal fragmentado ou mal nomeado, a recuperação trará esses problemas à tona — muitas vezes com confiança.
O que representação significa
Representação é a maneira como o conhecimento é moldado antes que a recuperação aconteça. Ela responde perguntas como:
- Este conhecimento está armazenado como documentos, notas, entidades ou fatos?
- Os relacionamentos são explícitos ou implícitos?
- Existem páginas canônicas?
- Existem resumos?
- Os conceitos estão vinculados?
- O sistema está organizado por tópico, fluxo de trabalho, tempo ou propriedade?
- Um humano pode mantê-lo?
- Uma máquina pode raciocinar sobre ele?
Representação não é decoração — ela determina que tipo de operações são possíveis.
Formas de representação
Documentos
Documentos são a representação mais comum. Os exemplos incluem:
- artigos
- PDFs
- manuais
- relatórios
- arquivos README
- páginas de suporte
- posts de blog
Documentos são fáceis para humanos escreverem, mas muitas vezes são difíceis para máquinas usarem porque misturam fatos, narrativa, contexto, exemplos, opiniões, seções desatualizadas e explicações repetidas no mesmo container. Documentos são bons containers, mas nem sempre são boas estruturas de conhecimento.
Notas
Notas são mais flexíveis do que documentos. Elas podem ser:
- atômicas
- vinculadas
- privadas
- inacabadas
- focadas em conceitos
Um sistema de notas, como um PKM ou segunda mente, pode representar conhecimento em evolução melhor do que um repositório de documentos polidos. Boas notas capturam o pensamento em andamento; notas ruins tornam-se uma gaveta de bagunça inseparável.
Wikis
Wikis representam o conhecimento como páginas mantidas. Um bom wiki tem:
- páginas estáveis
- tópicos claros
- links internos
- propriedade (ownership)
- respostas canônicas
- padrões de atualização
Um wiki é mais forte do que um despejo solto de documentos porque dá ao conhecimento um lar. “Checklist de implantação” vive em um lugar. “Resposta a incidentes” vive em um lugar. “Arquitetura RAG” vive em um lugar. Isso importa porque a recuperação funciona melhor quando o conhecimento tem uma estrutura estável.
Grafos de conhecimento
Grafos de conhecimento representam o conhecimento como entidades e relacionamentos. Em vez de armazenar apenas texto, eles modelam coisas como:
- Pessoa trabalha no Projeto
- Modelo suporta ContextLength (Comprimento de Contexto)
- Página depende do Conceito
- Serviço conecta-se ao Banco de Dados
- Ferramenta implementa Protocolo
Grafos são poderosos porque os relacionamentos tornam-se explícitos, o que ajuda na travessia, análise de dependência, resolução de entidades, linhagem, raciocínio e recomendações. Mas grafos são caros para manter e não são mágicos — um grama ruim é apenas confusão estruturada.
Esquemas e ontologias
Esquemas definem a estrutura esperada; ontologias vão além e definem tipos, relações e restrições. Elas respondem:
- Que tipos de coisas existem?
- Quais propriedades elas têm?
- Como elas podem se relacionar?
- Quais regras se aplicam?
Isso é útil quando a correção importa, como em conhecimento médico, conhecimento jurídico, catálogos de dados empresariais, taxonomias de produtos e sistemas de conformidade. A compensação é a rigidez: quanto mais formal a representação, mais caro é evoluir.
Representações geradas por LLM
Sistemas modernos usam cada vez mais LLMs para criar representações. Os exemplos incluem:
- resumos
- entidades extraídas
- páginas de tópicos
- mapas conceituais
- FAQs sintéticas
- esboços de documentos
- cruzamentos de links
- entradas de glossário
É aqui que os sistemas no estilo LLM Wiki se encaixam. Eles usam o modelo não apenas para responder a consultas, mas para pré-processar e estruturar o conhecimento antes que a consulta aconteça. O RAG diz “recuperar trechos relevantes no momento da consulta”; o LLM Wiki diz “compilar estruturas de conhecimento úteis no momento da ingestão”. Ambos os padrões podem coexistir na mesma arquitetura.
O que recuperação significa
Recuperação é o processo de encontrar informações relevantes. Métodos comuns de recuperação incluem:
- pesquisa por palavras-chave
- pesquisa em texto completo
- pesquisa vetorial
- pesquisa híbrida
- filtragem de metadados
- travessia de grafo
- reclassificação
- reescrita de consulta
- pesquisa agêntica
Recuperação não é uma única coisa — é uma pilha em camadas de métodos complementares.
Pesquisa por palavras-chave
A pesquisa por palavras-chave combina termos e ainda é útil porque é previsível, depurável, rápida e boa para termos exatos, IDs, mensagens de erro, nomes e código. Sua fraqueza é o descompasso semântico: se o usuário pesquisar “como parar respostas repetidas” mas o documento diga “penalidade de presença”, a pesquisa por palavras-chave pode perder o melhor resultado.
Pesquisa vetorial
A pesquisa vetorial recupera por similaridade semântica. É útil quando:
- a redação difere
- os conceitos são vagos
- os usuários fazem perguntas em linguagem natural
- os documentos usam terminologia inconsistente
Sua fraqueza é a precisão — a pesquisa vetorial pode recuperar coisas que parecem relacionadas, mas que não estão corretas, o que é especialmente arriscado em sistemas técnicos.
Pesquisa híbrida
A pesquisa híbrida combina recuperação por palavras-chave e vetorial, o que geralmente é melhor do que qualquer uma sozinha. A pesquisa por palavras-chave captura correspondências exatas; a pesquisa vetorial captura correspondências conceituais. Para bases de conhecimento técnico, a recuperação híbrida é geralmente um padrão forte.
Reclassificação
A Reclassificação pega um conjunto inicial de resultados recuperados e os reordena usando um modelo mais forte. Isso melhora a qualidade porque o primeiro passo de recuperação é frequentemente amplo. Um padrão típico recupera 50 trechos, reclassifica para os 5 ou 10 principais e passa apenas o melhor contexto para o LLM. A reclassificação é uma das maneiras mais práticas de melhorar a qualidade do RAG.
Recuperação agêntica
A recuperação agêntica transforma a pesquisa em um processo. Em vez de uma consulta, um agente pode:
- Fazer uma pergunta inicial
- Pesquisar
- Inspecionar os resultados
- Reformular a consulta
- Pesquisar novamente
- Comparar fontes
- Sintetizar uma resposta
Isso está mais próximo de uma pesquisa do que de uma busca. É útil para perguntas complexas, mas é mais lento e mais difícil de controlar.
Recuperação sem representação é frágil
Um sistema de recuperação só pode recuperar o que existe. Ele não pode corrigir de forma confiável:
- conceitos claros
- páginas duplicadas
- terminologia inconsistente
- documentação desatualizada
- falta de propriedade da fonte
- declarações contraditórias
- linking interno fraco
- limites de documento ruins
Este é o erro mais comum em projetos RAG: equipes constroem um banco de dados vetorial e esperam que ele se torne um sistema de conhecimento. Um banco de dados vetorial não é uma arquitetura de conhecimento — é uma camada de acesso.
Representação sem recuperação é isolada
O fracasso oposto também existe. Você pode ter uma base de conhecimento lindamente estruturada que ninguém consegue encontrar. Isso acontece com:
- wikis superdimensionados
- árvores de pastas profundas
- taxonomias rígidas
- documentação mal indexada
- sistemas de notas privadas sem descoberta
- grafos sem interfaces utilizáveis
A representação dá estrutura ao conhecimento; a recuperação dá alcance ao conhecimento. Você precisa de ambos.
O mapa de compensações
Velocidade vs coerência
A recuperação é rápida para construir e a representação leva mais tempo. Se você precisa de um protótipo, a recuperação vence; se você precisa de confiança a longo prazo, a representação importa mais.
| Prioridade | Ponto de partida melhor |
|---|---|
| Perguntas e Respostas rápidas sobre muitos docs | Recuperação |
| Conhecimento técnico estável | Representação |
| Pesquisa exploratória | PKM mais recuperação |
| Assistente empresarial | Corpus estruturado mais RAG |
| Memória de agente | Representação mais recuperação seletiva |
Um protótipo RAG puro pode ser construído rapidamente, mas um sistema de conhecimento confiável requer curadoria.
Flexibilidade vs consistência
Documentos soltos são flexíveis; conhecimento estruturado é consistente. A flexibilidade ajuda quando:
- o domínio muda rapidamente
- o conhecimento é incompleto
- os usuários estão explorando
- o sistema é pessoal
A consistência ajuda quando:
- várias pessoas dependem dele
- as respostas devem ser confiáveis
- fluxos de trabalho dependem dele
- sistemas de IA o consomem
Quanto mais pessoas ou agentes dependem do conhecimento, mais a representação importa.
Recall vs precisão
Os sistemas de recuperação geralmente otimizam o recall primeiro, o que significa encontrar qualquer coisa que possa ser relevante. Mas boas respostas precisam de precisão, o que significa encontrar a melhor evidência em vez de meramente evidência relacionada. A representação melhora a precisão tornando conceitos e limites mais claros — uma página bem estruturada é mais fácil de recuperar com precisão do que um parágrafo aleatório enterrado dentro de um documento longo.
Custo no tempo de ingestão vs custo no tempo de consulta
O RAG geralmente empurra o trabalho para o tempo de consulta. No tempo de consulta, o sistema:
- reescreve a consulta
- recupera trechos
- reclassifica resultados
- monta contexto
- pede ao modelo para raciocinar sobre fragmentos
Sistemas no estilo LLM Wiki empurram mais trabalho para o tempo de ingestão. No tempo de ingestão, o sistema:
- lê fontes
- extrai conceitos
- escreve resumos
- cria páginas
- liga ideias relacionadas
- mantém a estrutura
| Arquitetura | Etapa cara | Benefício |
|---|---|---|
| RAG | Tempo de consulta | Recuperação flexível |
| LLM Wiki | Tempo de ingestão | Estrutura pré-compilada |
| Grafo de conhecimento | Tempo de modelagem | Relacionamentos explícitos |
| Wiki | Tempo de manutenção | Conhecimento canônico |
Nenhum desses é universalmente melhor — eles otimizam custos diferentes.
Por que o LLM Wiki existe
O LLM Wiki existe porque a recuperação sozinha frequentemente repete o trabalho. Em um sistema RAG normal, cada consulta pode forçar o modelo a interpretar fragmentos crus novamente:
- Recuperar trechos sobre um tópico
- Pedir ao LLM para inferir o conceito
- Gerar uma resposta
- Esquecer a síntese
- Repetir da próxima vez
O LLM Wiki diz:
Pare de re-derivar a mesma síntese. Compile-a.
Em vez de apenas armazenar documentos crus, ele cria páginas estruturadas que resumem e conectam o conhecimento, o que pode melhorar a coerência, reutilização, eficiência de tokens, legibilidade humana e manutenção a longo prazo. Mas isso tem um custo: o sistema deve manter o wiki, e se o wiki estiver errado, desatualizado ou alucinado, a estrutura torna-se perigosa.
Alucinação do RAG vs má representação
As pessoas frequentemente culpam o LLM quando um sistema RAG dá uma resposta ruim, e às vezes isso está correto. Mas muitas falhas são na verdade falhas de recuperação ou representação.
Modo de falha 1. Documento correto, trecho errado
A resposta existe, mas a fragmentação a divide mal. O modelo recebe:
- metade de um parágrafo
- contexto faltando
- uma tabela sem explicação
- uma definição sem restrições
O LLM preenche essas lacunas, o que parece uma alucinação, mas o problema mais profundo é a representação quebrada.
Modo de falha 2. Trecho relacionado, resposta errada
A pesquisa vetorial recupera algo semanticamente similar, mas operacionalmente errado. A consulta pergunta sobre implantação em produção; o trecho recuperado discute desenvolvimento local. Os termos se sobrepõem, mas o significado difere, então o modelo responde com instruções de configuração local para um problema de produção. Esta é imprecisão de recuperação.
Modo de falha 3. Fontes conflitantes
Dois documentos discordam — um antigo, um novo. O sistema de recuperação retorna ambos, e o LLM os funde em uma resposta confiante, mas inválida. Este não é apenas um problema de recuperação, mas um problema de representação, porque a base de conhecimento carece de estado canônico.
Modo de falha 4. Sem modelo conceitual
O sistema tem muitos documentos, mas nenhum modelo do domínio. Ele não sabe que:
- “memória de agente” difere de “RAG”
- “wiki” difere de “PKM”
- “pesquisa de embedding” difere de “pesquisa em texto completo”
- “implantação” difere de “hospedagem”
Sem representação conceitual, a recuperação torna-se uma correspondência vaga.
Modo de falha 5. Estrutura gerada torna-se autoridade falsa
Os sistemas LLM Wiki têm seu próprio modo de falha. Se um LLM gerar uma página limpa a partir de fontes ruins, o resultado pode parecer mais autoritativo do que o material original. Isso é perigoso: uma alucinação polida é pior do que um documento de fonte desordenado. Qualquer representação gerada precisa:
- links de fonte
- revisão
- regras de atualização
- marcadores de confiança
- propriedade
Implicações de design
Otimizar recuperação quando o corpus é grande e dinâmico
A recuperação deve ser a prioridade quando:
- o corpus é enorme
- os documentos mudam frequentemente
- os usuários fazem muitas perguntas imprevisíveis
- você precisa de cobertura ampla
- estrutura perfeita é irrealista
Exemplos: bases de conhecimento de suporte, pesquisa de documentos empresariais, assistentes de pesquisa, chat interno sobre muitos arquivos, descoberta legal e bots de atendimento ao cliente. Nestes casos, invista em recuperação forte:
- pesquisa híbrida
- filtros de metadados
- reclassificação
- reescrita de consulta
- citação de fonte
- conjuntos de avaliação
Otimizar representação quando a coerência importa
A representação deve ser a prioridade quando:
- o conhecimento deve ser confiável
- as respostas devem ser consistentes
- os conceitos são reutilizados frequentemente
- o domínio tem estrutura clara
- vários sistemas dependem dele
Exemplos: conhecimento de arquitetura, documentação de produtos, regras de conformidade, referências de API, runbooks operacionais, coleções de pesquisa curadas e clusters de blogs técnicos. Nestes casos, invista em:
- páginas canônicas
- termos de glossário
- diagramas
- links internos
- propriedade
- versionamento
- cadência de revisão
Otimizar ambos quando sistemas de IA dependem do conhecimento
Se um agente de IA depende do conhecimento, a recuperação sozinha geralmente não é suficiente. Agentes precisam:
- contexto estável
- regras de tarefa claras
- memória durável
- referências estruturadas
- limites de fonte
- comportamento de atualização
Para sistemas agênticos, a representação torna-se parte do design do sistema. Um agente de codificação não precisa apenas recuperar “alguns docs” — ele precisa saber:
- convenções do projeto
- decisões de arquitetura
- padrões de comando
- dependências proibidas
- fluxo de trabalho de teste
- regras de implantação
Parte disso pertence ao RAG, parte pertence à memória e parte pertence à documentação estruturada do projeto.
Framework de decisão prático
Se o problema é encontrar informação
Otimize a recuperação. Exemplos:
- “Encontre páginas relevantes.”
- “Responda perguntas sobre documentos.”
- “Pesquise em muitos PDFs.”
- “Localize tickets de suporte semelhantes.”
Use:
- pesquisa em texto completo
- pesquisa vetorial
- recuperação híbrida
- reclassificação
- filtragem de metadados
Se o problema é tornar o conhecimento coerente
Otimize a representação. Exemplos:
- “Crie uma explicação canônica.”
- “Resolva páginas duplicadas.”
- “Defina o modelo de domínio.”
- “Construa uma base de conhecimento estável.”
Use:
- páginas de wiki
- mapas conceituais
- taxonomias
- grafos de conhecimento
- resumos
- esquemas
Se o problema é síntese repetida
Use representação compilada. Exemplos:
- “Respondemos às mesmas perguntas conceituais repetidamente.”
- “O sistema continua resumindo as mesmas fontes.”
- “Precisamos de uma camada de síntese estável.”
Use:
- LLM Wiki
- resumos curados
- páginas de tópicos
- páginas geradas revisadas por humanos
Se o problema é continuidade adaptativa
Use memória. Exemplos:
- “O agente deve lembrar das preferências do usuário.”
- “O agente de codificação deve lembrar das convenções do projeto.”
- “O assistente deve continuar o trabalho entre sessões.”
Use:
- memória de agente
- lojas de preferências
- memória episódica
- memória semântica
- memória do projeto
Como isso se aplica a um blog técnico
Um blog técnico pode ser mais do que uma sequência de posts — pode tornar-se um sistema de conhecimento representado. Os artigos são documentos, as categorias são taxonomia fraca, os links internos são arestas de grafo, as páginas principais são resumos canônicos, as páginas de séries são caminhos curados e a pesquisa é recuperação. Se você apenas publicar posts isolados, a recuperação terá que trabalhar mais. Se você construir uma representação forte, a recuperação torna-se mais fácil.
Isso significa:
- limites de cluster claros
- slugs estáveis
- páginas canônicas
- páginas de comparação
- explicadores no estilo de glossário
- links internos
- metadados estruturados
É por isso que a arquitetura do site importa — não apenas para SEO, mas porque é representação de conhecimento. O cluster de Gestão de Conhecimento neste site é em si um exemplo de publicação com foco na representação.
Como isso se aplica ao RAG
A qualidade do RAG depende fortemente da representação. Um corpus de fontes bem estruturado melhora:
- qualidade dos trechos
- precisão da recuperação
- qualidade da citação
- consistência da resposta
- clareza da avaliação
Antes de construir um pipeline RAG complexo, pergunte:
- Os documentos de fonte estão atualizados?
- As duplicatas foram removidas?
- Os conceitos importantes estão claramente nomeados?
- As páginas estão escopadas corretamente?
- Tabelas e blocos de código são recuperáveis?
- As respostas canônicas são óbvias?
- Os limites dos documentos são significativos?
Se a resposta for não, melhores embeddings ajudarão apenas até certo ponto.
Como isso se aplica ao LLM Wiki
O LLM Wiki é um padrão com foco na representação. É útil quando:
- o corpus é pequeno ou de tamanho médio
- o conhecimento é estável o suficiente para ser resumido
- a síntese repetida é cara
- humanos se beneficiam de páginas legíveis
- você quer estrutura antes da recuperação
É menos útil quando:
- o corpus é massivo
- o conteúdo muda constantemente
- a atualidade é mais importante do que a coerência
- a governança é fraca
- os resumos gerados não podem ser revisados
O LLM Wiki não é uma substituição para o RAG, mas uma camada diferente, e um sistema forte pode usar ambos:
- O LLM Wiki cria resumos estruturados.
- O RAG recupera de fontes brutas e páginas do wiki.
- A revisão humana mantém a representação confiável.
Padrões de arquitetura sugeridos
Padrão 1. Recuperação primeiro
Use quando a velocidade importa.
documentos
-> trechos
-> embeddings
-> recuperação
-> resposta do LLM
Bom para:
- protótipos
- pesquisa ampla
- grandes corpora
- experimentos iniciais
Fraqueza: a coerência depende da qualidade da fonte.
Padrão 2. Representação primeiro
Use quando a confiança importa.
fontes
-> páginas curadas
-> links internos
-> base de conhecimento mantida
-> pesquisa ou RAG
Bom para:
- documentação
- conhecimento técnico
- conteúdo a longo prazo
- conhecimento da equipe
Fraqueza: requer manutenção.
Padrão 3. Conhecimento compilado
Use quando a síntese repetida importa.
fontes brutas
-> extração do LLM
-> resumos gerados
-> páginas de tópicos
-> base de conhecimento revisada
-> recuperação
Bom para:
- sistemas LLM Wiki
- coleções de pesquisa
- bases de conhecimento pessoal
- domínios estáveis
Fraqueza: a estrutura gerada deve ser auditada.
Padrão 4. Arquitetura de conhecimento híbrida
Use quando estiver construindo sistemas sérios.
documentos brutos
-> camada de conhecimento estruturado
-> índice de pesquisa
-> recuperação e reclassificação
-> resposta de IA
-> feedback e manutenção
Bom para:
- RAG de produção
- sistemas de conhecimento interno
- assistentes de IA
- sistemas de publicação técnica
Fraqueza: mais partes móveis.
Perguntas de avaliação
Para avaliar a recuperação, pergunte:
- O sistema encontrou a fonte correta?
- Ele classificou a fonte correta altamente?
- Ele recuperou contexto suficiente?
- Ele evitou contexto irrelevante?
- A resposta citou a fonte correta?
Para avaliar a representação, pergunte:
- O conhecimento está estruturado claramente?
- Existe uma página canônica?
- Os conceitos são nomeados consistentemente?
- Os relacionamentos são explícitos?
- O conteúdo é mantido?
- Humanos e máquinas podem usá-lo?
Não avalie um sistema de conhecimento apenas pela qualidade da resposta — uma boa resposta pode esconder uma má estrutura.
A regra opinativa
Se o seu sistema falha ocasionalmente, melhore a recuperação. Se ele falha repetidamente na mesma área conceitual, melhore a representação.
Má recuperação perde a informação correta. Má representação significa que a informação correta realmente não existe em uma forma utilizável.
Conclusão
Recuperação e representação resolvem problemas diferentes: a recuperação dá acesso, a representação dá estrutura. O RAG é poderoso porque torna o conhecimento externo disponível para LLMs no momento da consulta, mas o RAG não torna automaticamente o conhecimento coerente, canônico ou mantido. É por isso que wikis, sistemas PKM, grafos de conhecimento e sistemas no estilo LLM Wiki ainda importam.
O futuro não é recuperação vs representação, mas sistemas de conhecimento em camadas:
- representação para estrutura
- recuperação para acesso
- memória para continuidade
- raciocínio para síntese
Se você está construindo um sistema de conhecimento sério, não comece com o banco de dados vetorial. Comece com a forma do conhecimento, depois decida como ele deve ser recuperado.
Fontes e leitura adicional
- Google Cloud — Geração Aumentada por Recuperação
- AWS — O que é Geração Aumentada por Recuperação?
- IBM — Geração Aumentada por Recuperação
- IBM — Gestão de Conhecimento
- Atlan — LLM Wiki vs Base de Conhecimento RAG
- Dev.to — RAG vs Memória de Agente vs LLM Wiki
- Starmorph — Guia de Base de Conhecimento LLM Wiki de Karpathy