Agentes de codificação baseados em LLM lêem repetidamente arquivos-fonte para construir contexto, com cada resultado de chamada de ferramenta se acumulando no histórico da conversa e sendo retransmitido a cada turno subsequente. Apresentamos Karna, um grafo persistente de conhecimento de código que fornece contexto estruturado da base de código para agentes de IA via o Protocolo de Contexto do Modelo (MCP). Em um experimento A/B controlado com Claude Sonnet 4 em uma base de código de 1.125 arquivos, Karna alcança uma economia de 57,9% nos tokens de entrada em relação a uma linha de base de leitura de arquivos (p < 0,007, d de Cohen = 2,96). Identificamos adicionalmente o imposto do histórico da conversa — crescimento O(T²) dos tokens cumulativos de entrada com o número de turnos — como um fator de custo aplicável a todas as arquiteturas LLM aumentadas por ferramentas. Código: https://github.com/shaileshai/karna-ai
Building similarity graph...
Analyzing shared references across papers
Loading...
Shailesh Tripathi
Building similarity graph...
Analyzing shared references across papers
Loading...
Shailesh Tripathi (Sun,) estudou esta questão.
www.synapsesocial.com/papers/69d8958f6c1944d70ce06a08 — DOI: https://doi.org/10.5281/zenodo.19463351
Synapse has enriched 5 closely related papers on similar clinical questions. Consider them for comparative context: