Los agentes de codificación basados en LLM leen repetidamente archivos fuente para construir contexto, acumulando cada resultado de llamada de herramienta en el historial de conversación que se retransmite en cada turno posterior. Presentamos Karna, un gráfico de conocimiento persistente del código que proporciona contexto estructurado de la base de código a agentes de IA mediante el Protocolo de Contexto de Modelo (MCP). En un experimento controlado A/B con Claude Sonnet 4 en una base de código de 1.125 archivos, Karna logra un ahorro del 57,9 % en tokens de entrada respecto a la línea base de lectura de archivos (p < 0,007, d de Cohen = 2,96). Además, identificamos el impuesto del historial de conversación — crecimiento O(T²) de tokens de entrada acumulados según el número de turnos — como un factor de coste aplicable a todas las arquitecturas LLM aumentadas con herramientas. Código: https://github.com/shaileshai/karna-ai
Building similarity graph...
Analyzing shared references across papers
Loading...
Shailesh Tripathi
Building similarity graph...
Analyzing shared references across papers
Loading...
Shailesh Tripathi (Sun,) estudió esta cuestión.
www.synapsesocial.com/papers/69d8958f6c1944d70ce06a08 — DOI: https://doi.org/10.5281/zenodo.19463351
Synapse has enriched 5 closely related papers on similar clinical questions. Consider them for comparative context: