LLM-basierte Coding-Agenten lesen Quellcodedateien wiederholt ein, um Kontext aufzubauen, wobei jedes Tool-Aufrufergebnis in der Gesprächshistorie akkumuliert wird und bei jedem folgenden Schritt erneut übertragen wird. Wir stellen Karna vor, einen persistente Wissensgraphen für Code, der strukturierte Codebasis-Kontexte über das Model Context Protocol (MCP) an KI-Agenten bereitstellt. In einem kontrollierten A/B-Experiment mit Claude Sonnet 4 auf einer Codebasis mit 1.125 Dateien erzielt Karna 57,9 % Einsparungen bei Eingabe-Tokens gegenüber einer dateibasierenden Baseline (p < 0,007, Cohens d = 2,96). Zusätzlich identifizieren wir die Gesprächshistorien-Steuer – ein O(T²)-Wachstum der kumulativen Eingabe-Tokens mit Anzahl der Schritte – als Kostenfaktor, der für alle tool-unterstützten LLM-Architekturen gilt. Code: https://github.com/shaileshai/karna-ai
Building similarity graph...
Analyzing shared references across papers
Loading...
Shailesh Tripathi
Building similarity graph...
Analyzing shared references across papers
Loading...
Shailesh Tripathi (Sun,) untersuchte diese Fragestellung.
www.synapsesocial.com/papers/69d8958f6c1944d70ce06a08 — DOI: https://doi.org/10.5281/zenodo.19463351