LLM-basierte Coding-Agenten lesen Quellcodedateien wiederholt, um Kontext aufzubauen, wobei jedes Tool-Aufrufergebnis in der Konversationshistorie akkumuliert und bei jedem folgenden Zug erneut übertragen wird. Wir stellen Karna vor, einen persistenten Code-Wissensgraphen, der strukturierte Codebasis-Kontexte über das Model Context Protocol (MCP) an KI-Agenten liefert. In einem kontrollierten A/B-Experiment mit Claude Sonnet 4 auf einer Codebasis mit 1.125 Dateien erreicht Karna eine Einsparung von 57,9 % bei den Eingabe-Token gegenüber einer Datei-Lese-Baseline (p < 0.007, Cohen's d = 2,96). Zudem identifizieren wir die Gesprächsverlaufssteuerung — O(T²)-Wachstum der kumulativen Eingabe-Token mit der Zuganzahl — als Kostenfaktor, der auf alle tool-unterstützten LLM-Architekturen anwendbar ist. Code: https://github.com/shaileshai/karna-ai
Building similarity graph...
Analyzing shared references across papers
Loading...
Shailesh Tripathi
Building similarity graph...
Analyzing shared references across papers
Loading...
Shailesh Tripathi (Sun,) untersuchte diese Fragestellung.
www.synapsesocial.com/papers/69d8958f6c1944d70ce06a08 — DOI: https://doi.org/10.5281/zenodo.19463351
Synapse has enriched 5 closely related papers on similar clinical questions. Consider them for comparative context: