LLM 기반 코딩 에이전트는 맥락을 구축하기 위해 소스 파일을 반복적으로 읽으며, 각 도구 호출 결과는 대화 기록에 누적되고 이후 모든 턴에서 다시 전송됩니다. 우리는 Model Context Protocol (MCP)을 통해 AI 에이전트에 구조화된 코드베이스 맥락을 제공하는 지속적 코드 지식 그래프 Karna를 제안합니다. 1,125개 파일 코드베이스에서 Claude Sonnet 4를 사용한 통제된 A/B 실험에서 Karna는 파일 읽기 기준선 대비 57.9%의 입력 토큰 절감 효과를 달성하였습니다 (p < 0.007, Cohen's d = 2.96). 또한 대화 기록 비용—턴 수에 따른 누적 입력 토큰의 O(T²) 증가—를 모든 도구 보강 LLM 아키텍처에 적용 가능한 비용 요인으로 규명하였습니다. 코드: https://github.com/shaileshai/karna-ai
Building similarity graph...
Analyzing shared references across papers
Loading...
Shailesh Tripathi
Building similarity graph...
Analyzing shared references across papers
Loading...
Shailesh Tripathi (Sun,)가 이 질문을 연구했다.
www.synapsesocial.com/papers/69d8958f6c1944d70ce06a08 — DOI: https://doi.org/10.5281/zenodo.19463351
Synapse has enriched 5 closely related papers on similar clinical questions. Consider them for comparative context: