Modelos de linguagem grandes (LLMs) estão sendo cada vez mais utilizados como agentes em ambientes dinâmicos do mundo real, onde o sucesso requer tanto raciocínio quanto uso eficaz de ferramentas. Um desafio central para tarefas agenticas é o crescimento do comprimento do contexto, já que os agentes devem acumular longos históricos de ações e observações. Essa expansão aumenta os custos e reduz a eficiência em tarefas de longo horizonte, apesar de trabalhos anteriores sobre compressão de contexto terem se concentrado principalmente em tarefas de passo único ou aplicações restritas. Introduzimos a Otimização de Contexto de Agente (ACON), uma estrutura unificada que comprime de forma ótima tanto as observações do ambiente quanto os históricos de interação em condensados concisos porém informativos. O ACON aproveita a otimização de diretrizes de compressão no espaço da linguagem natural: dadas trajetórias pareadas onde o contexto completo tem sucesso, mas o contexto comprimido falha, LLMs capazes analisam as causas da falha, e a diretriz de compressão é atualizada de acordo. Além disso, propomos destilar o compressor LLM otimizado em modelos menores para reduzir a sobrecarga do módulo adicional. Experimentos no AppWorld, OfficeBench e Multi-objective QA mostram que o ACON reduz o uso de memória em 26-54% (tokens de pico) enquanto preserva amplamente o desempenho da tarefa, mantém mais de 95% da acurácia quando destilado em compressores menores, e melhora modelos de linguagem menores como agentes de longo horizonte com até 46% de melhoria de desempenho.
Building similarity graph...
Analyzing shared references across papers
Loading...
Minki Kang
Weining Chen
Donglin Han
Building similarity graph...
Analyzing shared references across papers
Loading...
Kang et al. (Qua,) estudaram esta questão.
www.synapsesocial.com/papers/68e25378d6d66a53c2474110 — DOI: https://doi.org/10.48550/arxiv.2510.00615
Synapse has enriched 5 closely related papers on similar clinical questions. Consider them for comparative context: