Grandes Modelos de Linguagem (LLMs) tornaram-se essenciais para sistemas de IA interativos, porém permanecem fundamentalmente estáticos após o lançamento: eles não podem atualizar seus parâmetros a partir do feedback da interação e frequentemente repetem os mesmos erros ao longo de longas sequências de interação. Propomos o Agente de Duplo Processo (DPA), uma estrutura para refinamento contínuo de contexto que possibilita o aprendizado sem modificar a espinha dorsal do modelo congelado. Inspirado pela teoria de duplo processo da ciência cognitiva, o DPA decompõe cada episódio de interação em dois processos complementares: um Sistema 1 rápido que recupera contexto compacto e relevante de uma memória de longo prazo explícita e gera respostas, e um Sistema 2 lento que reflete sobre os resultados e escreve atualizações selecionadas de volta na memória. Para evitar a degradação da memória em interações prolongadas, o DPA mantém entradas de memória em formato de bullet points com estatísticas de utilidade e emprega um portão curador conservador que filtra inserções genéricas, redundantes ou conflitantes. Experimentos em seis benchmarks diversos demonstram que o DPA supera consistentemente o prompting padrão e linhas de base competitivas tanto nos backbones GPT-5.1 quanto Llama-3.1-8B, alcançando o melhor desempenho geral em múltiplas tarefas que exigem raciocínio e conhecimento intensivo.
Building similarity graph...
Analyzing shared references across papers
Loading...
Liangyu Teng
Wei Ni
Liang Song
Electronics
Fudan University
China State Construction Engineering (China)
Building similarity graph...
Analyzing shared references across papers
Loading...
Teng et al. (Mon,) estudaram essa questão.
www.synapsesocial.com/papers/69ba423c4e9516ffd37a2598 — DOI: https://doi.org/10.3390/electronics15061232
Synapse has enriched 5 closely related papers on similar clinical questions. Consider them for comparative context: