Los Modelos de Lenguaje Grandes (LLMs) se han vuelto esenciales para los sistemas de IA interactivos, pero permanecen fundamentalmente estáticos después de su despliegue: no pueden actualizar sus parámetros a partir del feedback de la interacción y a menudo repiten los mismos errores a lo largo de largas secuencias de interacción. Proponemos el Agente de Doble Proceso (DPA), un marco para el refinamiento continuo del contexto que permite el aprendizaje sin modificar un modelo base congelado. Inspirado en la teoría de doble proceso de la ciencia cognitiva, DPA descompone cada episodio de interacción en dos procesos complementarios: un Sistema 1 rápido que recupera contexto compacto y relevante de una memoria explícita a largo plazo y genera respuestas, y un Sistema 2 lento que reflexiona sobre los resultados y escribe actualizaciones seleccionadas de nuevo en la memoria. Para prevenir la degradación de la memoria durante interacciones prolongadas, DPA mantiene entradas de memoria en formato de viñetas con estadísticas de utilidad y emplea una puerta curadora conservadora que filtra inserciones genéricas, redundantes o conflictivas. Experimentos en seis puntos de referencia diversos demuestran que DPA supera consistentemente el prompting básico y baselines competitivos tanto en las bases GPT-5.1 como Llama-3.1-8B, logrando el mejor desempeño general en múltiples tareas que requieren razonamiento y conocimientos intensivos.
Building similarity graph...
Analyzing shared references across papers
Loading...
Liangyu Teng
Wei Ni
Liang Song
Electronics
Fudan University
China State Construction Engineering (China)
Building similarity graph...
Analyzing shared references across papers
Loading...
Teng et al. (Mon,) estudiaron esta cuestión.
www.synapsesocial.com/papers/69ba423c4e9516ffd37a2598 — DOI: https://doi.org/10.3390/electronics15061232
Synapse has enriched 5 closely related papers on similar clinical questions. Consider them for comparative context: