大規模言語モデル(LLM)は対話型AIシステムに不可欠となっていますが、展開後は基本的に静的であり、相互作用のフィードバックからパラメータを更新できず、長期間の対話の中で同じ間違いを繰り返すことがあります。私たちは、凍結されたモデルバックボーンを変更せずに学習を可能にする継続的コンテキスト洗練のフレームワークであるDual-Process Agent(DPA)を提案します。認知科学の二重過程理論に着想を得て、DPAは各相互作用エピソードを二つの補完的プロセスに分解します:明示的な長期記憶からコンパクトで関連性の高いコンテキストを取得し応答を生成する高速のSystem 1と、結果を反映し厳選された更新を記憶に書き戻す低速のSystem 2です。長期の相互作用における記憶劣化を防ぐため、DPAは効用統計を持つ箇条書き形式の記憶エントリを維持し、一般的で冗長または矛盾した挿入を除外する保守的な管理者ゲートを採用しています。6つの多様なベンチマークでの実験は、DPAがGPT-5.1およびLlama-3.1-8Bバックボーンの両方でバニラプロンプティングや競合するベースラインを一貫して上回り、複数の推論および知識集約型タスクで最良の全体性能を達成することを示しています。
Building similarity graph...
Analyzing shared references across papers
Loading...
Liangyu Teng
Wei Ni
Liang Song
Electronics
Fudan University
China State Construction Engineering (China)
Building similarity graph...
Analyzing shared references across papers
Loading...
Tengら(Mon,)はこの課題を研究しました。
www.synapsesocial.com/papers/69ba423c4e9516ffd37a2598 — DOI: https://doi.org/10.3390/electronics15061232
Synapse has enriched 5 closely related papers on similar clinical questions. Consider them for comparative context: