通过有效整合用户交互历史来个性化语言模型,仍然是开发自适应人工智能系统的核心挑战。虽然结合了检索增强生成(RAG)的大型语言模型(LLMs)提高了事实准确性,但它们通常缺乏结构化记忆,且在复杂的长期交互中难以扩展。为了解决这一问题,我们提出了一个基于知识图谱的灵活外部记忆框架,该框架由LLM自动构建和更新,能够以多种格式编码信息——包括节点、三元组、更高阶的命题和情景记忆轨迹。基于AriGraph架构,我们引入了一种新颖的混合图设计,支持标准边和两种类型的超边,实现丰富且动态的语义和时间表示。我们的框架还支持多样化的检索机制,包括A*、水圈传播、束搜索和混合方法,使其能够适应不同的数据集和LLM能力。我们在三个基准测试——TriviaQA、HotpotQA和DiaASQ上评估了系统,结果表明不同的记忆和检索配置会根据任务需求产生最优性能。此外,我们对DiaASQ基准进行了扩展,加入了时间注释和内部矛盾陈述,显示我们的系统在管理时间依赖性和上下文感知推理方面依然保持稳健有效。
Building similarity graph...
Analyzing shared references across papers
Loading...
Mikhail A. Menschikov
Dmitry Evseev
Victoria Dochkina
Building similarity graph...
Analyzing shared references across papers
Loading...
Menschikov 等人(周五,)研究了这一问题。
www.synapsesocial.com/papers/68f12bfb2107091eab27a3df — DOI: https://doi.org/10.48550/arxiv.2506.17001
Synapse has enriched 5 closely related papers on similar clinical questions. Consider them for comparative context: