大型语言模型(LLMs)在各种任务中表现出令人鼓舞的成果,然而它们的推理能力仍是一个根本性挑战。开发具备强大推理能力的人工智能系统被视为实现人工通用智能(AGI)的关键里程碑,且引起了学术界和工业界的广泛关注。为增强LLM的推理能力,已探索多种技术,其中神经符号方法尤为有前景。本文全面回顾了神经符号方法在提升LLM推理能力方面的最新进展。我们首先对推理任务进行形式化描述,并简要介绍神经符号学习范式。随后,从符号->LLM、LLM->符号及LLM+符号三种视角讨论了提升LLM推理能力的神经符号方法。最后,我们探讨了若干核心挑战和未来方向。我们还发布了包含本综述相关论文和资源的GitHub仓库:https://github.com/LAMDASZ-ML/Awesome-LLM-Reasoning-with-NeSy。
Building similarity graph...
Analyzing shared references across papers
Loading...
Xin Yang
Jie-Jing Shao
Lan-Zhe Guo
Nanjing University
Building similarity graph...
Analyzing shared references across papers
Loading...
Yang 等人在 (Thu,) 研究了该问题。
www.synapsesocial.com/papers/68d4764e31b076d99fa6e6d5 — DOI: https://doi.org/10.24963/ijcai.2024/1195
Synapse has enriched 5 closely related papers on similar clinical questions. Consider them for comparative context: