大型语言模型(LLMs)在各种任务中表现出令人鼓舞的成果,但其推理能力仍然是一个根本性挑战。开发具备强推理能力的人工智能系统被视为实现人工通用智能(AGI)的关键里程碑,且已获得学术界和工业界的广泛关注。为增强LLM的推理能力,各种技术被探索,其中神经符号方法尤为有前景。本文全面回顾了近期在利用神经符号方法提升LLM推理能力方面的进展。我们首先形式化推理任务,并简要介绍神经符号学习范式。随后,我们从三种视角讨论提升LLM推理能力的神经符号方法:符号到LLM(Symbolic->LLM)、LLM到符号(LLM->Symbolic)以及LLM与符号结合(LLM+Symbolic)。最后,我们探讨了若干关键挑战及未来有希望的方向。我们还发布了一个包含相关论文和资源的GitHub仓库:https://github.com/LAMDASZ-ML/Awesome-LLM-Reasoning-with-NeSy。
Building similarity graph...
Analyzing shared references across papers
Loading...
杨等人(Mon,)研究了这一问题。
www.synapsesocial.com/papers/68d469d631b076d99fa6716d — DOI: https://doi.org/10.24963/ijcai.2025/1195
Synapse has enriched 5 closely related papers on similar clinical questions. Consider them for comparative context:
Xin Yang
Jie-Jing Shao
Lan-Zhe Guo
Nanjing University
Building similarity graph...
Analyzing shared references across papers
Loading...