大型语言模型(LLMs)在各类任务中展现出良好效果,然而其推理能力仍是根本性挑战。开发具备强大推理能力的人工智能系统被视为实现人工通用智能(AGI)的关键里程碑,并受到学术界和工业界的广泛关注。多种技术已被探索以增强LLMs的推理能力,神经符号方法尤其具有前景。本文全面综述了用于提升LLM推理能力的神经符号方法的最新进展。我们首先对推理任务进行形式化定义,并简要介绍神经符号学习范式。随后,从Symbolic->LLM、LLM->Symbolic和LLM+Symbolic三个视角讨论了提升LLM推理能力的神经符号方法。最后,探讨了若干关键挑战和未来有希望的研究方向。我们也发布了包含与本综述相关论文和资源的GitHub仓库:https://github.com/LAMDASZ-ML/Awesome-LLM-Reasoning-with-NeSy。
Building similarity graph...
Analyzing shared references across papers
Loading...
Xin Yang
Jie-Jing Shao
Lan-Zhe Guo
Building similarity graph...
Analyzing shared references across papers
Loading...
Yang等人(Tue,)研究了这个问题。
www.synapsesocial.com/papers/68e9b1b5ba7d64b6fc131e55 — DOI: https://doi.org/10.48550/arxiv.2508.13678
Synapse has enriched 5 closely related papers on similar clinical questions. Consider them for comparative context: