大型言語モデル(LLM)の最近の進歩は、自然言語理解と生成において顕著な能力を示しています。さらに事実に基づく根拠と推論の忠実性を高めるために、LLMと知識グラフ(KG)を統合することが有望な方向として浮上しています。検索拡張生成(Retrieval-Augmented Generation)などの方法によってKGを活用し、LLMの推論を強化する上で重要な進展がありました。しかし、堅牢で信頼性の高い推論のためにLLMとKGの協調を効果的に活用することは依然として重要な課題です。具体的には:(1)LLMはテキストベースの訓練とKGの記号的表現との不一致により、KGの構造化された性質を効果的に解釈・活用するのが困難である;(2)構造化知識に基づくKGの問い合わせと推論はLLMにとって非効率なままであり、複雑な推論を妨げている。これらの制約に対処するために、我々はメタ知識強化知識グラフ(MKG)という新しい枠組みを提案します。MKGは、自己修正機構を備えたマルチストアメモリに保存されたメタ知識を用いて、LLMにKGの検索と推論を効果的に指導します。我々の複雑な質問応答ベンチマークにおける実験評価では、MKGが著しい性能向上を示し、基準となるオリジナルLLM、検索拡張生成(RAG)、ReAct、GraphRAG、ToGの各フレームワークをそれぞれ25%、17%、11%、3.3%、2.6%上回ることを示しました。
Building similarity graph...
Analyzing shared references across papers
Loading...
Zhangら(Wed,)はこの問いを研究しました。
www.synapsesocial.com/papers/69c6201515a0a509bde18757 — DOI: https://doi.org/10.1145/3797906
Synapse has enriched 5 closely related papers on similar clinical questions. Consider them for comparative context:
Wei Zhang
Guojun Dai
Deli Luo
ACM Transactions on Intelligent Systems and Technology
Hangzhou Dianzi University
Building similarity graph...
Analyzing shared references across papers
Loading...