Mit dem raschen Fortschritt der künstlichen Intelligenz (KI)-Technologien zeigen große Sprachmodelle (LLMs) bemerkenswerte Fähigkeiten bei der Problemlösung. Während LLMs die Verarbeitung natürlicher Sprache (NLP) revolutioniert haben, behindern ihre inhärenten Einschränkungen im strukturierten Denken die Leistung bei komplexen KI-Aufgaben, die mehrstufige Logik, kontextuelles Verständnis und Wissenssynthese erfordern. Dieses Papier bietet einen umfassenden Überblick über Ansätze zur Überbrückung dieser Lücke und kategorisiert Denktechniken in grundlegende und fortgeschrittene Paradigmen. Wir analysieren wegweisende Strategien – einschließlich Prompt Engineering, retrieval-unterstütztem Schließen und neuronalen-symbolischen Architekturen –, die vielfältige Perspektiven auf das Schließen während der Phasen der Abfrageformulierung, Informationsbeschaffung (IR) und Antwortgenerierung bieten. Durch die Etablierung einer Taxonomie von reasoning-verbesserten IR-Modellen und die Erkundung ihrer Anwendungen im Schließen zeigen wir messbare Verbesserungen in der Genauigkeit und Interpretierbarkeit zeitgenössischer LLMs, insbesondere modellbezogen auf IR. Dennoch fordern anhaltende Herausforderungen im multi-hop-Schlussfolgern, in der Konsistenz der Ausgaben und der Domänenanpassung zukünftige Anstrengungen, die sich auf modulare Systeme, dynamische Wissensintegration und trainingsmethoden mit Bewusstsein für Schließen konzentrieren. Unsere Erkenntnisse und Synthesen betonen, dass die nächste Evolution von LLMs – und bestimmten IR-Modellen gleichermaßen – nicht lediglich im Abrufen von Informationen liegt, sondern in der echten Fähigkeit, Informationen zu verstehen, zu behalten und mit ihnen zu schließen, was die menschliche Kognition widerspiegelt.
Building similarity graph...
Analyzing shared references across papers
Loading...
Yu Fu
Yu Kang
Yong Zhao
Building similarity graph...
Analyzing shared references across papers
Loading...
Fu et al. (Di,) untersuchten diese Fragestellung.
www.synapsesocial.com/papers/68f199c5de32064e504dcf5a — DOI: https://doi.org/10.20944/preprints202510.1024.v1
Synapse has enriched 5 closely related papers on similar clinical questions. Consider them for comparative context: