Key points are not available for this paper at this time.
Das Verständnis der Menschheit für die Welt ist grundlegend mit unserer Wahrnehmung und Kognition verbunden, wobei menschliche Sprachen als eine der Hauptträger weltweiten Wissens dienen. In diesem Sinne verkörpern Große Sprachmodelle (LLMs) wie ChatGPT das Vortraining umfangreichen, sequenzbasierten Weltwissens in neuronalen Netzen, das die Verarbeitung und Manipulation dieses Wissens in einem parametrischen Raum erleichtert. Dieser Artikel untersucht große Modelle durch die Linse des „Wissens“. Zunächst erforschen wir die Rolle symbolischen Wissens wie Wissensgrafen (KGs) bei der Verbesserung von LLMs, wobei Aspekte wie wissensunterstützte Sprachmodelle, strukturanregendes Vortraining, wissensbasierte Prompting, strukturierte CoT, Wissensbearbeitung, semantische Werkzeuge für LLM und wissensbasierte KI-Agenten behandelt werden. Anschließend betrachten wir, wie LLMs traditionelle symbolische Wissensbasen fördern können, einschließlich der Nutzung von LLM als KG-Ersteller und -Kontrolleur, strukturiertes Wissensvortraining und LLM-verbesserte symbolische Schlussfolgerung. Angesichts der komplexen Natur menschlichen Wissens plädieren wir für die Schaffung großer Wissensmodelle (LKM), die speziell dafür ausgelegt sind, ein vielfältiges Spektrum von Wissensstrukturen zu verwalten. Dieses vielversprechende Vorhaben würde mehrere Schlüsselherausforderungen mit sich bringen, wie die Entflechtung von Wissensbasis und Sprachmodellen, kognitive Angleichung an menschliches Wissen, Integration von Wahrnehmung und Kognition sowie den Aufbau großer Alltagslogik-Modelle zur Interaktion mit der physischen Welt, unter anderem. Abschließend schlagen wir ein fünf „A“-Prinzip vor, um das Konzept des LKM zu unterscheiden.
Building similarity graph...
Analyzing shared references across papers
Loading...
Huajun Chen
Data Intelligence
Zhejiang University
Building similarity graph...
Analyzing shared references across papers
Loading...
Huajun Chen (Tue,) hat diese Frage untersucht.
www.synapsesocial.com/papers/68e643d5b6db6435875d522b — DOI: https://doi.org/10.3724/2096-7004.di.2024.0001
Synapse has enriched 5 closely related papers on similar clinical questions. Consider them for comparative context: