Key points are not available for this paper at this time.
Avec l'augmentation des capacités des grands modèles de langage (LLMs), l'apprentissage en contexte (ICL) a évolué en un nouveau paradigme pour le traitement du langage naturel (NLP), où au lieu d'ajuster finement les paramètres d'un LLM spécifique à une tâche en aval avec des exemples étiquetés, un petit nombre de ces exemples est ajouté à une instruction de prompt pour contrôler le processus de génération du décodeur. L'ICL est donc conceptuellement similaire à une approche non paramétrique, comme k-NN, où la prédiction pour chaque instance dépend essentiellement de la topologie locale, c'est-à-dire d'un ensemble localisé d'exemples similaires et de leurs étiquettes (appelés exemples few-shot). Cela suggère qu'une instance test en ICL est analogue à une requête en RI, et que des exemples similaires en ICL extraits d'un ensemble d'entraînement correspondent à un ensemble de documents extraits d'une collection en RI. Alors que les modèles de classement non supervisés standard peuvent être utilisés pour extraire ces exemples few-shot d'un ensemble d'entraînement, l'efficacité des exemples peut potentiellement être améliorée en redéfinissant la notion de pertinence spécifique à son utilité pour la tâche en aval, c'est-à-dire en considérant un exemple comme pertinent si son inclusion dans l'instruction du prompt conduit à une prédiction correcte. Avec cette notion de pertinence spécifique à la tâche, il est possible d'entraîner un modèle de classement supervisé (p. ex., un bi-encodeur ou cross-encodeur), qui apprend potentiellement à sélectionner de manière optimale les exemples few-shot. Nous pensons que les avancées récentes dans les classifieurs neuronaux peuvent potentiellement trouver un cas d'utilisation pour cette tâche de choix optimal d'exemples pour des prédictions ICL plus efficaces en aval.
Building similarity graph...
Analyzing shared references across papers
Loading...
Andrew Parry
Debasis Ganguly
Manish Chandra
University of Glasgow
Building similarity graph...
Analyzing shared references across papers
Loading...
Parry et al. (mer.) ont étudié cette question.
www.synapsesocial.com/papers/68e60be9b6db64358759ea8c — DOI: https://doi.org/10.1145/3626772.3657842
Synapse has enriched 5 closely related papers on similar clinical questions. Consider them for comparative context: