Los puntos clave no están disponibles para este artículo en este momento.
El aprendizaje en contexto (ICL), que enseña a un modelo de lenguaje grande (LLM) a realizar una tarea con pocas demostraciones en lugar de ajustar los parámetros del modelo, ha emergido como un paradigma sólido para usar LLMs. Mientras que estudios tempranos usaban principalmente un conjunto fijo o aleatorio de demostraciones para todas las consultas de prueba, investigaciones recientes sugieren que recuperar demostraciones semánticamente similares a la entrada desde un conjunto disponible de demostraciones resulta en un mejor rendimiento. Este trabajo expande la aplicabilidad de los enfoques de ICL basados en recuperación a lo largo de varias dimensiones. Extendemos el éxito del ICL basado en recuperación a LLMs afinados con instrucciones así como al prompting de Cadena de Pensamiento (CoT). Mientras trabajos previos utilizan modelos generales de lenguaje grande (LLMs), como GPT-3, encontramos que las demostraciones recuperadas también mejoran los LLMs afinados con instrucciones. Esta observación implica que los datos de entrenamiento, a pesar de haber sido expuestos durante la fase de afinamiento, pueden aún usarse efectivamente mediante recuperación y demostraciones en contexto durante la prueba, resultando en mejores resultados comparados con la no utilización de demostraciones o su selección aleatoria. Para CoT, cuando las demostraciones contienen cadenas de razonamiento, obtenemos mejoras al recuperar basándonos en dichas cadenas. Finalmente, entrenamos un recuperador de demostraciones específico para la tarea que supera a los recuperadores estándar.
Building similarity graph...
Analyzing shared references across papers
Loading...
Man Luo
Xin Xu
Zhuyun Dai
Data Intelligence
Arizona State University
Google (United States)
Building similarity graph...
Analyzing shared references across papers
Loading...
Luo et al. (Mon,) estudiaron esta cuestión.
www.synapsesocial.com/papers/68e61deab6db6435875afd09 — DOI: https://doi.org/10.3724/2096-7004.di.2024.0012
Synapse has enriched 5 closely related papers on similar clinical questions. Consider them for comparative context: