コンテキスト内学習(ICL)は、大規模言語モデル(LLM)の強力な能力を示しており、パラメータ調整なしで推論時に動的なタスク適応を可能にする—これはモデルベースのメタラーニング(MBML)原理に基づく枠組みである。もともとは指示追従や少数ショットのパターン補完に限定されていたICLは、現在では大きくその範囲を超えている。ICLは現在、エージェント的アーキテクチャ、推論能力、計画モジュールにおけるLLMの進歩の触媒として機能しつつ、急速なタスク間・パラダイム間・モダリティ間の適応を可能にする汎用学習エンジンへと進化している。この進展に基づき、本研究ではICLの多次元分類法を提示し、汎用学習エンジンを促進する新たなパターンを明らかにする。従来のICLの使用方法に焦点を当てた調査とは異なり、本研究はICLがなぜ発生するのかも検討し、その出現を形作る外側ループのインセンティブに結びつけている。分析では既存ベンチマークを批判し、評価手法の限界や一般化範囲の不確実性、効率的なメモリおよびコンテキストのスケーリング、データ要求の高さなど未解決の課題を指摘する。最近の進展と持続的なギャップを統合することで、本サーベイは将来の研究のための体系的基盤を提供し、スケーラブルで堅牢かつ多用途なICLシステムの開発を強調している。
Building similarity graph...
Analyzing shared references across papers
Loading...
Fan Wang
Yu Bo
Ping Shao
University of Science and Technology of China
Institute of Art
Building similarity graph...
Analyzing shared references across papers
Loading...
Wangら(Mon,)はこの問題を研究した。
www.synapsesocial.com/papers/68a366a20a429f797332c608 — DOI: https://doi.org/10.36227/techrxiv.175492111.15449662/v1
Synapse has enriched 5 closely related papers on similar clinical questions. Consider them for comparative context: