Key points are not available for this paper at this time.
タスクを連続的に学習する能力は、人工知能の発展にとって不可欠です。これまでニューラルネットワークはこれができず、壊滅的忘却はコネクショニストモデルの避けられない特徴であると広く考えられてきました。我々は、この制限を克服し、長期間経験していないタスクに関する専門性を維持できるネットワークを訓練することが可能であることを示します。我々の手法は、重要な重みに対する学習を選択的に遅らせることで古いタスクを記憶します。この手法のスケーラビリティと効果は、手書き数字データセットに基づく一連の分類タスクの解決や、複数のAtari 2600ゲームの順次学習によって実証されています。
Building similarity graph...
Analyzing shared references across papers
Loading...
James Kirkpatrick
Razvan Pascanu
Neil C. Rabinowitz
Proceedings of the National Academy of Sciences
Imperial College London
DeepMind (United Kingdom)
Building similarity graph...
Analyzing shared references across papers
Loading...
Kirkpatrickらはこの問題を研究しました。
www.synapsesocial.com/papers/69d98341e6ab964fb0835e41 — DOI: https://doi.org/10.1073/pnas.1611835114
Synapse has enriched 5 closely related papers on similar clinical questions. Consider them for comparative context: