Key points are not available for this paper at this time.
La capacité d'apprendre des tâches de manière séquentielle est cruciale pour le développement de l'intelligence artificielle. Jusqu'à présent, les réseaux neuronaux n'ont pas été capables de cela et on a largement pensé que l'oubli catastrophique est une caractéristique inévitable des modèles connexionnistes. Nous montrons qu'il est possible de surmonter cette limite et de former des réseaux pouvant maintenir leur expertise sur des tâches qu'ils n'ont pas pratiquées depuis longtemps. Notre approche se souvient des anciennes tâches en ralentissant sélectivement l'apprentissage sur les poids importants pour ces tâches. Nous démontrons que notre méthode est évolutive et efficace en résolvant un ensemble de tâches de classification basées sur un jeu de données de chiffres manuscrits et en apprenant plusieurs jeux Atari 2600 de manière séquentielle.
Building similarity graph...
Analyzing shared references across papers
Loading...
James Kirkpatrick
Razvan Pascanu
Neil C. Rabinowitz
Proceedings of the National Academy of Sciences
Imperial College London
DeepMind (United Kingdom)
Building similarity graph...
Analyzing shared references across papers
Loading...
Kirkpatrick et al. (Tue,) ont étudié cette question.
www.synapsesocial.com/papers/69d98341e6ab964fb0835e41 — DOI: https://doi.org/10.1073/pnas.1611835114
Synapse has enriched 5 closely related papers on similar clinical questions. Consider them for comparative context: