Key points are not available for this paper at this time.
Die Fähigkeit, Aufgaben nacheinander zu erlernen, ist entscheidend für die Entwicklung künstlicher Intelligenz. Bis jetzt waren neuronale Netze dazu nicht in der Lage, und es wurde weithin angenommen, dass katastrophales Vergessen eine unvermeidliche Eigenschaft von konnektionistischen Modellen ist. Wir zeigen, dass es möglich ist, diese Einschränkung zu überwinden und Netze zu trainieren, die Fachwissen in Aufgaben bewahren können, die sie lange nicht durchlaufen haben. Unser Ansatz erinnert sich an alte Aufgaben, indem das Lernen der für diese Aufgaben wichtigen Gewichte selektiv verlangsamt wird. Wir demonstrieren, dass unser Ansatz skalierbar und effektiv ist, indem wir eine Reihe von Klassifizierungsaufgaben basierend auf einem handschriftlichen Zifferndatensatz lösen und mehrere Atari 2600 Spiele nacheinander erlernen.
Building similarity graph...
Analyzing shared references across papers
Loading...
James Kirkpatrick
Razvan Pascanu
Neil C. Rabinowitz
Proceedings of the National Academy of Sciences
Imperial College London
DeepMind (United Kingdom)
Building similarity graph...
Analyzing shared references across papers
Loading...
Kirkpatrick et al. (Di,) haben diese Fragestellung untersucht.
www.synapsesocial.com/papers/69d98341e6ab964fb0835e41 — DOI: https://doi.org/10.1073/pnas.1611835114
Synapse has enriched 5 closely related papers on similar clinical questions. Consider them for comparative context: