Key points are not available for this paper at this time.
Treinamos uma grande e profunda rede neural convolucional para classificar as 1,2 milhões de imagens de alta resolução no concurso ImageNet LSVRC-2010 em 1000 classes diferentes. Nos dados de teste, alcançamos taxas de erro top-1 e top-5 de 37,5% e 17,0%, respectivamente, o que é consideravelmente melhor que o estado da arte anterior. A rede neural, que possui 60 milhões de parâmetros e 650.000 neurônios, consiste de cinco camadas convolucionais, algumas das quais seguidas por camadas de max-pooling, e três camadas totalmente conectadas com uma softmax final de 1000 vias. Para acelerar o treinamento, utilizamos neurônios não saturantes e uma implementação eficiente da operação de convolução em GPU. Para reduzir o overfitting nas camadas totalmente conectadas, empregamos um método de regularização recentemente desenvolvido chamado "dropout", que se mostrou muito eficaz. Também submetemos uma variante desse modelo na competição ILSVRC-2012 e alcançamos uma taxa de erro top-5 vencedora de 15,3%, comparada a 26,2% obtida pela segunda melhor entrada.
Building similarity graph...
Analyzing shared references across papers
Loading...
Alex Krizhevsky
Ilya Sutskever
Geoffrey E. Hinton
Communications of the ACM
University of Toronto
Building similarity graph...
Analyzing shared references across papers
Loading...
Krizhevsky et al. (Qua,) estudaram esta questão.
www.synapsesocial.com/papers/6952f892a91d4d47a20b9c05 — DOI: https://doi.org/10.1145/3065386
Synapse has enriched 5 closely related papers on similar clinical questions. Consider them for comparative context: