Key points are not available for this paper at this time.
L'explosion des données d'images sur Internet a le potentiel de favoriser des modèles et des algorithmes plus sophistiqués et robustes pour indexer, récupérer, organiser et interagir avec les images et les données multimédias. Mais la manière exacte dont ces données peuvent être exploitées et organisées reste un problème crucial. Nous présentons ici une nouvelle base de données appelée "ImageNet", une ontologie d'images à grande échelle construite sur la structure de base de WordNet. ImageNet vise à peupler la majorité des 80 000 synsets de WordNet avec en moyenne 500 à 1000 images propres et en pleine résolution. Cela aboutira à des dizaines de millions d'images annotées organisées selon la hiérarchie sémantique de WordNet. Cet article offre une analyse détaillée d'ImageNet dans son état actuel : 12 sous-arbres avec 5247 synsets et 3,2 millions d'images au total. Nous montrons qu'ImageNet est bien plus large en échelle et en diversité et bien plus précis que les bases de données d'images actuelles. Construire une base de données aussi grande est une tâche complexe. Nous décrivons le schéma de collecte des données via Amazon Mechanical Turk. Enfin, nous illustrons l'utilité d'ImageNet à travers trois applications simples en reconnaissance d'objets, classification d'images et regroupement automatique d'objets. Nous espérons que l'échelle, la précision, la diversité et la structure hiérarchique d'ImageNet offriront des opportunités incomparables aux chercheurs de la communauté de vision par ordinateur et au-delà.
Building similarity graph...
Analyzing shared references across papers
Loading...
Jia Deng
Wei Dong
Richard Socher
Princeton University
Building similarity graph...
Analyzing shared references across papers
Loading...
Deng et al. (Mon,) ont étudié cette question.
www.synapsesocial.com/papers/697b7ace3203c29797482717 — DOI: https://doi.org/10.1109/cvpr.2009.5206848
Synapse has enriched 5 closely related papers on similar clinical questions. Consider them for comparative context: