Los puntos clave no están disponibles para este artículo en este momento.
Métodos recientes para aprender representaciones en espacio vectorial de palabras han logrado capturar regularidades semánticas y sintácticas finamente detalladas mediante aritmética vectorial, pero el origen de estas regularidades ha permanecido opaco. Analizamos y explicitamos las propiedades del modelo necesarias para que tales regularidades emerjan en los vectores de palabras. El resultado es un nuevo modelo global de regresión log-bilineal que combina las ventajas de las dos principales familias de modelos en la literatura: factorización global de matrices y métodos locales de ventana de contexto. Nuestro modelo aprovecha eficazmente la información estadística entrenando solo con los elementos no nulos en una matriz de co-ocurrencia palabra-palabra, en lugar de sobre la matriz dispersa completa o sobre ventanas de contexto individuales en un gran corpus. El modelo produce un espacio vectorial con una subestructura significativa, evidenciado por su desempeño del 75 % en una reciente tarea de analogía de palabras. También supera a modelos relacionados en tareas de similitud y reconocimiento de entidades nombradas. 1
Building similarity graph...
Analyzing shared references across papers
Loading...
Jeffrey Pennington
Richard Socher
Christopher D. Manning
Stanford University
Building similarity graph...
Analyzing shared references across papers
Loading...
Pennington et al. (mié,) estudiaron esta cuestión.
www.synapsesocial.com/papers/69d73f3ec74376700bf310e6 — DOI: https://doi.org/10.3115/v1/d14-1162