Key points are not available for this paper at this time.
Transformer é um modelo de aprendizado de máquina baseado no mecanismo de atenção, amplamente utilizado. Quando o modelo Transformer foi proposto inicialmente, ele gradualmente desenvolveu muitas variantes e foi promovido e aplicado em diversos campos, tornando-se uma parte importante da pesquisa nas áreas de aprendizado profundo. No entanto, o mecanismo crítico de atenção dos Transformers apresenta problemas como complexidade quadrática que afetam a velocidade computacional e a eficiência do processamento de dados. Para atender às necessidades de processamento de dados e computação relacionada, foram feitos inúmeros esforços para melhorar o mecanismo de atenção nos Transformers em diferentes áreas de trabalho. Este artigo fornece principalmente uma visão geral dos avanços recentes na pesquisa sobre o mecanismo de atenção nos Transformers. Seleciona estudos representativos de várias direções do trabalho de melhoria da atenção para introduzir, a fim de explorar as tendências mais recentes da pesquisa nesse campo e estabelecer uma base para apontar potenciais direções de pesquisa para trabalhos futuros e aprimorar ainda mais o desempenho dos Transformers.
Building similarity graph...
Analyzing shared references across papers
Loading...
Yuzhong Chen
Hongren Pu
Qu Yang
Applied and Computational Engineering
Sichuan University
Taiyuan University of Technology
Xi’an Jiaotong-Liverpool University
Building similarity graph...
Analyzing shared references across papers
Loading...
Chen et al. (Sex,) estudaram esta questão.
www.synapsesocial.com/papers/68e73ec2b6db6435876b81c9 — DOI: https://doi.org/10.54254/2755-2721/47/20241291
Synapse has enriched 5 closely related papers on similar clinical questions. Consider them for comparative context: