Key points are not available for this paper at this time.
Transferlernen, bei dem ein Modell zuerst auf einer datenreichen Aufgabe vortrainiert wird, bevor es auf einer nachgelagerten Aufgabe feinabgestimmt wird, hat sich als leistungsstarke Technik in der natürlichen Sprachverarbeitung (NLP) etabliert. Die Effektivität des Transferlernens hat zu einer Vielfalt von Ansätzen, Methoden und Praktiken geführt. In diesem Papier untersuchen wir die Landschaft der Transferlerntechniken für NLP, indem wir einen einheitlichen Rahmen vorstellen, der alle textbasierten Sprachprobleme in ein Text-zu-Text-Format überführt. Unsere systematische Studie vergleicht Vortrainingsziele, Architekturen, unbeschriftete Datensätze, Transferansätze und andere Faktoren bei dutzenden von Aufgaben zum Sprachverständnis. Durch die Kombination der Erkenntnisse unserer Untersuchung mit Skalierung und unserem neuen „Colossal Clean Crawled Corpus“ erzielen wir state-of-the-art Ergebnisse in vielen Benchmarks, die Zusammenfassung, Fragebeantwortung, Textklassifikation und mehr abdecken. Um zukünftige Arbeiten zum Transferlernen für NLP zu erleichtern, veröffentlichen wir unseren Datensatz, vortrainierte Modelle und den Code.
Building similarity graph...
Analyzing shared references across papers
Loading...
Colin Raffel
Noam Shazeer
Adam P. Roberts
Journal of Machine Learning Research
Building similarity graph...
Analyzing shared references across papers
Loading...
Raffel et al. (Wed,) untersuchten diese Fragestellung.
www.synapsesocial.com/papers/6a0676e0731a8860c588c084 — DOI: https://doi.org/10.48550/arxiv.1910.10683
Synapse has enriched 4 closely related papers on similar clinical questions. Consider them for comparative context: