Key points are not available for this paper at this time.
우리는 7B에서 65B 매개변수에 이르는 기초 언어 모델 모음인 LLaMA를 소개합니다. 우리는 수조 개의 토큰으로 모델을 학습시켰으며, 독점적이고 접근 불가능한 데이터셋에 의존하지 않고 공개적으로 이용 가능한 데이터셋만으로 최첨단 모델을 학습시키는 것이 가능함을 보여줍니다. 특히, LLaMA-13B는 대부분의 벤치마크에서 GPT-3 (175B)를 능가하며, LLaMA-65B는 최고의 모델인 Chinchilla-70B 및 PaLM-540B와 경쟁력이 있습니다. 우리는 모든 모델을 연구 커뮤니티에 공개합니다.
Building similarity graph...
Analyzing shared references across papers
Loading...
Hugo Touvron
Thibaut Lavril
Gautier Izacard
Building similarity graph...
Analyzing shared references across papers
Loading...
Touvron 등 (월요일,)이 이 문제를 연구했습니다.
www.synapsesocial.com/papers/69d98341e6ab964fb0835e37 — DOI: https://doi.org/10.48550/arxiv.2302.13971