33
/pt/
AIzaSyB4mHJ5NPEv-XzF7P6NDYXjlkCWaeKw5bc
November 30, 2025
10492056
1005895
1
Public Timelines
FAQ

11 jun 2018 ano - GPT-1 概念诞生

Descrição:

全称: Generative Pre-trained Transformer 1

发布时间: 论文《通过生成式预训练提升语言理解能力》于2018年6月11日发布。

核心创新:

证明了Transformer架构的潜力: 首次将谷歌在2017年提出的Transformer架构成功应用于无监督的生成式预训练任务。

确立了“预训练+微调”范式: 在巨大的通用文本数据集(BookCorpus)上进行预训练,学习语言的通用规律,然后再针对具体任务(如分类、问答)进行少量数据的微调。这大大提升了模型在各种NLP任务上的表现。

规模: 1.17亿参数。

意义: 开创者和探路者。GPT-1证明了大规模无监督预训练的可行性和巨大潜力,为后续所有GPT模型的发展奠定了基础。

Adicionado na linha do tempo:

1 meses atrás
0
0
78

Data:

11 jun 2018 ano
Agora
~ 7 years and 4 months ago