33
/pt/
AIzaSyB4mHJ5NPEv-XzF7P6NDYXjlkCWaeKw5bc
November 30, 2025
10492055
1005895
1
Public Timelines
FAQ

11 out 2018 ano - BERT 模型发布

Descrição:

發布形式: Google AI 團隊的研究人員在預印本網站 arXiv 上提交了標題為《BERT: Pre-training of Deep Bidirectional Transformers for Language Understanding》的學術論文。

歷史意義: 如果說 Word2Vec 讓電腦理解了「詞」,那麼 BERT 則讓電腦真正理解了「上下文」。它基於 Transformer 架構,透過創新的「雙向訓練」方式,能夠同時考慮一個詞左右兩邊的語境,對語言的理解能力達到了前所未有的高度。BERT 的開源徹底改變了NLP領域的研究範式,後續絕大多數的NLP模型都受到了它的啟發。

Adicionado na linha do tempo:

1 meses atrás
0
0
78

Data:

11 out 2018 ano
Agora
~ 7 years ago