11 out 2018 ano - BERT 模型发布
Descrição:
發布形式: Google AI 團隊的研究人員在預印本網站 arXiv 上提交了標題為《BERT: Pre-training of Deep Bidirectional Transformers for Language Understanding》的學術論文。
歷史意義: 如果說 Word2Vec 讓電腦理解了「詞」,那麼 BERT 則讓電腦真正理解了「上下文」。它基於 Transformer 架構,透過創新的「雙向訓練」方式,能夠同時考慮一個詞左右兩邊的語境,對語言的理解能力達到了前所未有的高度。BERT 的開源徹底改變了NLP領域的研究範式,後續絕大多數的NLP模型都受到了它的啟發。
Adicionado na linha do tempo:
Data: