什么是 Google 开源的 BERT ?
-
# BERT | Bidirectional Encoder Representation from Transformers文章目录想要了解更多 [NLP](https://easyai.tech/ai-definition/nlp/) 相关的内容,请访问 NLP专题 ,免费提供59页的NLP文档下载。
什么是 BERT?
heading.anchorLabelBERT的全称是Bidirectional Encoder Representation from Transformers,即双向Transformer的Encoder,因为decoder是不能获要预测的信息的。模型的主要创新点都在pre-train方法上,即用了Masked LM和Next Sentence Prediction两种方法分别捕捉词语和句子级别的representation。
从现在的大趋势来看,使用某种模型预训练一个语言模型看起来是一种比较靠谱的方法。从之前AI2的 ELMo,到 OpenAI的fine-tune transformer,再到Google的这个BERT,全都是对预训练的语言模型的应用。BERT这个模型与其它两个不同的是
-
它在训练双向语言模型时以减小的概率把少量的词替成了Mask或者另一个随机的词。我个人感觉这个目的在于使模型被迫增加对上下文的记忆。至于这个概率,我猜是Jacob拍脑袋随便设的。
-
增加了一个预测下一句的loss。这个看起来就比较新奇了。
BERT模型具有以下两个特点:
-
是这个模型非常的深,12层,并不宽(wide),中间层只有1024,而之前的Transformer模型中间层有2048。这似乎又印证了计算机图像处理的一个观点——深而窄 比 浅而宽 的模型更好。
-
MLM(Masked Language Model),同时利用左侧和右侧的词语,这个在ELMo上已经出现了,绝对不是原创。其次,对于Mask(遮挡)在语言模型上的应用,已经被Ziang Xie提出了(我很有幸的也参与到了这篇论文中):[1703.02573] Data Noising as Smoothing in Neural Network Language Models。这也是篇巨星云集的论文:Sida Wang,Jiwei Li(香侬科技的创始人兼CEO兼史上发文最多的NLP学者),Andrew Ng,Dan Jurafsky都是Coauthor。但很可惜的是他们没有关注到这篇论文。用这篇论文的方法去做Masking,相信BRET的能力说不定还会有提升。
内容来自:【NLP】Google BERT详解 | [NLP自然语言处理]谷歌BERT模型深度解析
入门类文章(3) 深入浅出解析BERT原理及其表征的内容(2019-8)
NLP新秀 : BERT的优雅解读(2019-2-18)
扩展视野类文章(16) BERT王者归来!Facebook推出RoBERTa新模型,碾压XLNet 制霸三大排行榜(2019-7)
Bert 改进: 如何融入知识(2019-7)
详解BERT阅读理解(2019-7)
XLNet:运行机制及和Bert的异同比较(2019-6)
站在BERT肩膀上的NLP新秀们(PART III)(2019-6)
站在BERT肩膀上的NLP新秀们(PART II)(2019-6)
站在BERT肩膀上的NLP新秀们(PART I)(2019-6)
BERT模型在NLP中目前取得如此好的效果,那下一步NLP该何去何从?(2019-6)
Bert时代的创新:Bert应用模式比较及其它(2019-5)
进一步改进GPT和BERT:使用Transformer的语言模型(2019-5)
76分钟训练BERT!谷歌大脑新型优化器LAMB加速大批量训练(2019-4-3)
从Word Embedding到Bert模型—自然语言处理中的预训练技术发展史
实践类文章(15) 美团BERT的探索和实践(2019-11)
加速 BERT 模型有多少种方法?从架构优化、模型压缩到模型蒸馏最新进展详解!(2019-10)
BERT, RoBERTa, DistilBERT, XLNet的用法对比(2019-9)
一大批中文(BERT等)预训练模型等你认领!(2019-6)
【GitHub】BERT模型从训练到部署全流程(2019-6)
Bert时代的创新:Bert在NLP各领域的应用进展(2019-6)
BERT fintune 的艺术(2019-5)
中文语料的 Bert finetune(2019-5)
BERT源码分析PART III(2019-5)
BERT源码分析PART II(2019-5)
2019年1月21日 by [打不死的小强](https://easyai.tech/author/xiaoqiang/) Updated: 2022年8月15日
- ** [自然语言处理](https://easyai.tech/ai-definition-category/nlp/)
- ** [BERT](https://easyai.tech/ai-definition-tag/bert/), [google](https://easyai.tech/ai-definition-tag/google/), [NLP](https://easyai.tech/ai-definition-tag/nlp/)
Thanks for your rating!
You have already rated this article
An error occured, please try again later
Was This Article Helpful?
** 5