Vincent131499 / Language_Understanding_based_BERT

基于BERT的预训练语言模型实现,分为两步:预训练和微调。目前已包括BERT、Roberta、ALbert三个模型,且皆可支持Whole Word Mask模式。
15Updated 4 years ago

Related projects: