BERT-models-finetuning
PublicBERT(来自Transformer的双向编码器表示)是一种基于Transformer的语言表示学习方法。它是一个双向Transformer预训练模型,利用掩码语言建模和下一句预测两种任务在一个大型语料库上进行训练。
albertbertdata-sciencedeep-learningdistilbertfine-tuningmachine-learningmulti-class-classificationnlppretrained-models
创建时间:2020-07-29T19:52:46
更新时间:2024-03-24T05:17:26
2
Stars
0
Stars Increase