AIbase
产品库工具导航

BERT-models-finetuning

Public

BERT(来自Transformer的双向编码器表示)是一种基于Transformer的语言表示学习方法。它是一个双向Transformer预训练模型,利用掩码语言建模和下一句预测两种任务在一个大型语料库上进行训练。

创建时间2020-07-29T19:52:46
更新时间2024-03-24T05:17:26
2
Stars
0
Stars Increase

相关项目