飞道的博客

Pytorch+Google BERT模型(RoBERTa+LSTM+GRU)实战

2808人阅读  评论(0)

Pytorch+Google BERT模型(RoBERTa+LSTM+GRU)实战

BERT(Bidirectional Encoder Representations from Transformers)模型的前置基础知识,读者可以参阅以下的文章:

本案例实现RoBERTa+LSTM+GRU模型,根据互联网新闻文本标题及内容,判断新闻的情感极性(正面、中性、负面),对新闻文本进行分类。

 

1.输入数据源

数据源是互联网


转载:https://blog.csdn.net/duan_zhihua/article/details/104285206
查看评论
* 以上用户言论只代表其个人观点,不代表本网站的观点或立场