飞道的博客

Pytorch LSTM实现中文单词预测(附完整训练代码)

489人阅读  评论(0)

Pytorch LSTM实现中文单词预测(附完整训练代码)

目录

Pytorch LSTM实现中文单词预测(词语预测 附完整训练代码)

1、项目介绍

2、中文单词预测方法(N-Gram 模型)

3、训练词嵌入word2vec(可选)

4、文本预处理

(1)句子分词处理:jieba中文分词

(2)特殊字符处理

(3)文本数据增强

(4)样本均衡(重点)

5、训练过程 

(1)项目框架说明

(2)准备文本数据

(3)配置文件:config.yaml

(4)开始训练

(6)一些优化建议

6. 模型测试效果

7.项目源码下载


1、项目介绍

本文将分享一个NLP项目实例,实现一个类似于中文输入法中联想的功能;项目利用深度学习框架Pytorch,构建一个LSTM(也支持NGram,TextCNN,LSTM,BiLSTM等)模型,实现一个简易的中文单词预测(词语预测)功能,该功能可以根据用户输入的中文语句,自动预测(补充)词语;基于该项目训练的中文单词预测(词语预测)模型,在自定义的数据集上Top-1准确率最高可以达到91%左右,Top-5准确率最高可以达到97%左右。

模型 context_size embedding_dim Top-1准确率 Top-3准确率 Top-5准确率
NGram 8 128 0.8630 0.9180 0.9357
TextCNN 8 128 0.9065 0.9621 0.9730
LSTM 8 128 0.9088

0.9535

0.9667
BiLSTM 8 128 0.9100 0.9575 0.9673

如果,你想学习NLP中文文本分类,可参考另一篇博文《Pytorch TextCNN实现中文文本分类(附完整训练代码)

【尊重原则,转载请注明出处】https://blog.csdn.net/guyuealian/article/details/128582675


2、中文单词预测方法(N-Gram 模型)

首先简单介绍一下 N-Gram 模型的原理:对于一英文句话,单词的排列顺序是非常重要的,所以我们能否由前面的几个词来预测后面的几个单词呢,比如 'I lived in France for 10 years, I can speak _' 这句话中,我们能够预测出最后一个词是 French。

对于一句话T,其由w1,w2....wn这n个词构成,可以得到下面的公式:

但是这样的一个模型参数过大,预测一个词需要前面所有的词作为条件来计算概率。我们可以再简化一下这个模型,比如对于一个词,并不需要前面所有的词作为条件概率,也就是说一个词可以只与其前面的几个词有关,这就是马尔科夫假设

对于这里的条件概率,传统的方法是统计语料中每个词出现的频率,根据贝叶斯定理来估计这个条件概率,这里我们就可以用词嵌入对其进行代替,然后使用 RNN 进行条件概率的计算,然后最大化这个条件概率不仅修改词嵌入,同时能够使得模型可以依据计算的条件概率对其中的一个单词进行预测。

类似的,对于中文,我们也可以这样进行处理,比如一个简单的语句:【我是一名中国人】,我们希望如果我们输入【我是一名】,模型输出结果是【中国人】;只不过中文不像英文那样有明显空格作为单词分隔符,中文语句需要我们自己按照一定规则进行字词分割,这个工具可以使用jieba中文分词工具。

下面定义一个简单的NGram模型:


  
  1. # -*-coding: utf-8 -*-
  2. """
  3. @Author : 390737991
  4. @E-mail : 390737991@163.com
  5. @Date : 2022-11-01 17:54:33
  6. @Brief :
  7. """
  8. import torch
  9. import torch.nn as nn
  10. import torch.nn.functional as F
  11. class NGram(nn.Module):
  12. """N-Gram模型m"""
  13. def __init__( self, num_classes, context_size, num_embeddings, embedding_dim=128, embeddings_pretrained=None):
  14. """
  15. :param num_classes: 输出维度(类别数num_classes)
  16. :param context_size: 句子长度
  17. :param num_embeddings: size of the dictionary of embeddings,词典的大小(vocab_size)
  18. :param embedding_dim: the size of each embedding vector,词向量特征长度
  19. :param embeddings_pretrained: embeddings pretrained参数,默认None
  20. :return:
  21. """
  22. self.num_classes = num_classes
  23. self.num_embeddings = num_embeddings
  24. super(NGram, self).__init__()
  25. # embedding层
  26. if self.num_embeddings > 0:
  27. # embedding之后的shape: torch.Size([200, 8, 300])
  28. self.embedding = nn.Embedding(num_embeddings, embedding_dim)
  29. if embeddings_pretrained is not None:
  30. self.embedding = self.embedding.from_pretrained(embeddings_pretrained, freeze= False)
  31. self.classify = nn.Sequential(
  32. nn.Dropout(p= 0.2),
  33. nn.Linear(embedding_dim * context_size, 512),
  34. nn.ReLU( True),
  35. nn.Dropout(p= 0.2),
  36. nn.Linear( 512, self.num_classes)
  37. )
  38. def forward( self, x):
  39. if self.num_embeddings > 0:
  40. x = self.embedding(x) # 得到词嵌入
  41. x = x.view(x.size( 0), - 1) # 将两个词向量拼在一起
  42. out = self.classify(x)
  43. return out
  44. if __name__ == "__main__":
  45. batch_size = 2
  46. num_classes = 100
  47. num_embeddings = num_classes # 预测的类别数目和单词数目一样
  48. context_size = 8 # 句子长度,即最大依赖的单词数目
  49. input = torch.ones(batch_size, context_size).long().cuda()
  50. model = NGram(num_classes, context_size, num_embeddings=num_embeddings, embedding_dim= 64).cuda()
  51. print(model)
  52. out = model( input)
  53. print(out)
  54. print( "input", input.shape)
  55. print( "out ", out.shape)

上面我们定义了一个NGram模型,其中参数 context_size 表示句子最大长度,表示我们希望由前面几个单词来预测这个单词,这里context_size=8个,表示由8单词(不足8个可以填充)预测1个单词;embedding_dim 表示词嵌入的维度,即词向量特征长度。num_embeddings是词典的大小,即我们字库的个数大小,由于输出预测的类别数等于词典的字词数的大小,所num_embeddings = num_classes

NGram模型比较简单,如果去除Embedding层,其实就是一个由2层全连接层构成的模型;在实际应用中,效果比较差的,只能作为介绍使用;后续项目,将以LSTM模型为例,进行训练和测试,LSTM模型定义如下,其中我增加LayerNorm用于归一化数据,其作用类似于CNN中的BatchNorm。


  
  1. import torch
  2. import torch.nn as nn
  3. import torch.nn.functional as F
  4. class LayerNorm(nn.Module):
  5. """nn.LayerNorm"""
  6. def __init__( self, hidden_size, eps=1e-6):
  7. super().__init__()
  8. self.eps = eps
  9. self.weight = nn.Parameter(torch.ones(hidden_size))
  10. self.bias = nn.Parameter(torch.zeros(hidden_size))
  11. def forward( self, input):
  12. mu = torch.mean( input, dim=- 1, keepdim= True)
  13. sigma = torch.std( input, dim=- 1, keepdim= True).clamp( min=self.eps)
  14. output = ( input - mu) / sigma
  15. return output * self.weight.expand_as(output) + self.bias.expand_as(output)
  16. class LSTMNet(nn.Module):
  17. def __init__( self, num_classes, num_embeddings, embedding_dim=64, hidden_size=128, num_layers=2,
  18. batch_first=True, bidirectional=False, dropout=0, use_norm=True, embeddings_pretrained=None):
  19. """
  20. https://github.com/ne7ermore/torch-light/blob/master/lstm-text-classfication/model.py
  21. input为(batch,context_size,input_size)=(batch,context_size,dim_size)
  22. :param num_classes: 输出维度(类别数num_classes)
  23. :param num_embeddings: size of the dictionary of embeddings,词典的大小(vocab_size)
  24. :param embedding_dim: 输入特征的数目,输入向量维数
  25. :param hidden_size: 隐层的特征数目
  26. :param num_layers: 这个是模型集成的LSTM的个数 记住这里是模型中有多少个LSTM摞起来 一般默认就1个
  27. :param batch_first:
  28. :param bidirectional: True 代表使用双向LSTM
  29. """
  30. super(LSTMNet, self).__init__()
  31. self.use_norm = use_norm
  32. self.num_classes = num_classes
  33. self.num_embeddings = num_embeddings
  34. # embedding层
  35. if self.num_embeddings > 0:
  36. self.embedding = nn.Embedding(num_embeddings, embedding_dim) # embedding之后的shape: torch.Size([200, 8, 300])
  37. if embeddings_pretrained is not None:
  38. self.embedding = self.embedding.from_pretrained(embeddings_pretrained, freeze= False)
  39. num_directions = 2 if bidirectional else 1
  40. self.lstm = nn.LSTM(input_size=embedding_dim, hidden_size=hidden_size,
  41. num_layers=num_layers, batch_first=batch_first,
  42. bidirectional=bidirectional, dropout=dropout)
  43. if self.use_norm:
  44. self.layer_norm = LayerNorm(hidden_size * num_directions)
  45. # self.layer_norm = nn.LayerNorm(hidden_size * num_directions)
  46. # 输出层
  47. self.classify = nn.Sequential(
  48. nn.Dropout(p= 0.2),
  49. nn.Linear(hidden_size * num_directions, self.num_classes)
  50. )
  51. def forward( self, x):
  52. """
  53. :param x: x's shape (batch_size, 序列长度, 序列中每个数据的长度)
  54. :return:
  55. """
  56. if self.num_embeddings > 0:
  57. x = self.embedding(x) # 得到词嵌入(b,context_size)-->(b,context_size,embedding_dim)
  58. x, _, = self.lstm(x) # x's shape (batch_size, 序列长度, hidden_dim)
  59. if self.use_norm:
  60. x = self.layer_norm(x)
  61. x = x[:, - 1, :] # 中间的序列长度取-1,表示取序列中的最后一个数据,这个数据长度为hidden_dim,
  62. # 得到的out的shape为(batch_size, hidden_dim)
  63. x = self.classify(x) # 经过线性层后,out的shape为(batch_size, n_class)
  64. return x
  65. def forward_bk( self, inputs):
  66. # x.shape : batch,context_size,hidden_size , hn.shape and cn.shape : num_layes * direction_numbers,batch,hidden_size
  67. out, (x, cell) = self.lstm(inputs)
  68. if self.use_norm:
  69. x = self.layer_norm(x)
  70. a, b, c = x.shape
  71. x = self.classify(x.reshape(a * b, c))
  72. return x
  73. if __name__ == "__main__":
  74. import numpy
  75. # context_size, kernel_sizes, num_channels = 100, [3, 4, 5], [128, 64, 32]
  76. batch_size = 2
  77. num_embeddings = 128
  78. context_size = 8
  79. # input = torch.ones(batch_size, embedding_size, context_size).float().cuda()
  80. input = torch.ones(batch_size, context_size).long().cuda()
  81. model = LSTMNet(num_embeddings, embedding_dim= 64).cuda()
  82. print(model)
  83. out = model( input)
  84. print(out)
  85. print( "input", input.shape)
  86. print( "out ", out.shape)

3、训练词嵌入word2vec(可选)

不管是CNN还是RNN模型,都是无法直接处理字符类别的单词,因此我们需要对单词进行编码,即通过某种方法把单词变成数字形式的向量才能作为模型的输入。把单词映射到向量空间中的一个向量的做法称为词嵌入(word embedding),对应的向量称为词向量(word vector)

上面的NGram模型代码中,定义了一个可学习的embedding层,即词嵌入word2vec,其作用就是将word序号ID转换为vector;当然你也可以通过gensim训练自己的word2vec模型,然后在数据处理中先将文本转换为词向量,这样NGram就没有必要添加embedding层了。


4、文本预处理

接下来,我们需要将句子按照context_size+1的长度进行逐个截取,前context_size个单词是模型输入数据,最后一个是预测结果,这样就构建了我们的训练集,核心代码如下:


  
  1. def get_item_list( self, sentences, context_size, stride=1, padding="<pad>", shuffle=False):
  2. """
  3. 构建数据集
  4. :param sentences: 语料数据[list],一句话一个列表
  5. :param context_size: 句子最大长度
  6. :param stride: 步长,默认1
  7. :param padding: 不足context_size,进行填充
  8. :return:
  9. """
  10. item_list = []
  11. for content in sentences:
  12. pad_size = context_size + 1 - len(content)
  13. if pad_size > 0:
  14. content = [padding] * pad_size + content
  15. for i in range( 0, len(content) - context_size, stride):
  16. inputs = content[i:(i + context_size)]
  17. target = content[i + context_size]
  18. item_list.append((inputs, target))
  19. if shuffle:
  20. random.seed( 100)
  21. random.shuffle(item_list)
  22. return item_list

对于中文文本数据预处理,主要有两部分:句子分词处理(英文文本不需要分词),特殊字符处理

(1)句子分词处理:jieba中文分词

本博客使用jieba工具进行中文分词,工具比较简单,就不单独说明了,安装方法:

pip install jieba 

(2)特殊字符处理

jieba分词后,会出现很多特殊字符,需要进一步做一些的处理

  • 一些换行符,空格等特殊字符,以及一些标点符号(,。!?《》)等,这些特殊的字符称为stop_words,需要剔除
  • 一些英文字母大小需要转换统一为小写
  • 一些繁体字统一转换为简体字等
  • 一些专有名词,比如地名,人名这些,分词时需要整体切词:jieba.load_userdict(file)

(3)文本数据增强

在计算机视觉图像识别任务中,图像数据增强主要有:裁剪、翻转、旋转、⾊彩变换等⽅式,其目的增加数据的多样性,提高模型的泛化能力。但是NLP任务中的数据是离散的,无法像操作图片一样连续的方式操作文字,这导致我们⽆法对输⼊数据进⾏直接简单地转换,换掉⼀个词就有可能改变整个句⼦的含义。

常用的NLP文本数据增强方法主要有:

  • 随机截取: 随机截取文本一个片段
  • 同义词替换(SR: Synonyms Replace):不考虑stopwords,在句⼦中随机抽取n个词,然后从同义词词典中随机抽取同义词,并进⾏替换。
  • 随机插⼊(RI: Randomly Insert):不考虑stopwords,随机抽取⼀个词,然后在该词的同义词集合中随机选择⼀个,插⼊原句⼦中的随机位置。
  • 随机交换(RS: Randomly Swap):句⼦中,随机选择两个词,位置交换。
  • 随机删除(RD: Randomly Delete):句⼦中的每个词,以概率p随机删除

(4)样本均衡(重点)

有一些常用词汇,由于其出现的频率很高,导致模型预测的结果,会偏向于预测高频率出现的词汇;比如【的】字,在中文语句中,出现的频率特别大,导致模型预测的时候,输出结果经常被预测为【的】,显示这是不符合实际情况;一种行之有效的解决方法,是对数据进行均衡采用,即高频词汇应该降低采样次数,而低频词应该增加其采用次数。

项目已经实现样本均衡算法,config.yaml配置文件中,只需要设置resample: True即可开启样本均衡训练

项目已经实现:随机截取,随机插⼊,随机删除等几种文本数据增强方式:


   
  1. # -*- coding: utf-8 -*-
  2. import math
  3. import random
  4. from typing import List
  5. def random_text_crop( text: List, label, context_size, token="<pad>", p=0.5):
  6. """
  7. 句⼦中的每个词,以概率p随机截取
  8. :param text:
  9. :param label:
  10. :param context_size:
  11. :param token:
  12. :param p:
  13. :return:
  14. """
  15. context_size = int(context_size)
  16. nums = len(text)
  17. pad = context_size - nums
  18. if pad > 0 and token:
  19. text = [token] * pad + text
  20. if random.random() < p and pad < 0:
  21. start = random.randint( 0, nums - context_size)
  22. text = text[start:start + context_size]
  23. elif len(text) > context_size:
  24. text = text[ 0:context_size]
  25. return text, label
  26. def random_text_mask( text: List, label, len_range=(0, 2), token="<pad>", p=0.5):
  27. """
  28. 句⼦中的每个词,以概率p替换成token
  29. :param text:
  30. :param label:
  31. :param len_range:
  32. :param p:
  33. :return:
  34. """
  35. if random.random() < p and len(text) > 2 * len_range[ 1]:
  36. nums = math.ceil(random.uniform(len_range[ 0], len_range[ 1]))
  37. for i in range(nums):
  38. index = int(random.uniform( 0, len(text) - 1))
  39. text[index] = token
  40. return text, label
  41. def random_text_delete( text: List, label, len_min, p=0.5):
  42. """
  43. 句⼦中的每个词,以概率p随机删除
  44. :param text:
  45. :param label:
  46. :param len_min: 句子最小长度,低于该值,不会删除
  47. :param p:
  48. :return:
  49. """
  50. if random.random() < p and len(text) > len_min:
  51. nums = int(random.uniform( 0, len(text) - len_min))
  52. for i in range(nums):
  53. index = int(random.uniform( 0, len(text)))
  54. del text[index]
  55. return text, label
  56. def random_text_insert( text: List, label, len_range=(0, 2), token="<pad>", p=0.5):
  57. """
  58. 句⼦中的每个词,以概率p随机插入
  59. :param text:
  60. :param label:
  61. :param len_range:
  62. :param p:
  63. :return:
  64. """
  65. if random.random() < p and len(text) > 2 * len_range[ 1]:
  66. nums = math.ceil(random.uniform(len_range[ 0], len_range[ 1]))
  67. for i in range(nums):
  68. index = int(random.uniform( 0, len(text) - 1))
  69. text.insert(index, token)
  70. return text, label
  71. if __name__ == '__main__':
  72. label = 1
  73. context_size = 10
  74. pad_token = "<pad>"
  75. p = 10
  76. for i in range( 10):
  77. text = "我是一名中国人,我爱中国,我的家乡在广东"
  78. text = "_".join(text).split( "_")
  79. len_range = ( 0, context_size // 4)
  80. # text, label = random_text_crop(text, label, 1.8 * context_size, token=None, p=0.8)
  81. # text, label = random_text_delete(text, label, len_min=1.5 * context_size)
  82. text, label = random_text_insert(text, label, len_range=len_range, token=pad_token)
  83. # text, label = random_text_mask(text, label, len_range=len_range, token=pad_token)
  84. # text, label = random_text_crop(text, label, context_size, token=pad_token, p=0.8)
  85. print(text, len(text))

5、训练过程 

(1)项目框架说明


   
  1. .
  2. ├── configs # 训练配置文件
  3. ├── core # 模型和训练相关工具
  4. ├── data # 相关数据
  5. ├── modules # 相关依赖包模块
  6. ├── work_space # 训练模型输出文件目录
  7. ├── README.md # 项目工程说明文档
  8. ├── requirements.txt # 相关依赖包版本说明,请用pip安装
  9. ├── predictor.py # 测试单词预测效果的脚本
  10. └── train.py # 训练文件

 项目依赖的python包,请使用pip安装对应版本


   
  1. numpy==1.16.3
  2. matplotlib==3.1.0
  3. Pillow==6.0.0
  4. easydict==1.9
  5. opencv-contrib-python==4.5.2.52
  6. opencv-python==4.5.1.48
  7. pandas==1.1.5
  8. PyYAML==5.3.1
  9. scikit-image==0.17.2
  10. scikit-learn==0.24.0
  11. scipy==1.5.4
  12. seaborn==0.11.2
  13. tensorboard==2.5.0
  14. tensorboardX==2.1
  15. torch==1.7.1+cu110
  16. torchvision==0.8.2+cu110
  17. tqdm==4.55.1
  18. xmltodict==0.12.0
  19. basetrainer
  20. pybaseutils==0.6.9
  21. jieba==0.42.1
  22. gensim==4.2.0

(2)准备文本数据

首先,我们需要收集中文文本数据集,由于我们是做单词预测算法,要求训练数据尽可能干净;考虑到我们的模型比较简单,无需像BERT那样海量数据作为简单的Demo,项目从百度文库中收集了一些中文造句的常用句子,大概5千字的数据量吧

 然后根据自己的保存的数据路径,修改配置文件数据路径:configs/config.yaml (项目的文本数据放在data/text/data"中,可自行增加补充数据);考虑到,单词预测是一种比较模糊预测的任务,因此,项目没有严格区分训练集和测试集,而是将训练数据和测试集都使用同一数据集。


   
  1. # 训练数据集,可支持多个数据集
  2. train_data:
  3. - "data/text/data"
  4. # 测试数据集
  5. test_data:
  6. - "data/text/data"
  7. vocab_file: "data/text/vocabulary.json" # 指定字典的路径(会根据训练数据集自动生成)

(3)配置文件:config.yaml


   
  1. # 训练数据集,可支持多个数据集
  2. train_data:
  3. - "data/text/data"
  4. # 测试数据集
  5. test_data:
  6. - "data/text/data"
  7. vocab_file: "data/text/vocabulary.json" # 指定字典的路径(会根据训练数据集自动生成)
  8. class_name: ""
  9. data_type: "textdata" # 加载数据DataLoader方法
  10. flag: "" # 输出目录标识
  11. resample: True # 是否进行重采样
  12. work_dir: "work_space" # 保存输出模型的目录
  13. net_type: "LSTM" # 骨干网络,支持:NGram,TextCNN,LSTM,BiLSTM等
  14. context_size: 8 # 句子长度
  15. topk: [ 1,3,5 ] # 计算topK的准确率
  16. batch_size: 64 # 批训练大小
  17. lr: 0.01 # 初始学习率
  18. optim_type: "Adam" # 选择优化器,SGD,Adam
  19. loss_type: "CELoss" # 选择损失函数:支持CrossEntropyLoss(CELoss)
  20. momentum: 0.9 # SGD momentum
  21. num_epochs: 120 # 训练循环次数
  22. num_workers: 0 # 加载数据工作进程数
  23. weight_decay: 0.0005 # weight_decay,默认5e-4
  24. scheduler: "multi-step" # 学习率调整策略
  25. milestones: [ 30,70,100 ] # 下调学习率方式
  26. gpu_id: [ 0 ] # GPU ID
  27. log_freq: 20 # LOG打印频率
  28. pretrained: True # 是否使用pretrained模型
  29. finetune: False # 是否进行finetune
  • 目标支持模型主要有:NGram,TextCNN,LSTM,BiLSTM等,详见模型等 ,其他模型可以自定义添加
  • 训练参数可以通过config.yaml配置文件
参数 类型 参考值 说明
train_data str, list - 训练数据文件,可支持多个文件
test_data str, list - 测试数据文件,可支持多个文件
vocab_file str -
字典文件(会根据训练数据集自动生成)
class_name str - 类别文件
data_type str - 加载数据DataLoader方法
resample bool True 是否进行重采样
work_dir str work_space 训练输出工作空间
net_type str LSTM 骨干网络,支持:NGram,TextCNN,LSTM,BiLSTM等模型
context_size int 128 句子长度
topk list [1,3,5] 计算topK的准确率
batch_size int 32 批训练大小
lr float 0.1 初始学习率大小
optim_type str SGD 优化器,{SGD,Adam}
loss_type str CELoss 损失函数
scheduler str multi-step 学习率调整策略,{multi-step,cosine}
milestones list [30,80,100] 降低学习率的节点,仅仅scheduler=multi-step有效
momentum float 0.9 SGD动量因子
num_epochs int 120 循环训练的次数
num_workers int 12 DataLoader开启线程数
weight_decay float 5e-4 权重衰减系数
gpu_id list [ 0 ] 指定训练的GPU卡号,可指定多个
log_freq int 20 显示LOG信息的频率
finetune str model.pth finetune的模型

(4)开始训练

整套训练代码非常简单操作,用户只需要将文本数据放在项目"data/text/data"目录下(也可以自定义数据路径),并填写好对应的数据路径,即可开始训练了。

  • 如果你想验证项目可不可以训练,请运行下面命令开始训练;项目自带了小批量的文本数据,方便测试项目代码;对于简单的样本数据集,可以获得95%左右的预测准确率
python train.py -c configs/config.yaml 
  •  如果你想训练自己的数据,请准备好文本数据,并放在data/text/data中,文本只支持TXT格式,不支持PDF和word文档格式
  • 配置文件configs/config.yaml的参数net_type,用于选择骨干网络,可以填写NGram, TextCNN, LSTM, BiLSTM等,后面模型以LSTM模型为准

以下是训练代码:


   
  1. # -*-coding: utf-8 -*-
  2. import os
  3. import torch
  4. import argparse
  5. import torch.nn as nn
  6. import numpy as np
  7. import tensorboardX as tensorboard
  8. from tqdm import tqdm
  9. from torch.utils import data as data_utils
  10. from core.dataloader import build_dataset
  11. from core.models import build_models
  12. from core.criterion.build_criterion import get_criterion
  13. from core.utils import torch_tools, metrics, log
  14. from pybaseutils import file_utils, config_utils
  15. from pybaseutils.metrics import class_report
  16. class Trainer( object):
  17. def __init__( self, cfg):
  18. torch_tools.set_env_random_seed()
  19. # 设置输出路径
  20. time = file_utils.get_time()
  21. flag = [n for n in [cfg.net_type, cfg.loss_type, cfg.flag, time] if n]
  22. cfg.work_dir = os.path.join(cfg.work_dir, "_".join(flag))
  23. cfg.model_root = os.path.join(cfg.work_dir, "model")
  24. cfg.log_root = os.path.join(cfg.work_dir, "log")
  25. file_utils.create_dir(cfg.work_dir)
  26. file_utils.create_dir(cfg.model_root)
  27. file_utils.create_dir(cfg.log_root)
  28. file_utils.copy_file_to_dir(cfg.config_file, cfg.work_dir)
  29. config_utils.save_config(cfg, os.path.join(cfg.work_dir, "setup_config.yaml"))
  30. self.cfg = cfg
  31. self.topk = self.cfg.topk
  32. # 配置GPU/CPU运行设备
  33. self.gpu_id = cfg.gpu_id
  34. self.device = torch.device( "cuda:{}". format(cfg.gpu_id[ 0]) if torch.cuda.is_available() else "cpu")
  35. # 设置Log打印信息
  36. self.logger = log.set_logger(level= "debug", logfile=os.path.join(cfg.log_root, "train.log"))
  37. # 构建训练数据和测试数据
  38. self.train_loader = self.build_train_loader()
  39. self.test_loader = self.build_test_loader()
  40. # 构建模型
  41. self.model = self.build_model()
  42. # 构建损失函数
  43. self.criterion = self.build_criterion()
  44. # 构建优化器
  45. self.optimizer = self.build_optimizer()
  46. # 构建学习率调整策略
  47. self.scheduler = torch.optim.lr_scheduler.MultiStepLR(self.optimizer, cfg.milestones)
  48. # 使用tensorboard记录和可视化Loss
  49. self.writer = tensorboard.SummaryWriter(cfg.log_root)
  50. # 打印信息
  51. self.num_samples = len(self.train_loader.sampler)
  52. self.logger.info( "=" * 60)
  53. self.logger.info( "work_dir :{}". format(cfg.work_dir))
  54. self.logger.info( "config_file :{}". format(cfg.config_file))
  55. self.logger.info( "gpu_id :{}". format(cfg.gpu_id))
  56. self.logger.info( "main device :{}". format(self.device))
  57. self.logger.info( "num_samples(train):{}". format(self.num_samples))
  58. self.logger.info( "num_classes :{}". format(cfg.num_classes))
  59. self.logger.info( "mean_num :{}". format(self.num_samples / cfg.num_classes))
  60. self.logger.info( "=" * 60)
  61. def build_optimizer( self, ):
  62. """build_optimizer"""
  63. if self.cfg.optim_type.lower() == "SGD".lower():
  64. optimizer = torch.optim.SGD(params=self.model.parameters(), lr=self.cfg.lr,
  65. momentum=self.cfg.momentum, weight_decay=self.cfg.weight_decay)
  66. elif self.cfg.optim_type.lower() == "Adam".lower():
  67. optimizer = torch.optim.Adam(self.model.parameters(), lr=self.cfg.lr, weight_decay=self.cfg.weight_decay)
  68. else:
  69. optimizer = None
  70. return optimizer
  71. def build_train_loader( self, ) -> data_utils.DataLoader:
  72. """build_train_loader"""
  73. self.logger.info( "build_train_loader,context_size:{}". format(self.cfg.context_size))
  74. dataset = build_dataset.load_dataset(data_type=self.cfg.data_type,
  75. filename=self.cfg.train_data,
  76. vocab_file=self.cfg.vocab_file,
  77. context_size=self.cfg.context_size,
  78. class_name=self.cfg.class_name,
  79. resample=self.cfg.resample,
  80. phase= "train",
  81. shuffle= True)
  82. shuffle = True
  83. sampler = None
  84. self.logger.info( "use resample:{}". format(self.cfg.resample))
  85. # if self.cfg.resample:
  86. # weights = torch.DoubleTensor(dataset.classes_weights)
  87. # sampler = torch.utils.data.sampler.WeightedRandomSampler(weights, len(weights))
  88. # shuffle = False
  89. loader = data_utils.DataLoader(dataset=dataset, batch_size=self.cfg.batch_size, sampler=sampler,
  90. shuffle=shuffle, num_workers=self.cfg.num_workers)
  91. self.cfg.num_classes = dataset.num_classes
  92. self.cfg.num_embeddings = dataset.num_embeddings
  93. self.cfg.class_name = dataset.class_name
  94. file_utils.copy_file_to_dir(self.cfg.vocab_file, cfg.work_dir)
  95. return loader
  96. def build_test_loader( self, ) -> data_utils.DataLoader:
  97. """build_test_loader"""
  98. self.logger.info( "build_test_loader,context_size:{}". format(cfg.context_size))
  99. dataset = build_dataset.load_dataset(data_type=self.cfg.data_type,
  100. filename=self.cfg.test_data,
  101. vocab_file=self.cfg.vocab_file,
  102. context_size=self.cfg.context_size,
  103. class_name=self.cfg.class_name,
  104. phase= "test",
  105. resample= False,
  106. shuffle= False)
  107. loader = data_utils.DataLoader(dataset=dataset, batch_size=self.cfg.batch_size,
  108. shuffle= False, num_workers=self.cfg.num_workers)
  109. self.cfg.num_classes = dataset.num_classes
  110. self.cfg.num_embeddings = dataset.num_embeddings
  111. self.cfg.class_name = dataset.class_name
  112. return loader
  113. def build_model( self, ) -> nn.Module:
  114. """build_model"""
  115. self.logger.info( "build_model,net_type:{}". format(self.cfg.net_type))
  116. model = build_models.get_models(net_type=self.cfg.net_type,
  117. num_classes=self.cfg.num_classes,
  118. num_embeddings=self.cfg.num_embeddings,
  119. embedding_dim= 128,
  120. is_train= True,
  121. )
  122. if self.cfg.finetune:
  123. self.logger.info( "finetune:{}". format(self.cfg.finetune))
  124. state_dict = torch_tools.load_state_dict(self.cfg.finetune)
  125. model.load_state_dict(state_dict)
  126. model = model.to(self.device)
  127. model = nn.DataParallel(model, device_ids=self.gpu_id, output_device=self.device)
  128. return model
  129. def build_criterion( self, ):
  130. """build_criterion"""
  131. self.logger.info(
  132. "build_criterion,loss_type:{}, num_embeddings:{}". format(self.cfg.loss_type, self.cfg.num_embeddings))
  133. criterion = get_criterion(self.cfg.loss_type, self.cfg.num_embeddings, device=self.device)
  134. # criterion = torch.nn.CrossEntropyLoss()
  135. return criterion
  136. def train( self, epoch):
  137. """训练"""
  138. train_losses = metrics.AverageMeter()
  139. train_accuracy = {k: metrics.AverageMeter() for k in self.topk}
  140. self.model.train() # set to training mode
  141. log_step = max( len(self.train_loader) // cfg.log_freq, 1)
  142. for step, data in enumerate(tqdm(self.train_loader)):
  143. inputs, target = data
  144. inputs, target = inputs.to(self.device), target.to(self.device)
  145. outputs = self.model(inputs)
  146. loss = self.criterion(outputs, target)
  147. self.optimizer.zero_grad() # 反馈
  148. loss.backward()
  149. self.optimizer.step() # 更新
  150. train_losses.update(loss.cpu().data.item())
  151. # 计算准确率
  152. target = target.cpu()
  153. outputs = outputs.cpu()
  154. outputs = torch.nn.functional.softmax(outputs, dim= 1)
  155. pred_score, pred_index = torch. max(outputs, dim= 1)
  156. acc = metrics.accuracy(outputs.data, target, topk=self.topk)
  157. for i in range( len(self.topk)):
  158. train_accuracy[self.topk[i]].update(acc[i].data.item(), target.size( 0))
  159. if step % log_step == 0:
  160. lr = self.scheduler.get_last_lr()[ 0] # 获得当前学习率
  161. topk_acc = { "top{}". format(k): v.avg for k, v in train_accuracy.items()}
  162. self.logger.info(
  163. "train {}/epoch:{:0=3d},lr:{:3.4f},loss:{:3.4f},acc:{}". format(step, epoch, lr, train_losses.avg,
  164. topk_acc))
  165. topk_acc = { "top{}". format(k): v.avg for k, v in train_accuracy.items()}
  166. self.writer.add_scalar( "train-loss", train_losses.avg, epoch)
  167. self.writer.add_scalars( "train-accuracy", topk_acc, epoch)
  168. self.logger.info( "train epoch:{:0=3d},loss:{:3.4f},acc:{}". format(epoch, train_losses.avg, topk_acc))
  169. return topk_acc[ "top{}". format(self.topk[ 0])]
  170. def test( self, epoch):
  171. """测试"""
  172. test_losses = metrics.AverageMeter()
  173. test_accuracy = {k: metrics.AverageMeter() for k in self.topk}
  174. true_labels = np.ones( 0)
  175. pred_labels = np.ones( 0)
  176. self.model. eval() # set to evaluates mode
  177. with torch.no_grad():
  178. for step, data in enumerate(tqdm(self.test_loader)):
  179. inputs, target = data
  180. inputs, target = inputs.to(self.device), target.to(self.device)
  181. outputs = self.model(inputs)
  182. loss = self.criterion(outputs, target)
  183. test_losses.update(loss.cpu().data.item())
  184. # 计算准确率
  185. target = target.cpu()
  186. outputs = outputs.cpu()
  187. outputs = torch.nn.functional.softmax(outputs, dim= 1)
  188. pred_score, pred_index = torch. max(outputs, dim= 1)
  189. acc = metrics.accuracy(outputs.data, target, topk=self.topk)
  190. true_labels = np.hstack([true_labels, target.numpy()])
  191. pred_labels = np.hstack([pred_labels, pred_index.numpy()])
  192. for i in range( len(self.topk)):
  193. test_accuracy[self.topk[i]].update(acc[i].data.item(), target.size( 0))
  194. report = class_report.get_classification_report(true_labels, pred_labels, target_names=self.cfg.class_name)
  195. topk_acc = { "top{}". format(k): v.avg for k, v in test_accuracy.items()}
  196. lr = self.scheduler.get_last_lr()[ 0] # 获得当前学习率
  197. self.writer.add_scalar( "test-loss", test_losses.avg, epoch)
  198. self.writer.add_scalars( "test-accuracy", topk_acc, epoch)
  199. self.logger.info( "test epoch:{:0=3d},lr:{:3.4f},loss:{:3.4f},acc:{}". format(epoch, lr, test_losses.avg, topk_acc))
  200. # self.logger.info("{}".format(report))
  201. return topk_acc[ "top{}". format(self.topk[ 0])]
  202. def run( self):
  203. """开始运行"""
  204. self.max_acc = 0.0
  205. for epoch in range(self.cfg.num_epochs):
  206. train_acc = self.train(epoch) # 训练模型
  207. test_acc = self.test(epoch) # 测试模型
  208. self.scheduler.step() # 更新学习率
  209. lr = self.scheduler.get_last_lr()[ 0] # 获得当前学习率
  210. self.writer.add_scalar( "lr", lr, epoch)
  211. self.save_model(self.cfg.model_root, test_acc, epoch)
  212. self.logger.info( "epoch:{}, lr:{}, train acc:{:3.4f}, test acc:{:3.4f}".
  213. format(epoch, lr, train_acc, test_acc))
  214. def save_model( self, model_root, value, epoch):
  215. """保存模型"""
  216. # 保存最优的模型
  217. if value >= self.max_acc:
  218. self.max_acc = value
  219. model_file = os.path.join(model_root, "best_model_{:0=3d}_{:.4f}.pth". format(epoch, value))
  220. file_utils.remove_prefix_files(model_root, "best_model_*")
  221. torch.save(self.model.module.state_dict(), model_file)
  222. self.logger.info( "save best model file:{}". format(model_file))
  223. # 保存最新的模型
  224. name = "model_{:0=3d}_{:.4f}.pth". format(epoch, value)
  225. model_file = os.path.join(model_root, "latest_{}". format(name))
  226. file_utils.remove_prefix_files(model_root, "latest_*")
  227. torch.save(self.model.module.state_dict(), model_file)
  228. self.logger.info( "save latest model file:{}". format(model_file))
  229. self.logger.info( "-------------------------" * 4)
  230. def get_parser():
  231. cfg_file = "configs/config.yaml"
  232. parser = argparse.ArgumentParser(description= "Training Pipeline")
  233. parser.add_argument( "-c", "--config_file", help= "configs file", default=cfg_file, type= str)
  234. cfg = config_utils.parser_config(parser.parse_args(), cfg_updata= True)
  235. return cfg
  236. if __name__ == "__main__":
  237. cfg = get_parser()
  238. train = Trainer(cfg)
  239. train.run()

(5)可视化训练过程

训练过程可视化工具是使用Tensorboard,使用方法:

   
  1. # 基本方法
  2. tensorboard --logdir=path/to/log/
  3. # 例如(请修改自己的训练的模型路径)
  4. tensorboard --logdir=work_space/BiLSTM_CELoss_20230110175943/log

可视化效果 

​​​ ​​​​
​​​ ​​​
​​​ ​​​

(6)一些优化建议

训练完成后,可查看其Top-1,Top-3和Top-5准确率,其中NGram的Top-1准确率约0.8630,而TextCNN的准确率约0.9065,LSTM的准确率约0.9088,BiLSTM的准确率最高可以达到0.9100

模型 context_size embedding_dim Top-1准确率 Top-3准确率 Top-5准确率
NGram 8 128 0.8630 0.9180 0.9357
TextCNN 8 128 0.9065 0.9621 0.9730
LSTM 8 128 0.9088

0.9535

0.9667
BiLSTM 8 128 0.9100 0.9575 0.9673
  1. 数据整合:建议对数据进行去燥,删除一些语句不通的文本;
  2. 由于数据集比较小,有很多中文字词是不支持,建议增大数据集进行训练;
  3. 增加LSTM参数量:比如增大LSTM的个数
  4. 增加pretrained模型:项目构建LSTM模型,随机初始化了一个可学习的二维矩阵:Embedding,该Embedding模型没有增加pretrained的,若能加入pretrained,其准确率会好很多。
  5. 文本数据增强:如同义词替换,文本随机插入,随机删除等处理,增强模型泛化能力
  6. 样本均衡:数据不均衡,部分类目数据太少; 建议进行样本均衡处理,减少长尾问题的影响
  7. 超参调优: 比如学习率调整策略,优化器(SGD,Adam等)
  8. 损失函数: 目前训练代码已经支持:交叉熵,LabelSmoothing,可以尝试FocalLoss等损失函数

6. 模型测试效果

predictor.py文件用于模型推理和测试脚本,填写好配置文件,模型文件以及测试文本即可运行测试了


   
  1. def get_parser():
  2. model_file = "work_space/LSTM_CELoss_20230110175804/model/best_model_119_0.9088.pth"
  3. config_file = os.path.join(os.path.dirname(os.path.dirname(model_file)), "config.yaml")
  4. vocab_file = os.path.join(os.path.dirname(os.path.dirname(model_file)), "vocabulary.json")
  5. input = "美丽豪华的 获得优异的" # 才能获得优异的成绩
  6. # 我们家住的楼上有许多只壁虎,每天晚上你都能看到它们。小壁虎身子是土黄色的,一双圆溜溜的眼睛,尖尖的脑袋,拖着一条长长的尾巴
  7. input = "我们家住的楼上有许多只/每天晚上你都能看到 一双圆溜溜的 拖着一条长长的" # 才能获得优异的成绩
  8. parser = argparse.ArgumentParser(description= "Inference Argument")
  9. parser.add_argument( "-c", "--config_file", help= "configs file", default=config_file, type= str)
  10. parser.add_argument( "-m", "--model_file", help= "model_file", default=model_file, type= str)
  11. parser.add_argument( "-v", "--vocab_file", help= "vocab_file", default=vocab_file, type= str)
  12. parser.add_argument( "--device", help= "cuda device id", default= "cuda:0", type= str)
  13. parser.add_argument( "--input", help= "text", default= input, type= str)
  14. return parser

或者在项目根目录终端运行命令(\表示换行符):


   
  1. #!/usr/bin/env bash
  2. python predictor.py \
  3. -c "work_space/LSTM_CELoss_20230110175804/config.yaml" \
  4. -m "work_space/LSTM_CELoss_20230110175804/model/best_model_119_0.9088.pth" \
  5. -v "work_space/LSTM_CELoss_20230110175804/vocabulary.json" \

使用方法: 

  1. 【使用说明】:输入任意文本,用[空格]或[/]表示需要预测的字词;输入[e]退出程序
  2. 【输入例子】:美丽豪华的/获得优异的
  3. 【结果说明】:输出括号内表示预测结果

运行测试结果:  

  • 输入:"我们家住的楼上有许多只/每天晚上你都能看到 一双圆溜溜的 拖着一条长长的",返回的预测结果:

  • 输入"美丽豪华的 获得优异的" ,返回的预测结果:


7.项目源码下载

整套项目源码下载:Pytorch LSTM实现中文单词预测(词语预测)

整套项目源码内容包含

  • 提供中文文本数据集,用于模型训练:数据主要从百度文库中收集了一些中文造句的常用句子,大概5千字的数据量
  • 提供Pytorch版本的中文单词预测模型训练工具:train.py,支持NGram,TextCNN, LSTM, BiLSTM等模型训练和测试
  • 提供中文单词预测测试脚本:predictor.py
  • 项目已经实现样本均衡算法,config.yaml配置文件中,只需要设置resample: True即可开启样本均衡训练
  • 简单配置,一键开启训练自己的中文单词预测模型

如果,你想学习NLP中文文本分类,可参考另一篇博文《Pytorch TextCNN实现中文文本分类(附完整训练代码)


转载:https://blog.csdn.net/guyuealian/article/details/128582675
查看评论
* 以上用户言论只代表其个人观点,不代表本网站的观点或立场