小言_互联网的博客

机器学习--多层感知机、卷积神经网络、循环神经网络

366人阅读  评论(0)

目录

一、多层感知机

二、卷积神经网络

三、循环神经网络

总结


一、多层感知机

手工提取特征(用人的知识进行) -->  神经网络来提取特征。

神经网络(可能更懂机器学习)来提取 可能对后面的线性或softmax回归可能会更好一些。

用神经网络的好处在于 不用费心思去想 提取的数据特征是否会被模型喜欢,

但是计算量和数量都比手工提取的数量级要大很多。

可以使用不同神经网络的架构来更有效的提取特征。

  • 多层感知机
  • 卷积神经网络(CNN)
  • 循环神经网络(RNN)
  • Transformers【最近兴起的】 

线性方法到多层感知机

稠密层(全连接层或线性层)有可学习的参数W,

b,计算 y=Wx+b

线性回归可以看成是,有1个输出的全连接层
softmax回归可以看成是,有m个输出加上softmax操作子 

怎么变成一个多层感知机

想做到非线性的话,可以使用多个全连接层;但是简单的叠加在一起还是线性的,所以要加入非线性的东西在里面,也就是激活函数;

这里有些超参数:需要选用多少个隐藏层,隐藏层的输出大小; 

简单的代码实现 

 使用自定义

(1)实现一个具有单隐藏层的多层感知机,它包含256个隐藏单元,

  • 这里的输入、输出是数据决定的,256是调参自己决定的,取了一个在784和10之间的数。
  • W初始了一个随机的,它的行数是输入的个数784,列数是256,偏差是0;

  
  1. import torch
  2. from torch import nn
  3. from d2l import torch as d2l
  4. batch_size = 256
  5. train_iter, test_iter = d2l.load_data_fashion_mnist(batch_size)
  6. # 实现一个具有单隐藏层的多层感知机,它包含256个隐藏单元
  7. num_inputs, num_outputs, num_hiddens = 784, 10, 256 # 输入、输出是数据决定的,256是调参自己决定的
  8. W1 = nn.Parameter(torch.randn(num_inputs, num_hiddens, requires_grad= True))
  9. b1 = nn.Parameter(torch.zeros(num_hiddens, requires_grad= True))
  10. W2 = nn.Parameter(torch.randn(num_hiddens, num_outputs, requires_grad= True))
  11. b2 = nn.Parameter(torch.zeros(num_outputs, requires_grad= True))
  12. params = [W1,b1,W2,b2]

(2)实现ReLu 激活函数,求最大值,


  
  1. # 实现 ReLu 激活函数
  2. def relu( X):
  3. a = torch.zeros_like(X) # 数据类型、形状都一样,但是值全为 0
  4. return torch. max(X,a)

 (3)实现模型


  
  1. # 实现模型
  2. def net( X):
  3. #print("X.shape:",X.shape)
  4. X = X.reshape((- 1, num_inputs)) # 拉成二维矩阵,-1为自适应的批量大小,num_inputs=784
  5. #print("X.shape:",X.shape)
  6. H = relu(X @ W1 + b1) # 矩阵乘法:x为784,w为784x256,b1为256长的向量
  7. #print("H.shape:",H.shape)
  8. #print("W2.shape:",W2.shape)
  9. return (H @ W2 + b2)

(4)训练模型,多层感知机的训练过程与softmax回归的训练过程完全一样


  
  1. # 损失
  2. loss = nn.CrossEntropyLoss() # 交叉熵损失
  3. # 多层感知机的训练过程与softmax回归的训练过程完全一样
  4. num_epochs ,lr = 30, 0.1
  5. updater = torch.optim.SGD(params, lr=lr)
  6. d2l.train_ch3(net, train_iter, test_iter, loss, num_epochs, updater)

在没有隐藏层之前,我们的损失大概是0.4,精度大概是0.8,有了隐藏层之后,我们这里图上的损失是比0.4低一些的,精度没有发生太多变化。

可以看到这个现象,多层感知机使得损失确实往下降了,因为我的模型更大了,所以拟合的更好了,所以损失在下降。但是精度没有发生太多变化,之后再来探讨这个问题。 

二、卷积神经网络

全连接层 过渡到 卷积层: 

用MLP训练ImageNet(300*300的图片有1000个类),MLP有1个隐藏层,隐藏层的输出有1万(输入大概为9万输出是一千,随机取了个中间值1万),这样的话模型就有10亿个参数可供学习。

这是因为全连接层的输出对所有的输入做加权和,而且每个输出的权重是不一样的,即导致学习的参数特别多

解决方案:看看做图片分类的时候,有什么先验信息可以使用,使得我们设计神经网络的时候,可以将这个先验知识放进去。

在图片中识别一个物体,有两个原则可以使用

  • Translation invariance(做变换时它不会变):需要识别的目标在一幅图的一个地方换到另一个地方,不会发生太多的变化
  • Locality(本地性):识别一个物体不需要看比较远的像素(像素以及其周围的像素相关性比较高) 

卷积神经网络: 

  • Locality(本地性):在卷积层中,一个输出只使用一个k*k输入的一个窗口 的图片【全连接层是整张图每个像素进行学习;而卷积层是一个在k*k窗口内对图片进行学习】
  • Translation invariance(平移不变性):如果在一个地方有已经学习好的权重,将它移到另一个地方依然能够识别
  • 卷积层可学习参数的个数不再与输出和输入的大小相关,只跟窗口大小k相关【只用在k*k的窗口内做加权和,且每个输出都重用这个窗口】
  • 这个k*k的窗口叫做 卷积核(kernel或kernel weight),通常被训练用于识别图片的一个模式(可以说是图片中的某些特征)【根据数据模型会选取不一样的模式出来】【通常会使用不同的通道(选很多组的数据得到一个多通道的输出),这样可以学习不同类型的模式】 

代码实现 

网络的构成是“Convolution - ReLU - Pooling -Affine - ReLU - Affine - Softmax”,我们将它实现为名为SimpleConvNet的类。

该网络的参数
• input_dim―输入数据的维度:(通道,高,长)
• conv_param―卷积层的超参数(字典)。
字典的关键字如下:
filter_num―滤波器的数量
filter_size―滤波器的大小
stride―步幅
pad―填充
• hidden_size―隐藏层(全连接)的神经元数量
• output_size―输出层(全连接)的神经元数量
• weitght_int_std―初始化时权重的标准差 

卷积层的超参数通过名为conv_param的字典传入。我们设想它会
像{‘filter_num’:30,‘filter_size’:5, ‘pad’:0, ‘stride’:1}。
这个CNN网络的初始化分为三个部分。

第一部分:取出初始化传入卷积层的超参数,并计算卷积层的输出大小


  
  1. class SimpleConvNet:
  2. def __init__( self, input_dim=(1, 28, 28),
  3. conv_param={'filter_num':30, 'filter_size':5,'pad':0, 'stride':1},
  4. hidden_size=100, output_size=10, weight_init_std=0.01):
  5. filter_num = conv_param[ 'filter_num']
  6. filter_size = conv_param[ 'filter_size']
  7. filter_pad = conv_param[ 'pad']
  8. filter_stride = conv_param[ 'stride']
  9. input_size = input_dim[ 1]
  10. conv_output_size = (input_size - filter_size + 2*filter_pad) / filter_stride + 1
  11. pool_output_size = int(filter_num * (conv_output_size/ 2) *(conv_output_size/ 2))

第二部分:权重参数的初始化,包括第一层卷积层和两个全连接层的权重和偏置。分别为W1、b1、w2、b2、w3、b3


  
  1. # 初始化权重
  2. self.params = {}
  3. self.params[ 'W1'] = weight_init_std * np.random.randn(filter_num, input_dim[ 0], filter_size, filter_size)
  4. self.params[ 'b1'] = np.zeros(filter_num)
  5. self.params[ 'W2'] = weight_init_std * np.random.randn(pool_output_size, hidden_size)
  6. self.params[ 'b2'] = np.zeros(hidden_size)
  7. self.params[ 'W3'] = weight_init_std * np.random.randn(hidden_size, output_size)
  8. self.params[ 'b3'] = np.zeros(output_size)

第三步:生成对应的层,向有序字典(OrderedDict)的layers中添加层。只有最后的SoftmaxWithLoss层被添加到别的变量lastLayer


  
  1. # 生成层
  2. self.layers = OrderedDict()
  3. self.layers[ 'Conv1'] = Convolution(self.params[ 'W1'], self.params[ 'b1'],conv_param[ 'stride'], conv_param[ 'pad'])
  4. self.layers[ 'Relu1'] = Relu()
  5. self.layers[ 'Pool1'] = Pooling(pool_h= 2, pool_w= 2, stride= 2)
  6. self.layers[ 'Affine1'] = Affine(self.params[ 'W2'], self.params[ 'b2'])
  7. self.layers[ 'Relu2'] = Relu()
  8. self.layers[ 'Affine2'] = Affine(self.params[ 'W3'], self.params[ 'b3'])
  9. self.last_layer = SoftmaxWithLoss()

以上就是SimpleConvNet的初始化中进行的处理。每一层的单独的具体实现已经在前面文中提到,为构建一个简单的CNN网络,每一层各司其职。

像这样进行初始化后,进行推理的predict方法和求损失函数的loss方法调用如下。


  
  1. def predict( self, x):
  2. for layer in self.layers.values():
  3. x = layer.forward(x)
  4. return x
  5. def loss( self, x, t):
  6. """求损失函数
  7. 参数x是输入数据、t是教师标签
  8. """
  9. y = self.predict(x)
  10. return self.last_layer.forward(y, t)

predict方法从头开始依次调用已添加的层,并将结果传递给下一层。


  
  1. def gradient( self, x, t):
  2. """求梯度(误差反向传播法)
  3. Parameters
  4. ----------
  5. x : 输入数据
  6. t : 教师标签
  7. Returns
  8. -------
  9. 具有各层的梯度的字典变量
  10. grads['W1']、grads['W2']、...是各层的权重
  11. grads['b1']、grads['b2']、...是各层的偏置
  12. """
  13. # forward
  14. self.loss(x, t)
  15. # backward
  16. dout = 1
  17. dout = self.last_layer.backward(dout)
  18. layers = list(self.layers.values())
  19. layers.reverse()
  20. for layer in layers:
  21. dout = layer.backward(dout)
  22. # 设定
  23. grads = {}
  24. grads[ 'W1'], grads[ 'b1'] = self.layers[ 'Conv1'].dW, self.layers[ 'Conv1'].db
  25. grads[ 'W2'], grads[ 'b2'] = self.layers[ 'Affine1'].dW, self.layers[ 'Affine1'].db
  26. grads[ 'W3'], grads[ 'b3'] = self.layers[ 'Affine2'].dW, self.layers[ 'Affine2'].db
  27. return grads

 因为每一层的误差正向传播和反向传播已经在各层实现,也就是forward()和backward()方法,只需要依次调用每一层的方法即可,最后将每一层中各个权重参数的梯度保存到grads字典中。

 simple_convnet类如下


  
  1. import sys, os
  2. sys.path.append(os.pardir) # 为了导入父目录的文件而进行的设定
  3. import pickle
  4. import numpy as np
  5. from collections import OrderedDict
  6. from common.layers import *
  7. from common.gradient import numerical_gradient
  8. class SimpleConvNet:
  9. """简单的ConvNet
  10. conv - relu - pool - affine - relu - affine - softmax
  11. Parameters
  12. ----------
  13. input_size : 输入大小(MNIST的情况下为784)
  14. hidden_size_list : 隐藏层的神经元数量的列表(e.g. [100, 100, 100])
  15. output_size : 输出大小(MNIST的情况下为10)
  16. activation : 'relu' or 'sigmoid'
  17. weight_init_std : 指定权重的标准差(e.g. 0.01)
  18. 指定'relu'或'he'的情况下设定“He的初始值”
  19. 指定'sigmoid'或'xavier'的情况下设定“Xavier的初始值”
  20. """
  21. def __init__( self, input_dim=(1, 28, 28),
  22. conv_param={'filter_num':30, 'filter_size':5, 'pad':0, 'stride':1},
  23. hidden_size=100, output_size=10, weight_init_std=0.01):
  24. filter_num = conv_param[ 'filter_num']
  25. filter_size = conv_param[ 'filter_size']
  26. filter_pad = conv_param[ 'pad']
  27. filter_stride = conv_param[ 'stride']
  28. input_size = input_dim[ 1]
  29. conv_output_size = (input_size - filter_size + 2*filter_pad) / filter_stride + 1
  30. pool_output_size = int(filter_num * (conv_output_size/ 2) * (conv_output_size/ 2))
  31. # 初始化权重
  32. self.params = {}
  33. self.params[ 'W1'] = weight_init_std * \
  34. np.random.randn(filter_num, input_dim[ 0], filter_size, filter_size)
  35. self.params[ 'b1'] = np.zeros(filter_num)
  36. self.params[ 'W2'] = weight_init_std * \
  37. np.random.randn(pool_output_size, hidden_size)
  38. self.params[ 'b2'] = np.zeros(hidden_size)
  39. self.params[ 'W3'] = weight_init_std * \
  40. np.random.randn(hidden_size, output_size)
  41. self.params[ 'b3'] = np.zeros(output_size)
  42. # 生成层
  43. self.layers = OrderedDict()
  44. self.layers[ 'Conv1'] = Convolution(self.params[ 'W1'], self.params[ 'b1'],
  45. conv_param[ 'stride'], conv_param[ 'pad'])
  46. self.layers[ 'Relu1'] = Relu()
  47. self.layers[ 'Pool1'] = Pooling(pool_h= 2, pool_w= 2, stride= 2)
  48. self.layers[ 'Affine1'] = Affine(self.params[ 'W2'], self.params[ 'b2'])
  49. self.layers[ 'Relu2'] = Relu()
  50. self.layers[ 'Affine2'] = Affine(self.params[ 'W3'], self.params[ 'b3'])
  51. self.last_layer = SoftmaxWithLoss()
  52. def predict( self, x):
  53. for layer in self.layers.values():
  54. x = layer.forward(x)
  55. return x
  56. def loss( self, x, t):
  57. """求损失函数
  58. 参数x是输入数据、t是教师标签
  59. """
  60. y = self.predict(x)
  61. return self.last_layer.forward(y, t)
  62. def accuracy( self, x, t, batch_size=100):
  63. if t.ndim != 1 : t = np.argmax(t, axis= 1)
  64. acc = 0.0
  65. for i in range( int(x.shape[ 0] / batch_size)):
  66. tx = x[i*batch_size:(i+ 1)*batch_size]
  67. tt = t[i*batch_size:(i+ 1)*batch_size]
  68. y = self.predict(tx)
  69. y = np.argmax(y, axis= 1)
  70. acc += np. sum(y == tt)
  71. return acc / x.shape[ 0]
  72. def numerical_gradient( self, x, t):
  73. """求梯度(数值微分)
  74. Parameters
  75. ----------
  76. x : 输入数据
  77. t : 教师标签
  78. Returns
  79. -------
  80. 具有各层的梯度的字典变量
  81. grads['W1']、grads['W2']、...是各层的权重
  82. grads['b1']、grads['b2']、...是各层的偏置
  83. """
  84. loss_w = lambda w: self.loss(x, t)
  85. grads = {}
  86. for idx in ( 1, 2, 3):
  87. grads[ 'W' + str(idx)] = numerical_gradient(loss_w, self.params[ 'W' + str(idx)])
  88. grads[ 'b' + str(idx)] = numerical_gradient(loss_w, self.params[ 'b' + str(idx)])
  89. return grads
  90. def gradient( self, x, t):
  91. """求梯度(误差反向传播法)
  92. Parameters
  93. ----------
  94. x : 输入数据
  95. t : 教师标签
  96. Returns
  97. -------
  98. 具有各层的梯度的字典变量
  99. grads['W1']、grads['W2']、...是各层的权重
  100. grads['b1']、grads['b2']、...是各层的偏置
  101. """
  102. # forward
  103. self.loss(x, t)
  104. # backward
  105. dout = 1
  106. dout = self.last_layer.backward(dout)
  107. layers = list(self.layers.values())
  108. layers.reverse()
  109. for layer in layers:
  110. dout = layer.backward(dout)
  111. # 设定
  112. grads = {}
  113. grads[ 'W1'], grads[ 'b1'] = self.layers[ 'Conv1'].dW, self.layers[ 'Conv1'].db
  114. grads[ 'W2'], grads[ 'b2'] = self.layers[ 'Affine1'].dW, self.layers[ 'Affine1'].db
  115. grads[ 'W3'], grads[ 'b3'] = self.layers[ 'Affine2'].dW, self.layers[ 'Affine2'].db
  116. return grads
  117. def save_params( self, file_name="params.pkl"):
  118. params = {}
  119. for key, val in self.params.items():
  120. params[key] = val
  121. with open(file_name, 'wb') as f:
  122. pickle.dump(params, f)
  123. def load_params( self, file_name="params.pkl"):
  124. with open(file_name, 'rb') as f:
  125. params = pickle.load(f)
  126. for key, val in params.items():
  127. self.params[key] = val
  128. for i, key in enumerate([ 'Conv1', 'Affine1', 'Affine2']):
  129. self.layers[key].W = self.params[ 'W' + str(i+ 1)]
  130. self.layers[key].b = self.params[ 'b' + str(i+ 1)]

参考:《深度学习入门:基于Python的理论与实现 》斋藤康毅 

池化层 

卷积层对输入的位置是比较敏感的,任何一个物体在输入中移动时,会导致它对应的输出也会移动。

对位置移动的鲁棒性,提出了pooling layer(池化层或汇聚层)【就是每一次去计算k*k窗口的元素的均值(平均汇聚)或最大值(最大汇聚)】 

卷积神经网络 

  • 卷积神经网络就是一个神经网络,将卷积层堆起来,用卷积来抽取图片中的空间信息【不一定要做图片,可以做跟空间信息有关的东西,只要满足本地性和平移不变性】
  • 激活层用于每一个卷积层之后,卷积层可以看作是特殊的全连接层,所以卷积层也是线性的,需要激活层
  • 卷积层对位置比较敏感,可以用池化层来得到对于位置不是很敏感的输出
  • 现代化的CNN有更多的结构化信息【核有多大,通道数有多少,层与层之间是怎么连起来的】在里面,AlexNet, VGG, Inceptions, ResNet, MobileNet,这些模型都会考虑一些设计模式在里面。 

三、循环神经网络

从多层感知机过渡到循环神经网络 

NLP(自然语言处理)中的经典应用:语言模型(每次给一些词或者是句子里前面那些字然后去预测下一个字是什么);

当然可以用MLP来做:

  • 每一次就使用一个最简单的全连接层做一个softmax回归,然后做分类(有多少个词做多少个分类);
  • 做第一个(例子里的hello预测world)预测还好,但是在下一个词是只看到了上一个时刻的词没有看到之前时刻的词(world这个词没有看到hello)
  • 如果我们在world之前可以加上hello这个词,但是长度会发生变化(全连接的输入项是不能发生变化的,如果是在one-hot里加上去的话,则表现不出时序性)

用RNN来做:

前部分是跟之前的是一样的,但要怎么把上一个时刻的信息弄出来呢?上一个全连接层的输出还没有进入softmax,这里面可能包含了hello的信息,将这个值复制一遍,让它跟world这个词的向量表示放在一起(concat),进而可以预测出!;
上面包含hello的信息的值H叫隐藏状态(Hidden status),之所以叫这个名字,是因为它的信息可以往后走,不管它走多少步H的大小是不发生变换的(取决于上一个全连接层输出的个数);
如果H一直这样走下去的话,它就包含这以前所有它看过的信息。

RNN具体是怎么做的

上图的yt与ht本质上一个东西(在简单的RNN模型里面是这样的,在复杂的版本就可能不是了);
与MLP不同的地方在于加多了一项,这一项为上一个时刻的输出作为这一个时刻的输入再乘上个可学习参数Whh;
现在常用的RNN层

  • 相对来说复杂一点,带有门的RNN如LSTM和GRU,它们会在里面会做一些很细微的控制(信息流是怎么流的)。
  • 忘掉输入:在算 yt 的时候,想要抑制掉 xt(可能xt对 结果的表示 没有那么重要 介词、符号之类的);用 可以学习权重权重 来控制这个输入是否需要抑制
  • 忘掉过去关注现在:新的句子(段落)开始、过去的信息很久很.久的信息跟现在没有太大的关系了,也用 可以学习权重 来控制这个输入是否需要抑制。

代码实现

1、PyTorch API实现

1)实现单向、单层RNN
首先实例化对象single_rnn,然后调用正态分布随机函数torch.randn生成输入,最后将生成的输入作为single_rnn的输入,并且得到输出和最后时刻状态。


  
  1. single_rnn = nn.RNN( 4, 3, 1, batch_first= True)
  2. input = torch.randn( 1, 2, 4) # bs * sl * fs
  3. output, h_n = single_rnn( input)
  4. print(output)
  5. print(h_n)

2)实现双向、单层RNN
首先实例化对象bidirectional_rnn,在这里需要加上bidirectional=True即可实现双向RNN,然后给bidirectional_rnn输入,得到输出和最后时刻状态。


  
  1. bidirectional_rnn = nn.RNN( 4, 3, 1, batch_first= True, bidirectional= True)
  2. bi_output, bi_h_n = bidirectional_rnn( input)
  3. print(bi_output)
  4. print(bi_h_n)

3)比较单向、单层RNN和双向、单层RNN


  
  1. print(output.shape)
  2. print(bi_output.shape)
  3. print(h_n.shape)
  4. print(bi_h_n.shape)

从输出上来看,单向的RNN维度是1 * 2 * 3,而双向的RNN维度是1 * 2 * 6,原因是双向RNN把forward和backward的结果拼在一起;从最后时刻状态来看,单向的RNN维度是1 * 1 * 3,而双向的RNN维度是2 * 1 * 3,原因是双向RNN在最后时刻有两个层,而单向RNN在最后时刻有一个层。

2、代码逐行实现RNN

1)首先初始一些张量,然后调用正态分随机函数随机初始化一个输入特征序列,以及初始隐含状态(设为0)。


  
  1. import torch
  2. import torch.nn as nn
  3. bs, T = 2, 3 # 批大小,输入序列长度
  4. input_size, hidden_size = 2, 3 # 输入特征大小,隐含层特征大小
  5. input = torch.randn(bs, T, input_size) # 随机初始化一个输入特征序列
  6. h_prev = torch.zeros(bs, hidden_size) # 初始隐含状态

2)手写一个rnn_forward函数,手动地模拟单向RNN的运算过程,并且与PyTorch RNN API进行比较,验证输出结果。


  
  1. # step1 调用PyTorch RNN API
  2. rnn = nn.RNN(input_size, hidden_size, batch_first= True)
  3. rnn_output, state_final = rnn( input, h_prev.unsqueeze( 0))
  4. print( "PyTorch API output:")
  5. print(rnn_output)
  6. print(state_final)
  7. # step2 手写一个rnn_forward函数,实现单向RNN的计算原理
  8. def rnn_forward( input, weight_ih, weight_hh, bias_ih, bias_hh, h_prev):
  9. bs, T, input_size = input.shape
  10. h_dim = weight_ih.shape[ 0]
  11. h_out = torch.zeros(bs, T, h_dim) # 初始化一个输出(状态)矩阵
  12. for t in range(T):
  13. x = input[:, t, :].unsqueeze( 2) # 获取当前时刻输入特征,bs * input_size
  14. w_ih_batch = weight_ih.unsqueeze( 0).tile(bs, 1, 1) # bs * h_dim * input_size
  15. w_hh_batch = weight_hh.unsqueeze( 0).tile(bs, 1, 1) # bs * h_dim * h_dim
  16. w_times_x = torch.bmm(w_ih_batch, x).squeeze(- 1) # bs * h_dim
  17. w_times_h = torch.bmm(w_hh_batch, h_prev.unsqueeze( 2)).squeeze(- 1) # bs * h_dim
  18. h_prev = torch.tanh(w_times_x + bias_ih + w_times_h + bias_hh)
  19. h_out[:, t, :] = h_prev
  20. return h_out, h_prev.unsqueeze( 0)
  21. # 验证rnn_forward的正确性
  22. # for k, v in rnn.named_parameters():
  23. # print(k, v)
  24. custom_rnn_output, custom_state_final = rnn_forward( input, rnn.weight_ih_l0, rnn.weight_hh_l0,
  25. rnn.bias_ih_l0, rnn.bias_hh_l0, h_prev)
  26. print( "rnn_forward function output:")
  27. print(custom_rnn_output)
  28. print(custom_state_final)

查看输出结果以及并用torch.allclose验证最后时刻的结果

print(torch.allclose(state_final, custom_state_final))

3)手写一个bidirectional_rnn_forward函数,手动地模拟双向RNN的运算过程,并且与PyTorch RNN API进行比较,验证输出结果。 


  
  1. # step3 手写一个bidirectional_rnn_forward函数,实现双向RNN的计算原理
  2. def bidirectional_rnn_forward( input, weight_ih, weight_hh, bias_ih, bias_hh, h_prev,
  3. weight_ih_reverse, weight_hh_reverse, bias_ih_reverse, bias_hh_reverse, h_prev_reverse):
  4. bs, T, input_size = input.shape
  5. h_dim = weight_ih.shape[ 0]
  6. h_out = torch.zeros(bs, T, h_dim * 2) # 初始化一个输出(状态)矩阵,注意双向是两倍的特征大小
  7. forward_output = rnn_forward( input, weight_ih, weight_hh, bias_ih, bias_hh, h_prev)[ 0] # forward layer
  8. backward_output = rnn_forward(torch.flip( input, [ 1]), weight_ih_reverse, weight_hh_reverse, bias_ih_reverse,
  9. bias_hh_reverse, h_prev_reverse)[ 0] # backward layer
  10. h_out[:, :, :h_dim] = forward_output
  11. h_out[:, :, h_dim:] = backward_output
  12. return h_out, h_out[:, - 1, :].reshape((bs, 2, h_dim)).transpose( 0, 1)
  13. # 验证bidirectional_rnn_forward的正确性
  14. bi_rnn = nn.RNN(input_size, hidden_size, batch_first= True, bidirectional= True)
  15. h_prev = torch.zeros( 2, bs, hidden_size)
  16. bi_rnn_output, bi_state_final = bi_rnn( input, h_prev)
  17. # for k, v in bi_rnn.named_parameters():
  18. # print(k, v)
  19. custom_bi_rnn_output, custom_bi_state_final = bidirectional_rnn_forward( input, bi_rnn.weight_ih_l0, bi_rnn.weight_hh_l0,
  20. bi_rnn.bias_ih_l0, bi_rnn.bias_hh_l0,
  21. h_prev[ 0], bi_rnn.weight_ih_l0_reverse,
  22. bi_rnn.weight_hh_l0_reverse,
  23. bi_rnn.bias_ih_l0_reverse,
  24. bi_rnn.bias_hh_l0_reverse, h_prev[ 1])
  25. print( "PyTorch API output:")
  26. print(bi_rnn_output)
  27. print(bi_state_final)
  28. print( "bidirectional_rnn_forward function output:")
  29. print(custom_bi_rnn_output)
  30. print(custom_bi_state_final)

查看输出结果以及并用torch.allclose验证最后时刻的结果 

print(torch.allclose(bi_state_final, custom_bi_state_final))

 拓展一下RNN: 

  • 一个方向-->两个方向:正向层:将过去时刻的信息放入当前时刻,然后 反向层:时刻t+1的信息往时刻t的方向走【P.S.这里的时刻我觉得不是时间的概念要看成是文本中的词序可能会好理解一点】,最后结合正向层和反向层的信息相结合作为yt
  • 把不同的层跟MLP一样累加起来,做成多层RNN  

对模型的选择: 

  • 对表格数据:可以使用树模型、线性模型或者是MLP
  • 对于文本(有时序信息):可以使用RNN
  • 对于图片、音频、视频(有相似的空间信息):可以用CNN

最近兴起的用 自注意力 做的变形金刚(Transformers)这个模型又能处理有时序信息的东西,又能处理有空间信息的东西 。

 总结

  • MLP(多层感知机):就是将多个全连接层堆起来,然后通过激活层来得到非线性的模型
  • CNN(卷积神经网络):可以看作是比较特殊的全连接层,其中的卷积层使用了空间上的本地性和平移不变性然后做了一个简化版的全连接层,参数少,更适合处理图片信息;将卷积层和汇聚层(池化层)堆叠起来可以得到一种高效抓取空间信息的模型
  • RNN(循环神经网络):可以看作是全连接层在时序上用了过去的信息,放在了现在,在全连接层加了一条额外的边,得到一个循环神经网络,能够作用于有时序信息的数据。

转载:https://blog.csdn.net/lxwssjszsdnr_/article/details/128565574
查看评论
* 以上用户言论只代表其个人观点,不代表本网站的观点或立场