- 关于基本的
RNN
和LSTM
的概念和BPTT
算法可以查看这里 - 参考文章:
一、源代码实现一个binary
例子
1、例子描述
(1) 数据描述
- 输入数据
X
是二进制的一串序列, 在t
时刻,有50%
的概率是1
,50%
的概率是0
,比如:X=[1,1,0,0,1,0.....]
- 输出数据
Y
:- 在时刻
t
,50%
的概率是1
,50%
的概率是0
; - 如果$X_{t-3}$是
1
,则$Y_{t}$100%
是1
(增加50%
); - 如果$X_{t-8}$是
1
,则$Y_{t}$25%
是1
(减少25%
);- 所以如果$X_{t-3}$和$X_{t-8}$都是
1
,则$Y_{t}$50%+50%-25%=75%
的概率是1
- 所以如果$X_{t-3}$和$X_{t-8}$都是
- 在时刻
- 所以,输出数据是有两个依赖关系的
(2) 损失函数
- 使用
cross-entropy
损失函数进行训练 - 这里例子很简单,根据数据生成的规则,我们可以简单的计算一下不同情况下的
cross-entropy
值 - [1] 如果
rnn
没有学到两个依赖关系, 则最终预测正确的概率是62.5%
,cross entropy
值为0.66计算如下- ${X_{t-3}}=\{ {\matrix{
{1} \rightarrow X_{t-8}=\{ {\matrix{
{ 1 \rightarrow 0.5+0.5-0.25=0.75} \cr
{ 0 \rightarrow 0.5+0.5=1 \quad \quad \quad \quad} \cr
}} \cr
{0} \rightarrow X_{t-8} = \{ {\matrix{
{1 \rightarrow 0.5-0.25=0.25 } \quad \quad\cr
{0 \rightarrow 0.5 \quad \quad \quad \quad \quad \quad \quad \quad} \cr
}}\cr
}}$ - 所以正确预测
1
的概率为:(0.75+1+0.25+0.5)/4=0.625
- 所以
cross entropy
值为:-[plog(p)+(1-p)log(1-p)]=0.66
- ${X_{t-3}}=\{ {\matrix{
- [2] 如果
rnn
学到第一个依赖关系,50%
的情况下预测准确度为87.5%
,50%
的情况下预测准确度为62.5%
,cross entropy
值为0.52- 因为
X
是随机生成,0/1
各占50%
,想象生成了很多的数,根据大数定律,50%
的情况是1
,对应到 [1] 中的上面的情况就是:(0.75+1)/2=0.875
的概率预测正确,其余的50%
就和[1]中一样了(去除学到的一个依赖,其余就是没有学到依赖)62.5%
- 损失值:
-0.5 * (0.875 * .log(0.875) + 0.125 * log(0.125))-0.5 * (0.625 * np.log(0.625) + 0.375 * log(0.375)))=0.52
- 因为
- [3] 如果
rnn
两个依赖都学到了,则25%
的情况下100%
预测正确,25%
的情况下50%
预测正确,50%
的情况向75%
预测正确,cross entropy
值为0.451/4
的情况就是$X_{t-3}=1 和 X_{t-8}=0$100%
预测正确1/4
的情况就是$X_{t-3}=0 和 X_{t-8}=0$50%
预测正确1/2
的情况75%
预测正确(0.5+0.5-0.25)- 损失值:
-0.50 * (0.75 * np.log(0.75) + 0.25 * np.log(0.25)) - 0.25 * (2 * 0.50 * np.log (0.50)) - 0.25 * (0) = 0.45
2、网络结构
- 根据时刻
t
的输入向量$X_t$和时刻t-1
的状态向量state
$S_{t-1}$计算得出当前的状态向量$S_t$和输出的结果概率向量$P_t$ - Label数据是
Y
所以有:$${S_t} = {tanh(W(X_t \bigoplus S_{t-1})) + b_s}$$ $${P_t = softmax(US_t + b_p)}$$
- 这里$\bigoplus$表示向量的拼接
$W \in R^{d \times (2+d)}, {b_s} \in R^d , U \in R^{2 \times d}, b_p \in R^2$
d
是state
向量的长度- W是二维的矩阵,因为是将$X_t 和 S_{t-1}$拼接起来和W运算的,
2
对应输入的Xone-hot
之后,所以是2
U
是最后输出预测的权值
初始化
state
$S_{-1}$ 为0向量
- 需要注意的是
cell
并不一定是只有一个neuron unit,而是有n个hidden units- 下图的
state size=4
- 下图的
3、Tensorflow中RNN BPTT实现方式
1) 截断反向传播(truncated backpropagation)
- 假设我们训练含有
1000000
个数据的序列,如果全部训练的话,整个的序列都feed进RNN
中,容易造成梯度消失或爆炸的问题 - 所以解决的方法就是
truncated backpropagation
,我们将序列截断来进行训练(num_steps
)
2) tensorflow中的BPTT算法实现
- 一般截断的反向传播是:在当前时间
t
,往前反向传播num_steps
步即可- 如下图,长度为
6
的序列,截断步数是3
- 如下图,长度为
- 但是
Tensorflow
中的实现并不是这样(如下图)- 它是将长度为
6
的序列分为了两部分,每一部分长度为3
- 前一部分计算得到的
final state
用于下一部分计算的initial state
- 它是将长度为
- 所以
tensorflow
风格的反向传播并没有有效的反向传播num_steps
步(对比一般的方式,依赖关系变的弱一些)- 所以比如想要学习有
8
依赖关系的序列(我们的例子中就是),一般要设置的大于8
- 所以比如想要学习有
- 另外,有人做实验比较了两种方式here,发现一般的实现方式中的
n
步和Tensorflow
中截断设置为2n
的结果相似
3) 关于这个例子,tensorflow风格的实现
- 如下图,
num_steps=5, state_size=4
,就是截断反向传播的步数truncated backprop steps是5
步,state_size
就是cell
中的神经元的个数 - 如果需要截断的步数增多,可以适当增加
state_size
来记录更多的信息- 好比传统的神经网络,就是增加隐藏层的神经元个数
- 途中的注释是下面的列子代码中定义变量的
shape
, 可以对照参考
4、自己实现例子中的RNN
1) 实现过程
- 导入包:
|
|
超参数
- 这里
num_steps=5
就是只能记忆5步, 所以只能学习到一个依赖(因为至少8步才能学到第二个依赖),我们看结果最后的cross entropy
是否在0.52
左右123456'''超参数'''num_steps = 5batch_size = 200num_classes = 2state_size = 4learning_rate = 0.1
- 这里
生成数据
- 就是按照我们描述的规则
|
|
- 生成
batch
数据,因为我们使用sgd
训练
|
|
定义RNN的输入
- 这里每个数需要
one-hot
处理 unstack
方法就是将n
维的数据拆成若开个n-1
的数据,axis
指定根据哪个维度拆的,比如(200,5,2)
三维数据,按axis=1
会有5
个(200,2)
的二维数据1234567'''定义placeholder'''x = tf.placeholder(tf.int32, [batch_size, num_steps], name="x")y = tf.placeholder(tf.int32, [batch_size, num_steps], name='y')init_state = tf.zeros([batch_size, state_size])'''RNN输入'''x_one_hot = tf.one_hot(x, num_classes)rnn_inputs = tf.unstack(x_one_hot, axis=1)
- 这里每个数需要
定义
RNN
的cell
(关键步骤)- 这里关于
name_scope
和variable_scope
的用法可以查看这里12345678910'''定义RNN cell'''with tf.variable_scope('rnn_cell'):W = tf.get_variable('W', [num_classes + state_size, state_size])b = tf.get_variable('b', [state_size], initializer=tf.constant_initializer(0.0))def rnn_cell(rnn_input, state):with tf.variable_scope('rnn_cell', reuse=True):W = tf.get_variable('W', [num_classes+state_size, state_size])b = tf.get_variable('b', [state_size], initializer=tf.constant_initializer(0.0))return tf.tanh(tf.matmul(tf.concat([rnn_input, state],1),W) + b)
- 这里关于
将
cell
添加到计算图中
|
|
定义预测,损失函数,和优化方法
sparse_softmax_cross_entropy_with_logits
会自动one-hot
1234567891011'''预测,损失,优化'''with tf.variable_scope('softmax'):W = tf.get_variable('W', [state_size, num_classes])b = tf.get_variable('b', [num_classes], initializer=tf.constant_initializer(0.0))logits = [tf.matmul(rnn_output, W) + b for rnn_output in rnn_outputs]predictions = [tf.nn.softmax(logit) for logit in logits]y_as_list = tf.unstack(y, num=num_steps, axis=1)losses = [tf.nn.sparse_softmax_cross_entropy_with_logits(labels=label,logits=logit) for logit, label in zip(logits, y_as_list)]total_loss = tf.reduce_mean(losses)train_step = tf.train.AdagradOptimizer(learning_rate).minimize(total_loss)
训练网络
|
|
- 显示结果
|
|
2) 实验结果
num_steps=5, state=4
- 可以看到初试的损失值大约
0.66
, 最后学到一个依赖关系,最终损失值0.52
左右
- 可以看到初试的损失值大约
num_step=10, state=16
- 学到了两个依赖,最终损失值接近
0.45
- 学到了两个依赖,最终损失值接近
5、使用Tensorflow的cell实现
1) 使用static rnn
方式
- 将我们之前自己实现的
cell
和添加到计算图中步骤改为如下即可
|
|
2) 使用dynamic_rnn
方式
这里仅仅替换
cell
就不行了,RNN
输入- 直接就是三维的形式12'''RNN输入'''rnn_inputs = tf.one_hot(x, num_classes)
- 直接就是三维的形式
使用
dynamic_rnn
|
|
- 预测,损失
- 由于
rnn_inputs
是三维的,所以先转成二维的,计算结束后再转换回三维[batch_size, num_steps, num_classes]
12345678910'''因为rnn_outputs是三维的,这里需要将其转成2维的,矩阵运算后再转换回来[batch_size, num_steps, num_classes]'''logits = tf.reshape(tf.matmul(tf.reshape(rnn_outputs, [-1, state_size]), W) +b, \shape=[batch_size, num_steps, num_classes])predictions = tf.nn.softmax(logits)y_as_list = tf.unstack(y, num=num_steps, axis=1)losses = tf.nn.sparse_softmax_cross_entropy_with_logits(labels=y,logits=logits)total_loss = tf.reduce_mean(losses)train_step = tf.train.AdagradOptimizer(learning_rate).minimize(total_loss)
- 由于
Reference
- https://r2rt.com/recurrent-neural-networks-in-tensorflow-i.html
- https://r2rt.com/styles-of-truncated-backpropagation.html
- https://web.stanford.edu/class/psych209a/ReadingsByDate/02_25/Williams%20Zipser95RecNets.pdf
- 本文链接: http://lawlite.me/2017/06/16/RNN-循环神经网络-02Tensorflow中的实现/
- 版权声明: 本博客所有文章除特别声明外,均采用 CC BY-NC-SA 3.0 许可协议 。转载请注明出处!