LSTM模型中的出现两个step含义不同

版权声明:凡由本人原创,如有转载请注明出处https://me.csdn.net/qq_41424519,谢谢合作 https://blog.csdn.net/qq_41424519/article/details/81809472

情况一:def model(dataset, steps):
        #dynamic_rnn返回两个变量,第一个是每个step的输出值,第二个是最终的状态。
        #sequencelength即每条评价对应的长度只包括有效单词,通过trainSteps传入
        outputs, last_states = tf.nn.dynamic_rnn(cell = lstm_cell,
                                                 dtype = tf.float32,
                                                 sequence_length = steps,#这里的step是每个batch中的每条样本的长度,注意每条样本的长度是可以不同的。
                                         inputs = dataset)
        #rnn会在每一个字产生一个输出值,在这里只取最后一个字的输出值作为输出
        hidden = last_states[-1]
        hidden = tf.matmul(hidden, w1) + b1
        logits = tf.matmul(hidden, w2) + b2
        return logits

情况二:for step  in range(len(trainData)+1):#bacth_size为移动的覆盖面,从第一条评论开始移动,每次移动的步数step最小是1,最大是bacth_size那么大。
        offset = (step  * batch_size) % (len(trainLabels)-batch_size)
        #feed_dict的作用是给使用placeholder创建出来的tensor赋值
        #每次输入的训练数据只有batch_size个,随机取起点,取连续batch_size个数据
        feed_dict={tf_train_dataset:trainData[offset:offset + batch_size],
                   tf_train_labels:trainLabels[offset:offset + batch_size],
                   tf_train_steps:trainSteps[offset:offset + batch_size]}
        _, l = session.run([optimizer,loss],
                           feed_dict = feed_dict)

猜你喜欢

转载自blog.csdn.net/qq_41424519/article/details/81809472