RNN(二)——基于tensorflow的LSTM的实现
lstm的前向结构,不迭代
最基本的lstm结构。不涉及损失值和bp过程
import tensorflow as tf
import numpy as np
inputs = tf.placeholder(np.float32, shape=(32,40,5)) # 32 是 batch_size
lstm_cell_1 = tf.nn.rnn_cell.LSTMCell(num_units=128) #实例话一个lstm单元,输出是128单元
print("output_size:",lstm_cell_1.output_size)
print("state_size:",lstm_cell_1.state_size)
print(lstm_cell_1.state_size.h)
print(lstm_cell_1.state_size.c)
output,state=tf.nn.dynamic_rnn(
cell=lstm_cell_1,
inputs=inputs,
dtype=tf.float32
)
# 根据inputs输入的维度迭代rnn,并将输出和隐层态,push进output和state里面。
(inputs是三个维度,第一维,是batch_size,第二维:数据切片为面,第三维:切片面的具体数据)
print("第一个输入的最后一个序列的预测输出:",output[1,-1,:])
print("output.shape:",output.shape)
print("len of state tuple",len(state))
print("state.h.shape:",state.h.shape)
print("state.c.shape:",state.c.shape)
#>>>
output_size: 128
state_size: LSTMStateTuple(c=128, h=128)
128
128
第一个输入的最后一个序列的预测输出: Tensor("strided_slice:0", shape=(128,), dtype=float32)
output.shape: (32, 40, 128)
len of state tuple 2
state.h.shape: (32, 128)
state.c.shape: (32, 128)
用lstm对mnist数据分类
#引包和加载mnist数据
import tensorflow as tf
import input_data
import numpy as np
import matplotlib.pyplot as plt
mnist = input_data.read_data_sets("data/", one_hot=True)
trainimgs, trainlabels, testimgs, testlabels \
= mnist.train.images, mnist.train.labels, mnist.test.images, mnist.test.labels
ntrain, ntest, dim, nclasses \
= trainimgs.shape[0], testimgs.shape[0], trainimgs.shape[1], trainlabels.shape[1]
print ("MNIST loaded")
diminput=28
dimhidden=128
dimoutput=nclasses
nsteps=28
weights={
'hidden':tf.Variable(tf.random_normal([diminput,dimhidden])),
'out':tf.Variable(tf.random_normal([dimhidden,dimoutput]))
}
biases={
'hidden':tf.Variable(tf.random_normal([dimhidden])),
'out':tf.Variable(tf.random_normal([dimoutput]))
}
def RNN(X,W,B,nsteps,name):
print(X.shape,'---')
X=tf.reshape(X,[-1,diminput])
X = tf.matmul(X, W['hidden']) + B['hidden']
X=tf.reshape(X,[-1,diminput,dimhidden])
print(X.shape)
with tf.variable_scope(name) as scope:
#scope.reuse_variables()
lstm_cell=tf.nn.rnn_cell.BasicLSTMCell(dimhidden,forget_bias=1.0)
lstm_o,lstm_s=tf.nn.dynamic_rnn(cell=lstm_cell,inputs=X,dtype=tf.float32)
resultOut=tf.matmul(lstm_o[:,-1,:],W['out'])+B['out']
return {
'X':X,
'lstm_o':lstm_o,'lstm_s':lstm_s,'resultOut':resultOut
}
learning_rate=0.001
x=tf.placeholder('float',[None,nsteps,diminput])
y=tf.placeholder('float',[None,dimoutput])
myrnn=RNN(x,weights,biases,nsteps,'basic')
pred=myrnn['resultOut']
cost=tf.reduce_mean(tf.nn.softmax_cross_entropy_with_logits(logits=pred,labels=y))
optm=tf.train.GradientDescentOptimizer(learning_rate).minimize(cost)
accr=tf.reduce_mean(tf.cast(tf.equal(tf.argmax(pred,1),tf.argmax(y,1)),tf.float32))
init=tf.global_variables_initializer()
training_epochs=33
batch_size=16
display_step=1
sess=tf.Session()
sess.run(init)
for epoch in range(training_epochs):
avg_cost=100
total_batch=100
for i in range(total_batch):
batch_xs, batch_ys = mnist.train.next_batch(batch_size)
batch_xs = batch_xs.reshape((batch_size, nsteps, diminput))
feeds = {x: batch_xs, y: batch_ys}
sess.run(optm, feed_dict=feeds)
# Compute average loss
avg_cost += sess.run(cost, feed_dict=feeds)/total_batch
if epoch % display_step == 0:
print ("Epoch: %03d/%03d cost: %.9f" % (epoch, training_epochs, avg_cost))
feeds = {x: batch_xs, y: batch_ys}
train_acc = sess.run(accr, feed_dict=feeds)
print (" Training accuracy: %.3f" % (train_acc))
testimgs = testimgs.reshape((ntest, nsteps, diminput))
feeds = {x: testimgs, y: testlabels}
test_acc = sess.run(accr, feed_dict=feeds)
print (" Test accuracy: %.3f" % (test_acc))
Epoch: 000/033 cost: 101.797383542
Training accuracy: 0.688
Test accuracy: 0.461
Epoch: 001/033 cost: 101.269138204
Training accuracy: 0.438
Test accuracy: 0.549
Epoch: 002/033 cost: 101.139203327
Training accuracy: 0.688
Test accuracy: 0.614
Epoch: 003/033 cost: 100.965362185
Training accuracy: 0.938
Test accuracy: 0.619
Epoch: 004/033 cost: 100.914383653
Training accuracy: 0.875
Test accuracy: 0.648
Epoch: 005/033 cost: 100.813317066
Training accuracy: 0.625
Test accuracy: 0.656
Epoch: 006/033 cost: 100.781623098
Training accuracy: 0.875
Test accuracy: 0.708
Epoch: 007/033 cost: 100.710710035
Training accuracy: 1.000
Test accuracy: 0.716
Epoch: 008/033 cost: 100.684573339
Training accuracy: 1.000
Test accuracy: 0.745
Epoch: 009/033 cost: 100.635698693
Training accuracy: 0.875
Test accuracy: 0.751
Epoch: 010/033 cost: 100.622099145
Training accuracy: 0.938
Test accuracy: 0.763
Epoch: 011/033 cost: 100.562925613
Training accuracy: 0.750
Test accuracy: 0.763
Epoch: 012/033 cost: 100.592214927
Training accuracy: 0.812
Test accuracy: 0.771
Epoch: 013/033 cost: 100.544024273
Training accuracy: 0.938
Test accuracy: 0.769
Epoch: 014/033 cost: 100.516522627
Training accuracy: 0.875
Test accuracy: 0.791
Epoch: 015/033 cost: 100.479632292
Training accuracy: 0.938
Test accuracy: 0.801
Epoch: 016/033 cost: 100.471150137
Training accuracy: 0.938
Test accuracy: 0.816
Epoch: 017/033 cost: 100.431061392
Training accuracy: 0.875
Test accuracy: 0.807
Epoch: 018/033 cost: 100.464853102
Training accuracy: 0.812
Test accuracy: 0.798
Epoch: 019/033 cost: 100.445183915
Training accuracy: 0.750
Test accuracy: 0.828
Epoch: 020/033 cost: 100.399013084
Training accuracy: 1.000
Test accuracy: 0.804
Epoch: 021/033 cost: 100.393008129
Training accuracy: 0.938
Test accuracy: 0.833
Epoch: 022/033 cost: 100.413909222
Training accuracy: 0.812
Test accuracy: 0.815
RNN(二)——基于tensorflow的LSTM的实现的更多相关文章
- 如何基于TensorFlow使用LSTM和CNN实现时序分类任务
https://www.jiqizhixin.com/articles/2017-09-12-5 By 蒋思源2017年9月12日 09:54 时序数据经常出现在很多领域中,如金融.信号处理.语音识别 ...
- 学习Tensorflow的LSTM的RNN例子
学习Tensorflow的LSTM的RNN例子 基于TensorFlow一次简单的RNN实现 极客学院-递归神经网络 如何使用TensorFlow构建.训练和改进循环神经网络
- TensorFlow-Bitcoin-Robot:一个基于 TensorFlow LSTM 模型的 Bitcoin 价格预测机器人
简介 TensorFlow-Bitcoin-Robot:一个基于 TensorFlow LSTM 模型的 Bitcoin 价格预测机器人. 文章包括一下几个部分: 1.为什么要尝试做这个项目? 2.为 ...
- 个基于TensorFlow的简单故事生成案例:带你了解LSTM
https://medium.com/towards-data-science/lstm-by-example-using-tensorflow-feb0c1968537 在深度学习中,循环神经网络( ...
- TensorFlow-Bitcoin-Robot:一个基于 TensorFlow LSTM 模型的 Bitcoin 价格预测机器人。
简介 TensorFlow-Bitcoin-Robot:一个基于 TensorFlow LSTM 模型的 Bitcoin 价格预测机器人. 文章包括一下几个部分: 1.为什么要尝试做这个项目? 2.为 ...
- 基于tensorflow的MNIST手写数字识别(二)--入门篇
http://www.jianshu.com/p/4195577585e6 基于tensorflow的MNIST手写字识别(一)--白话卷积神经网络模型 基于tensorflow的MNIST手写数字识 ...
- 两种开源聊天机器人的性能测试(二)——基于tensorflow的chatbot
http://blog.csdn.net/hfutdog/article/details/78155676 开源项目链接:https://github.com/dennybritz/chatbot-r ...
- 基于TensorFlow Object Detection API进行迁移学习训练自己的人脸检测模型(二)
前言 已完成数据预处理工作,具体参照: 基于TensorFlow Object Detection API进行迁移学习训练自己的人脸检测模型(一) 设置配置文件 新建目录face_faster_rcn ...
- 基于Tensorflow + Opencv 实现CNN自定义图像分类
摘要:本篇文章主要通过Tensorflow+Opencv实现CNN自定义图像分类案例,它能解决我们现实论文或实践中的图像分类问题,并与机器学习的图像分类算法进行对比实验. 本文分享自华为云社区< ...
随机推荐
- Luogu5363 SDOI2019移动金币(博弈+动态规划)
容易想到可以转化为一个有m堆石子,石子总数不超过n-m的阶梯博弈.阶梯博弈的结论是相当于只考虑奇数层石子的nim游戏. nim和不为0不好算,于是用总方案数减掉nim和为0的方案数.然后考虑dp,按位 ...
- hdu 6216 A Cubic number and A Cubic Number
题意:给定一个素数,判定它是不是两个立方数之差. 题解:对于a^3+b^3=(a-b)(a^2-a*b+b^2),而一个素数的因子只有1和其本身,在加上(a^2-a*b+b^2)一定是大于1的,所以只 ...
- hdu 2844 多重背包的转化问题 以及这个dp状态的确定
在杭电上测试了下 这里的状态转移方程有两个.,. 现在有价值val[1],val[2],…val[n]的n种硬币, 它们的数量分别为num[i]个. 然后给你一个m, 问你区间[1,m]内的所有数目, ...
- (九)Struts标签基础(二)
2.3 非表单标签 2.3.1 <s:actionerror>标签, this.addActionError("错误信息1"); //使用addActionErro ...
- 查找-------(HashCode)哈希表的原理
这段时间 在 准备软件设计师考试 目的是想复习一下 自己以前没怎么学的知识 在这个过程中 有了很大的收获 对以前不太懂得东西 在复习的过程中 有了很大程度的提高 比如在复习 程序 ...
- 数据库及MYSQL基础(2)
数据库及MySQL基础(1) SQL进阶及查询练习 1,单表的查询练习 SELECT * FROM emp WHERE deptno=30; SELECT ename,empno,deptno FRO ...
- 使用vue国际化中出现内置的组件无法切换语言的问题(element-ui、ivew)
在main.js中引入对应组件的语言包 eg: import VueI18n from 'vue-i18n'; // 引入国际化 import elementEn from 'element-ui/l ...
- es6中Array.from()
Array.from()方法就是将一个类数组对象或者可遍历对象转换成一个真正的数组. 那么什么是类数组对象呢?所谓类数组对象,最基本的要求就是具有length属性的对象. 1.将类数组对象转换为真正数 ...
- \lib\cmsis\stm32f10x.h(298): error: #67: expected a "}"
首先介绍一下csdn屏蔽广告 这个至关重要,请参考 https://blog.csdn.net/qq_40881680/article/details/82226562 更新KEIL5以后,原KEIL ...
- 嵌套的页面——自适应高度与跨越操作DOM
<div id="myIframeId"> <iframe ref="myIframe" name="odpIframeName&q ...