tensorflow学习之(八)使用dropout解决overfitting(过拟合)问题
#使用dropout解决overfitting(过拟合)问题
#如果有dropout,在feed_dict的参数中一定要加入dropout的值
import tensorflow as tf
from sklearn.datasets import load_digits
from sklearn.cross_validation import train_test_split
from sklearn.preprocessing import LabelBinarizer #load datas 导入klearn中digits手写字体数据集
digits = load_digits()
X = digits.data #加载从0-9的数字集
y = digits.target #y为X所对应的标签
#fit(y) 返回一个实例
#fit_transform(y) 返回 和y一样的形状
y = LabelBinarizer().fit_transform(y)
#train_test_split(train_data,train_target,test_size=0.4, random_state=0)
# 是交叉验证中常用的函数,功能是从样本中随机的按比例选取train_data和test_data
#参数解释:
#train_data:所要划分的样本特征集
#train_target:所要划分的样本结果
#test_size:样本占比,如果是整数的话就是样本的数量
#random_state:是随机数的种子。
#随机数种子:其实就是该组随机数的编号,在需要重复试验的时候,保证得到一组一样的随机数。
# 比如你每次都填1,其他参数一样的情况下你得到的随机数组是一样的。但填0或不填,每次都会不一样。
#随机数的产生取决于种子,随机数和种子之间的关系遵从以下两个规则:
#种子不同,产生不同的随机数;种子相同,即使实例不同也产生相同的随机数。
X_train,X_test,y_train,y_test = train_test_split(X,y,test_size=0.3) '''
#fit_transform()、inverse_transform使用的例子
#程序
from sklearn import preprocessing
feature = [[0,1], [1,1], [0,0], [1,0]]
label= ['yes', 'no', 'yes', 'no']
lb = preprocessing.LabelBinarizer() #构建一个转换对象
Y = lb.fit_transform(label)
re_label = lb.inverse_transform(Y)#还原之前的label
print(Y)
print(re_label)
#结果
[[1]
[0]
[1]
[0]]
['yes' 'no' 'yes' 'no']
''' # 定义一个神经层
def add_layer(inputs, in_size, out_size,layer_name, activation_function=None):
#add one more layer and return the output of the layer
Weights = tf.Variable(tf.random_normal([in_size, out_size]))
biases = tf.Variable(tf.zeros([1, out_size]) + 0.1)
Wx_plus_b = tf.matmul(inputs, Weights) + biases
Wx_plus_b = tf.nn.dropout(Wx_plus_b, keep_pro)#使用dropout机制,解决overfitting问题
if activation_function is None:
outputs = Wx_plus_b
else:
outputs = activation_function(Wx_plus_b)
tf.summary.histogram(layer_name+'/output',outputs)
return outputs #define placeholder for inputs to network
keep_pro = tf.placeholder(tf.float32)#dropout机制使用
xs = tf.placeholder(tf.float32, [None, 64]) # none表示无论给多少个例子都行,64=8*8
ys = tf.placeholder(tf.float32, [None, 10]) #表示10个需要识别的数字 #add output layer
l1 = add_layer(xs, 64, 50,'l1',activation_function=tf.nn.tanh)
prediction = add_layer(l1, 50, 10,'l2', activation_function=tf.nn.softmax) #the error between prediction and real data
cross_entropy = tf.reduce_mean(-tf.reduce_sum(ys * tf.log(prediction),reduction_indices=[1])) #loss function
tf.summary.scalar('loss',cross_entropy)
train_step = tf.train.GradientDescentOptimizer(0.6).minimize(cross_entropy) sess = tf.Session()
merged = tf.summary.merge_all()
sess.run(tf.initialize_all_variables())#tf.initialize_all_variables()以被弃用
#sess.run(tf.global_variables_initializer()) #summary writer goes in here
train_writer = tf.summary.FileWriter("../../logs/train",sess.graph)
test_writer = tf.summary.FileWriter("../../logs/test",sess.graph) for i in range(500):
sess.run(train_step,feed_dict={xs: X_train, ys: y_train,keep_pro:0.6})#保持0.6的概率不被drop掉
if i%50 == 0:
# record loss
train_result = sess.run(merged, feed_dict={xs: X_train, ys: y_train,keep_pro:1})
test_result = sess.run(merged, feed_dict={xs: X_test, ys: y_test,keep_pro:1})
train_writer.add_summary(train_result, i)
test_writer.add_summary(test_result, i)
tensorflow学习之(八)使用dropout解决overfitting(过拟合)问题的更多相关文章
- 4 TensorFlow入门之dropout解决overfitting问题
------------------------------------ 写在开头:此文参照莫烦python教程(墙裂推荐!!!) ---------------------------------- ...
- TensorFlow实战第七课(dropout解决overfitting)
Dropout 解决 overfitting overfitting也被称为过度学习,过度拟合.他是机器学习中常见的问题. 图中的黑色曲线是正常模型,绿色曲线就是overfitting模型.尽管绿色曲 ...
- TensorFlow 学习(八)—— 梯度计算(gradient computation)
maxpooling 的 max 函数关于某变量的偏导也是分段的,关于它就是 1,不关于它就是 0: BP 是反向传播求关于参数的偏导,SGD 则是梯度更新,是优化算法: 1. 一个实例 relu = ...
- 深度学习(一)cross-entropy softmax overfitting regularization dropout
一.Cross-entropy 我们理想情况是让神经网络学习更快 假设单模型: 只有一个输入,一个神经元,一个输出 简单模型: 输入为1时, 输出为0 神经网络的学习行为和人脑差的很多, 开始学习 ...
- tensorflow学习笔记——AlexNet
1,AlexNet网络的创新点 AlexNet将LeNet的思想发扬光大,把CNN的基本原理应用到了很深很宽的网络中.AlexNet主要使用到的新技术点如下: (1)成功使用ReLU作为CNN的激活函 ...
- 【转载】 强化学习(八)价值函数的近似表示与Deep Q-Learning
原文地址: https://www.cnblogs.com/pinard/p/9714655.html ------------------------------------------------ ...
- tensorflow学习笔记——使用TensorFlow操作MNIST数据(2)
tensorflow学习笔记——使用TensorFlow操作MNIST数据(1) 一:神经网络知识点整理 1.1,多层:使用多层权重,例如多层全连接方式 以下定义了三个隐藏层的全连接方式的神经网络样例 ...
- tensorflow学习笔记——图像识别与卷积神经网络
无论是之前学习的MNIST数据集还是Cifar数据集,相比真实环境下的图像识别问题,有两个最大的问题,一是现实生活中的图片分辨率要远高于32*32,而且图像的分辨率也不会是固定的.二是现实生活中的物体 ...
- tensorflow学习笔记——自编码器及多层感知器
1,自编码器简介 传统机器学习任务很大程度上依赖于好的特征工程,比如对数值型,日期时间型,种类型等特征的提取.特征工程往往是非常耗时耗力的,在图像,语音和视频中提取到有效的特征就更难了,工程师必须在这 ...
随机推荐
- 进制与进制转换DAY2
进制和进制转换 一.进制的基础 1.十进制(案例) 系数:0-9 进位规则:逢十进一 权:基数的次幂 基数:几进制基数就是几 规律:右侧第一位的权是10的0次幂,每向左移动一位次幂会+1. 进制的表示 ...
- Linux 总线、设备、驱动模型 与 设备树
1.总线.设备.驱动模型 本着高内聚.低耦合的原则,Linux 把设备驱动模型分为了总线.设备和驱动三个实体,这三个实体在内核里的职责分别如下: 设备和驱动向总线进行注册,总线负责把设备和对应的驱动绑 ...
- Android中 Git 使用中几个概念
1.仓库(版本库) 版本库又名仓库,英文名repository,你可以简单理解成一个目录,这个目录里面的所有文件都可以被Git管理起来,每个文件的修改.删除,Git都能跟踪,以便任何时刻都可以追踪历史 ...
- Python3.6进程池添加子进程不执行_一次傻屌行为
先说现象: 单进程完美执行,使用进程池添加子进程死活不执行.一会儿就结束进程. 很闹心,单进程能执行,说明最起码我函数逻辑,语法是对的..拍错步骤: 1.核对创建进程池,添加子进程,阻塞主进程的语法: ...
- 1.Sed | Awk | Grep | Find
1.Sed | Awk | Grep | Find 可以参考的文档链接 CentOS7 查看 当前机器 已经启动的端口的Shell命令: netstat -lntup | awk -F' ' {'pr ...
- redis+thinkphp5的注册、登陆、关注基础例子
最近初步接触redis,结合thinkphp5与redis,写了一个用户注册的基础例子,用于学习. 这个例子是结合了兄弟连的redis视频,最后两节的内容写的:https://study.163.co ...
- 【396】python 递归练习题(COMP9021)
Merging two strings into a third one Say that two strings s1 and s2 can be merged into a third strin ...
- java 查询路径中所有文件夹和文件的名称,支持文件名模糊查询
java 查询路径中所有文件夹和文件的名称,支持文件名模糊查询 有时候我们遇到需要查询服务器或者本机某个路径下有哪些文件?或者根据文件名称模糊搜索文件,那么就可以使用本方法:可以获取某个路径下所有文件 ...
- GCC后端移植杂记
为GCC后端移植新的处理器架构的确是一件非常痛苦的事情. 拿到GCC源码时,发现它的规模比预想中庞大得多,但好在体系结构十分清晰,前端后端高度解耦.解耦的关键就在于内部的RTL中间代码(表达形式类似于 ...
- 禁止网站显示文件目录列表的方法(htaccess)
主机默认都可以把网站内的文件以列表的形式显示出来: 修改.htaccess文件 在空间网站的根目录下找到.htaccess文件,空间路径一般在/home/YouUsername/public_html ...