tesnorflow实现N个epoch训练数据读取的办法
https://blog.csdn.net/lujiandong1/article/details/53991373
方式一:不显示设置读取N个epoch的数据,而是使用循环,每次从训练的文件中随机读取一个batch_size的数据,直至最后读取的数据量达到N个epoch。说明,这个方式来实现epoch的输入是不合理。不是说每个样本都会被读取到的。
对于这个的解释,从数学上解释,比如说有放回的抽样,每次抽取一个样本,抽取N次,总样本数为N个。那么,这样抽取过一轮之后,该样本也是会有1/e的概率没有被抽取到。所以,如果使用这种方式去训练的话,理论上是没有用到全部的数据集去训练的,很可能会造成过拟合的现象。
我做了个小实验验证:
- import tensorflow as tf
- import numpy as np
- import datetime,sys
- from tensorflow.contrib import learn
- from model import CCPM
- training_epochs = 5
- train_num = 4
- # 运行Graph
- with tf.Session() as sess:
- #定义模型
- BATCH_SIZE = 2
- # 构建训练数据输入的队列
- # 生成一个先入先出队列和一个QueueRunner,生成文件名队列
- filenames = ['a.csv']
- filename_queue = tf.train.string_input_producer(filenames, shuffle=True)
- # 定义Reader
- reader = tf.TextLineReader()
- key, value = reader.read(filename_queue)
- # 定义Decoder
- # 编码后的数据字段有24,其中22维是特征字段,2维是lable字段,label是二分类经过one-hot编码后的字段
- #更改了特征,使用不同的解析参数
- record_defaults = [[1]]*5
- col1,col2,col3,col4,col5 = tf.decode_csv(value,record_defaults=record_defaults)
- features = tf.pack([col1,col2,col3,col4])
- label = tf.pack([col5])
- example_batch, label_batch = tf.train.shuffle_batch([features,label], batch_size=BATCH_SIZE, capacity=20000, min_after_dequeue=4000, num_threads=2)
- sess.run(tf.initialize_all_variables())
- coord = tf.train.Coordinator()#创建一个协调器,管理线程
- threads = tf.train.start_queue_runners(coord=coord)#启动QueueRunner, 此时文件名队列已经进队。
- #开始一个epoch的训练
- for epoch in range(training_epochs):
- total_batch = int(train_num/BATCH_SIZE)
- #开始一个epoch的训练
- for i in range(total_batch):
- X,Y = sess.run([example_batch, label_batch])
- print X,':',Y
- coord.request_stop()
- coord.join(threads)
toy data a.csv:
说明:输出如下,可以看出并不是每个样本都被遍历5次,其实这样的话,对于DL的训练会产生很大的影响,并不是每个样本都被使用同样的次数。
方式二:显示设置epoch的数目
- #-*- coding:utf-8 -*-
- import tensorflow as tf
- import numpy as np
- import datetime,sys
- from tensorflow.contrib import learn
- from model import CCPM
- training_epochs = 5
- train_num = 4
- # 运行Graph
- with tf.Session() as sess:
- #定义模型
- BATCH_SIZE = 2
- # 构建训练数据输入的队列
- # 生成一个先入先出队列和一个QueueRunner,生成文件名队列
- filenames = ['a.csv']
- filename_queue = tf.train.string_input_producer(filenames, shuffle=True,num_epochs=training_epochs)
- # 定义Reader
- reader = tf.TextLineReader()
- key, value = reader.read(filename_queue)
- # 定义Decoder
- # 编码后的数据字段有24,其中22维是特征字段,2维是lable字段,label是二分类经过one-hot编码后的字段
- #更改了特征,使用不同的解析参数
- record_defaults = [[1]]*5
- col1,col2,col3,col4,col5 = tf.decode_csv(value,record_defaults=record_defaults)
- features = tf.pack([col1,col2,col3,col4])
- label = tf.pack([col5])
- example_batch, label_batch = tf.train.shuffle_batch([features,label], batch_size=BATCH_SIZE, capacity=20000, min_after_dequeue=4000, num_threads=2)
- sess.run(tf.initialize_local_variables())
- sess.run(tf.initialize_all_variables())
- coord = tf.train.Coordinator()#创建一个协调器,管理线程
- threads = tf.train.start_queue_runners(coord=coord)#启动QueueRunner, 此时文件名队列已经进队。
- try:
- #开始一个epoch的训练
- while not coord.should_stop():
- total_batch = int(train_num/BATCH_SIZE)
- #开始一个epoch的训练
- for i in range(total_batch):
- X,Y = sess.run([example_batch, label_batch])
- print X,':',Y
- except tf.errors.OutOfRangeError:
- print('Done training')
- finally:
- coord.request_stop()
- coord.join(threads)
说明:输出如下,可以看出每个样本都被访问5次,这才是合理的设置epoch数据的方式。
http://stats.stackexchange.com/questions/242004/why-do-neural-network-researchers-care-about-epochs
说明:这个博客也在探讨,为什么深度网络的训练中,要使用epoch,即要把训练样本全部过一遍.而不是随机有放回的从里面抽样batch_size个样本.在博客中,别人的实验结果是如果采用有放回抽样的这种方式来进行SGD的训练.其实网络见不到全部的数据集,推导过程如上所示.所以,网络的收敛速度比较慢.
tesnorflow实现N个epoch训练数据读取的办法的更多相关文章
- tensorflow读取训练数据方法
1. 预加载数据 Preloaded data # coding: utf-8 import tensorflow as tf # 设计Graph x1 = tf.constant([2, 3, 4] ...
- TensorFlow Distribution(分布式中的数据读取和训练)
本文目的 在介绍estimator分布式的时候,官方文档由于版本更新导致与接口不一致.具体是:在estimator分布式当中,使用dataset作为数据输入,在1.12版本中,数据训练只是datase ...
- TensorFlow实践笔记(一):数据读取
本文整理了TensorFlow中的数据读取方法,在TensorFlow中主要有三种方法读取数据: Feeding:由Python提供数据. Preloaded data:预加载数据. Reading ...
- 『TensorFlow』数据读取类_data.Dataset
一.资料 参考原文: TensorFlow全新的数据读取方式:Dataset API入门教程 API接口简介: TensorFlow的数据集 二.背景 注意,在TensorFlow 1.3中,Data ...
- tensorflow之数据读取探究(1)
Tensorflow中之前主要用的数据读取方式主要有: 建立placeholder,然后使用feed_dict将数据feed进placeholder进行使用.使用这种方法十分灵活,可以一下子将所有数据 ...
- TensorFlow数据读取方式:Dataset API
英文详细版参考:https://www.cnblogs.com/jins-note/p/10243716.html Dataset API是TensorFlow 1.3版本中引入的一个新的模块,主要服 ...
- tensoflow数据读取
数据读取 TensorFlow程序读取数据一共有3种方法: 供给数据(Feeding): 在TensorFlow程序运行的每一步, 让Python代码来供给数据. 从文件读取数据: 在TensorFl ...
- TF Boys (TensorFlow Boys ) 养成记(二): TensorFlow 数据读取
TensorFlow 的 How-Tos,讲解了这么几点: 1. 变量:创建,初始化,保存,加载,共享: 2. TensorFlow 的可视化学习,(r0.12版本后,加入了Embedding Vis ...
- 详解Tensorflow数据读取有三种方式(next_batch)
转自:https://blog.csdn.net/lujiandong1/article/details/53376802 Tensorflow数据读取有三种方式: Preloaded data: 预 ...
随机推荐
- Android笔记(一):this 的表示范围和 Context
this 的表示范围 this 指的是它所在的直接所在的类. 例如: public class MyClass{ int num; public MyClass(int num){ this.num ...
- stanford CS DB 课程 数据库系统实现
http://infolab.stanford.edu/db_pages/classes.html CS145: Introduction to Databases CS245: Databa ...
- 收集的MySQL的面试题分享给大家
1.怎样登陆mysql数据库 mysql -u username -p 2.怎样开启/关闭mysql服务 service mysql start/stop 3.查看mysql的状态 service m ...
- 我所经历的SAP选型[转]
这是一个失败的选型项目,而且在可遇见的未来公司也不会再经历SAP选型,甚至不会再启动erp项目,个中原因很难一言道尽,在此简要的说说我们的选型过程以及在选型过程中对各种因素的考虑. 一.重启选型工作七 ...
- cmd 递归删除目录或文件
递归删目录 for /r <TARGET DIR> %i in (<DIR NAME or Pattern>) do rd /s /q %i 递归删文件 for /r < ...
- QQ去除未读状态的动画
QQ去除未读状态的动画 by 伍雪颖 watermark/2/text/aHR0cDovL2Jsb2cuY3Nkbi5uZXQvcmFpbmxlc3Zpbw==/font/5a6L5L2T/fonts ...
- 在ASP.NET MVC中实现本地化和全球化
在开发多语言网站时,我们可以为某种语言创建一个资源文件,根据浏览器所设置的不同语言偏好,让运行时选择具体使用哪个资源文件.资源文件在生成程序集的时候被嵌入到程序集. 本篇体验,在ASP.NET MVC ...
- 在ASP.NET MVC中实现登录后回到原先的界面
有这样的一个需求:提交表单,如果用户没有登录,就跳转到登录页,登录后,跳转到原先表单提交这个页面,而且需要保持提交表单界面的数据. 提交表单的页面是一个强类型视图页,如果不考虑需要保持提交表单界面的数 ...
- CLR如何加载程序集以及程序集版本策略
在项目的配置文件Web.config中,会看到<runtime>节点,以及包含在其中的<assemblyBinding>节点,这显然与程序集有关,这些节点到底何时被用到呢? 在 ...
- Python可视化库
转自小小蒲公英原文用Python可视化库 现如今大数据已人尽皆知,但在这个信息大爆炸的时代里,空有海量数据是无实际使用价值,更不要说帮助管理者进行业务决策.那么数据有什么价值呢?用什么样的手段才能把数 ...