tensorflow的数据集可以说是非常重要的部分,我认为人工智能就是数据加算法,数据没处理好哪来的算法?

对此tensorflow有一个专门管理数据集的方式tfrecord·在训练数据时提取图片与标签就更加方便,但是tensorflow

的使用可以说,有时还是会踩着坑的,对此我做了一个代码专门用于去制作tfrecord和读取tfrecord。

1.首先我们要整理数据集格式如下

是的就是这样每个类别的图片数据分别在一个文件夹图片的名字可以随意取,当然要都是相同的编码格式jpg,png之类。

我们在为这些图片按照这样的格式分好类了之拷贝整个路径就可以了

  1. import os
  2. import tensorflow as tf
  3. import cv2 as cv
  4. os.environ['TF_CPP_MIN_LOG_LEVEL'] = '2'
  5.  
  6. FLAGS = tf.app.flags.FLAGS
  7. tf.flags.DEFINE_list('image_CNN_shape', [None, 40, 32, 1], 'image shape [high, width, pip]')
  8. tf.flags.DEFINE_list('image_shape', [40, 32, 1], 'image shape [high, width, pip]')
  9. tf.flags.DEFINE_list('label_CNN_shape', [None, 6], 'label shape is one-hot list [batch, sort]')
  10. tf.flags.DEFINE_list('label_shape', [1], 'label shape ')
  11. tf.flags.DEFINE_integer('batch_size', 20, 'one batch size ')
  12.  
  13. def Reader(train_path):
  14. '''
  15. 输入训练集的整个文件夹生成一个tf的训练文件
  16. train_path
  17. dir_name: 0开始是排序
  18. file_name :1开始排序
  19. :param train_path: 训练集路径
  20. :return:
  21. '''
  22. # 1.生成图片文件队列
  23. # 1.1生成分类的dir 列表
  24. one_list = os.listdir(train_path)
  25.  
  26. # 1.2路径添加完整
  27. # list_dir = add_path(one_list, train_path)
  28. # print(list_dir)
  29. for i in range(len(one_list)):
  30. one_list[i] = train_path + r'/' + str(i)
  31.  
  32. all_image_list = []
  33. all_label_list = []
  34. # print(one_list)
  35. for j in range(len(one_list)):
  36. two_list = os.listdir(one_list[j])
  37. for i in range(len(two_list)):
  38. all_label_list.append(j)
  39. all_image_list.append(one_list[j] + '/' + two_list[i])
  40.  
  41. print(len(all_label_list))
  42. image_queue = tf.train.string_input_producer(all_image_list, shuffle=True)
  43. # 2.构造阅读器
  44. reader = tf.WholeFileReader()
  45. # 3.读取图片
  46. key, value = reader.read(image_queue)
  47. # print(value)
  48. # 4.解码数据
  49. image = tf.image.decode_bmp(value)
  50. image.set_shape([40, 32, 1]) # [高,宽,通道]
  51. # print(image)
  52.  
  53. # 5.批处理数据
  54.  
  55. Op_batch = tf.train.batch([image, key], batch_size=1254, num_threads=1)
  56.  
  57. with tf.Session() as sess:
  58. coor = tf.train.Coordinator()
  59. thread = tf.train.start_queue_runners(sess=sess) # 开启队列的线程
  60.  
  61. image_data, label_data = sess.run(Op_batch)
  62. label_list = []
  63. lenth = len(label_data)
  64. for i in range(lenth):
  65. datalist = str(label_data[i]).split('/')
  66. label_list.append(int(datalist[1]))
  67. write_to_tfrecord(label_list, image_data, lenth)
  68.  
  69. print('tfrecord write down')
  70. coor.request_stop() # 发出所有线程终止信号
  71. coor.join() # 等待所有的子线程加入主线程
  72.  
  73. def add_path(listdir, train_path):
  74. for i in range(len(listdir)):
  75. listdir[i] = train_path + r'/' + listdir[i]
  76. return listdir
  77.  
  78. def write_to_tfrecord(label_batch, image_batch, lenth):
  79. '''
  80. 要点:避免在循环里面eval或者run
  81.  
  82. :param label_batch: numpy类型
  83. :param image_batch: numpy类型
  84. :param lenth: int类型batch的长度
  85. :return: None 会生成一个文件
  86. '''
  87. writer = tf.python_io.TFRecordWriter(path=r"./text.tfrecords")
  88. label_batch = tf.constant(label_batch)
  89. label_batch = tf.cast(label_batch, tf.uint8)
  90. for i in range(lenth):
  91. image = image_batch[i].tostring()
  92.  
  93. label = label_batch[i].eval().tostring()
  94.  
  95. # 构造协议块
  96. # tf_example可以写入的数据形式有三种,分别是BytesList, FloatList以及Int64List的类型。
  97. Example = tf.train.Example(features=tf.train.Features(feature={
  98. 'label': tf.train.Feature(bytes_list=tf.train.BytesList(value=[label])),
  99. 'image': tf.train.Feature(bytes_list=tf.train.BytesList(value=[image]))
  100. }))
  101. writer.write(Example.SerializeToString())
  102. print('write: ', i)
  103. writer.close()
  104.  
  105. def read_tfrecord(path_list):
  106. # 生成阅读器
  107. reader = tf.TFRecordReader()
  108. # 定义输入部分
  109. file_queue = tf.train.string_input_producer(path_list, shuffle=False)
  110. key, value = reader.read(file_queue)
  111. # 解析value
  112. features = tf.parse_single_example(serialized=value, features={
  113. 'image': tf.FixedLenFeature([], tf.string),
  114. 'label': tf.FixedLenFeature([], tf.string)
  115. })
  116.  
  117. image = tf.decode_raw(features['image'], tf.uint8)
  118. label = tf.decode_raw(features['label'], tf.uint8)
  119. image = tf.reshape(image, FLAGS.image_shape)
  120. label = tf.reshape(label, FLAGS.label_shape)
  121.  
  122. image_batch, label_batch = tf.train.batch([image, label], batch_size=FLAGS.batch_size, num_threads=1, capacity=FLAGS.batch_size)
  123. print(image_batch, label_batch)
  124. return image_batch, label_batch
  125.  
  126. if __name__ == '__main__':
  127.  
  128. train_path = r'E:\百度云下载\tf_car_license_dataset\train_images\training-set\chinese-characters'
  129. dir_list = []
  130. read_path_list = [r"./other.tfrecords", ]
  131. Reader(train_path)

Reader就是制作tfrecord

  1. read_tfrecord就是按照路径去读取数据读出来的数据的shape FLAGS.image_CNN_shape形状的数据,方便做卷积

注:在做数据集整理的时候我做了许多的尝试,由于这样对图片分类,制作数据的时候打标签才更容易,最容易的莫过于,制作的时候所有一类的都放在一起,

也就是前200个读取出来的都是0号,下一个读取出来的都是1号。。。结果这样的数据集卷积神经网络怎么都不收敛,很尬,我程序跑了一天了,准确率上不去,

我都以为是我模型构建错误的原因,结果还是找不出问题所在。后来我改变了数据集的制作方式,改成乱序制作,训练就非常高效的成功了。最后要补充的是,

当数据的准确率一直在震荡,那么你可以尝试着把学习率改的更小比如0.0001就好了。这个过程还是要多多实际操作。

2.制作tfrecord慢的原因,一定要记住在tensorflow里面的tensor和op的区别,run 和 eval tensor 会获得里面的数据,但是run 和 eval op则会执行这个op,

虽然都会出现函数的返回值一样的结果是因为op运行的结果出来了,如果在制作tfrecord的for循环里面存在eval或者run op会导致制作的过程异常的慢,几千个数据集可能要做一晚上。

举个反面例子

  1. def Reader(train_path):
  2. '''
  3. 输入训练集的整个文件夹生成一个tf的训练文件
  4. train_path
  5. dir_name: 0开始是排序
  6. file_name :1开始排序
  7. :param train_path: 训练集路径
  8. :return:
  9. '''
  10. # 1.生成图片文件队列
  11. # 1.1生成分类的dir 列表
  12. one_list = os.listdir(train_path)
  13.  
  14. # 1.2路径添加完整
  15. # list_dir = add_path(one_list, train_path)
  16. # print(list_dir)
  17. for i in range(len(one_list)):
  18. one_list[i] = train_path + r'/' + str(i)
  19.  
  20. all_image_list = []
  21. all_label_list = []
  22. print(one_list)
  23. for j in range(len(one_list)):
  24. two_list = os.listdir(one_list[j])
  25. for i in range(len(two_list)):
  26. all_label_list.append(j)
  27. all_image_list.append(one_list[j] + '/' + two_list[i])
  28.  
  29. print('%s:'%j,len(two_list)) # 校验
  30.  
  31. print(all_label_list)
  32. lenth = len(all_label_list)
  33. lenth_image = len(all_image_list)
  34. print('label len:', lenth)
  35. print('image len: ', lenth_image)
  36. image_queue = tf.train.string_input_producer(all_image_list, shuffle=False)
  37. # 2.构造阅读器
  38. reader = tf.WholeFileReader()
  39. # 3.读取图片
  40. key, value = reader.read(image_queue)
  41. # print(value)
  42. # 4.解码数据
  43. image = tf.image.decode_bmp(value)
  44. image.set_shape([40, 32, 1]) # [高,宽,通道]
  45. # print(image)
  46.  
  47. # 5.批处理数据
  48.  
  49. image_batch_op = tf.train.batch([image], batch_size=lenth, num_threads=1)
  50.  
  51. with tf.Session() as sess:
  52. coor = tf.train.Coordinator()
  53. thread = tf.train.start_queue_runners(sess=sess) # 开启队列的线程
  54. write_op = write_to_tfrecord(all_label_list, image_batch_op, lenth)
  55. print('tfrecord write down')
  56. coor.request_stop() # 发出所有线程终止信号
  57. coor.join() # 等待所有的子线程加入主线程
  58.  
  59. def write_to_tfrecord(label_batch, image_batch, lenth):
  60. writer = tf.python_io.TFRecordWriter(path=r"./mnist_data/other1.tfrecords")
  61. label_batch = tf.constant(label_batch)
  62. label_batch = tf.cast(label_batch, tf.uint8)
  63. for i in range(lenth):
  64. image = image_batch[i].eval().tostring() # 在这里eval()的话就会很慢 类似于每一次都run了一下image_batch的这个op--也算是个反面教材吧
  65. label = label_batch[i].eval().tostring()
  66.  
  67. # 构造协议块
  68. # tf_example可以写入的数据形式有三种,分别是BytesList, FloatList以及Int64List的类型。
  69. Example = tf.train.Example(features=tf.train.Features(feature={
  70. 'label': tf.train.Feature(bytes_list=tf.train.BytesList(value=[label])),
  71. 'image': tf.train.Feature(bytes_list=tf.train.BytesList(value=[image]))
  72. }))
  73. writer.write(Example.SerializeToString())
  74. print('write: ', i)
  75. writer.close()

这里传入写入函数的image_batch的是一个op 所以在函数里面需要每一个都eval,导致程序很慢。因为每一次eval和run一个op需要牵扯到很多的数据计算。最好在循环外面就完成这个操作。

tensorflow的tfrecord操作代码与数据协议规范的更多相关文章

  1. tensorflow制作tfrecord格式数据

    tf.Example msg tensorflow提供了一种统一的格式.tfrecord来存储图像数据.用的是自家的google protobuf.就是把图像数据序列化成自定义格式的二进制数据. To ...

  2. 3. Tensorflow生成TFRecord

    1. Tensorflow高效流水线Pipeline 2. Tensorflow的数据处理中的Dataset和Iterator 3. Tensorflow生成TFRecord 4. Tensorflo ...

  3. Tensorflow之TFRecord的原理和使用心得

    本文首发于微信公众号「对白的算法屋」 大家好,我是对白. 目前,越来越多的互联网公司内部都有自己的一套框架去训练模型,而模型训练时需要的数据则都保存在分布式文件系统(HDFS)上.Hive作为构建在H ...

  4. 【开源】OSharp3.0框架解说系列(6.2):操作日志与数据日志

    OSharp是什么? OSharp是个快速开发框架,但不是一个大而全的包罗万象的框架,严格的说,OSharp中什么都没有实现.与其他大而全的框架最大的不同点,就是OSharp只做抽象封装,不做实现.依 ...

  5. Scala 深入浅出实战经典 第39讲:ListBuffer、ArrayBuffer、Queue、Stack操作代码实战

    王家林亲授<DT大数据梦工厂>大数据实战视频 Scala 深入浅出实战经典(1-64讲)完整视频.PPT.代码下载:百度云盘:http://pan.baidu.com/s/1c0noOt6 ...

  6. PHP操作二进制字节数据

    在PHP开发中大都是操作字符类数据,极为方便,但操作二进制又如何呢,下面代码举例看看. 函数:  pack(format,args+) pack()和unpack()函数的第一个参数表如下 Bash ...

  7. 使用JWPL (Java Wikipedia Library)操作维基百科数据

    使用JWPL (Java Wikipedia Library)操作维基百科数据 1. JWPL介绍 JWPL(Java Wikipedia Library)是一个开源的访问wikipeida数据的Ja ...

  8. tensorflow学习笔记(10) mnist格式数据转换为TFrecords

    本程序 (1)mnist的图片转换成TFrecords格式 (2) 读取TFrecords格式 # coding:utf-8 # 将MNIST输入数据转化为TFRecord的格式 # http://b ...

  9. ch6-定制数据对象(打包代码和数据)

    为了看出数据属于哪个选手,教练向各个选手的数据文件中添加了标识数据:选手全名,出生日期,计时数据. 例如:sarah文件的数据更新为: Sarah Sweeney,2002-6-17,2:58,2.5 ...

随机推荐

  1. day55 Pyhton 前端Jquery07

    昨日回顾: 表单,点击submit提交以后,服务端受到信息 import socket import pymysql from urllib.parse import unquote def run( ...

  2. day28 Pyhton 面向对象 继承

    1.昨日回顾 类的命名空间 静态属性\动态属性(方法) 对象的命名空间 #对象的属性 #类指针:对象能够通过这个类指针找到类 #静态属性:属于类,多个对象共享这个资源 #尽量用类名来操作静态属性 #对 ...

  3. 【UR #9】App 管理器

    UOJ小清新题表 题目内容 UOJ链接 一句话题意:给出一个强联通的混合图,有一些有向边和无向边.删除一些边使其维持强联通的状态,求删边方案. 数据范围 \(1\leq n\leq 5000,0\le ...

  4. Python之dict字典详解

    Python内置了字典:dict的支持,dict全称dictionary,在其他语言中也称为map,字典是另 一种可变容器模型,且可存储任意类型对象.具有极快的查找速度. 字典是一种通过名字或者关键字 ...

  5. [开源] .Net ORM FreeSql 1.10.0 稳步向行

    写在开头 FreeSql 是 .NET 开源生态下的 ORM 轮子,转眼快两年了,说真的开源不容易(只有经历过才明白).今天带点干货和湿货给大家,先说下湿货. 认识我的人,知道 CSRedisCore ...

  6. 今天 1024,为了不 996,Lombok 用起来以及避坑指南

    Lombok简介.使用.工作原理.优缺点 Lombok 项目是一个 Java 库,它会自动插入编辑器和构建工具中,Lombok 提供了一组有用的注解,用来消除 Java 类中的大量样板代码. 目录 L ...

  7. 我天天curd,怎么才能成长?

    起因 "天天在那curd,也没啥技术含量" "你就是一个curd boy" "你就是一个curder啊" "你不写代码,你只是代码 ...

  8. JS删除微博

    昨天晚上找回了10年注册的微博,现在瞅瞅,转发过很多傻吊的微博,关注了一堆营销号,不忍直视,动手删吧!开玩笑的,怎么可能手动! 查看自己的所有微博,F12----->console,负责下面代码 ...

  9. 一些常见JAVA问题

    原文:https://blog.csdn.net/weiyongxuan/article/details/45920765 一.Java的异常的基类是java.lang.Throwable 二.守护线 ...

  10. C# 9.0 新特性预览 - init-only 属性

    C# 9.0 新特性预览 - init-only 属性 前言 随着 .NET 5 发布日期的日益临近,其对应的 C# 新版本已确定为 C# 9.0,其中新增加的特性(或语法糖)也已基本锁定,本系列文章 ...