使用tf.keras.Sequential()建立网络模型

整个过程可分为五步:
1创建Sequential模型,2添加所需要的神经层,3使用.compile方法确定模型训练结构,4使用.fit方法

使模型与训练数据“拟合”,5.predict方法进行预测。

1.建立Sequential模型

导入tensorflow模块,使用keras中的Sequential模型

import tensorflow as tf
model = tf.keras.Sequential()

keras.Senquential()模型是一个顺序堆叠模型,可以在模型中依次添加所需要的神经层

2.添加神经层

使用model.add()方法可以向建立好的模型中添加需要的神经层

首先是输入层

1 model.add(tf.keras.layers.Flatten(input_shape = (28, 28)))#输入的数据为 28*28的二维数据

Flatten是常用的输入层,可以把输入的多维数据展开成一维,便于输入到神经网络中。

input_shape参数是以元组的形式输入数据的维度。

然后是添加中间层,这里只介绍简单的几种中间层。

Dense:全连接神经网络层。

Dropout:对于神经网络单元,按照一定的概率将其暂时从网络中丢弃。

1 model.add(tf.keras.layers.Dense(128, activation = "relu"))
2 model.add(tf.keras.layers.Dropout(0.5))

Dense中的第一个参数是只隐藏单元的数量,隐藏单元越多,神经网络就越复杂,activation参数是Dense层的激活函数。

Dropout是按照一定概率随机丢弃一些隐藏单元,避免隐藏单元之间出现过强的依赖性造成过拟合,Dropout层可以有效抑制过拟合,参数是随机丢弃隐藏单元的概率。

最后是添加分类器。

分类器也是一个中间层,激活函数选用某些用于分类的函数。

softmax就是一个常用的分类器。

1 model.add(keras.layers.Dense(10, activation='softmax'))

这里添加了一个softmax分类器,第一个参数是分类的类别,这是一个10分类的分类器。

3.使用.compile()方法确定模型训练流程

1 model.compile(optimizer = 'adam', #梯度下降
2 loss = 'sparse_categorical_crossentropy', #损失函数
3 metrics = ['acc'] #正确率
4 )

optimizer参数是选择模型梯度下降的传递优化器实例,也可以通过下面这种方式自定义优化器中的学习率。

1 optimizer = tf.keras.optimizers.Adam(learning_rate = 0.001)

loss参数是选择计算模型误差的损失函数,常见的有均方差‘mse’和'sparse_categorical_crossentropy'等。

metrics用于监视训练,它们是 tf.keras.metrics模块中的字符串名称或可调用对象。

4.使用.fit()方法训练模型

model.fit(train_image, train_label, epochs = 10,batch_size = 32,
validation_data = (test_image, test_label)
#显示测试集在训练中的测试情况
)

最开始的两个参数是训练数据和数据的标签。

epochs是迭代次数,也就是 对这些数据反复训练的次数。

batch_size每次迭代输入的数据数量。

validation_data监视迭代过程中在验证集上达到的效果。

5.评估和预测

1 model.evaluate(test_image, test_label)

使用.evaluate()方法对测试集进行评估。

1 model.predict(test_image[0])

使用.predict()方法对数据进行预测,返回一个预测的结果。

Tensorflow学习笔记No.1的更多相关文章

  1. Tensorflow学习笔记2:About Session, Graph, Operation and Tensor

    简介 上一篇笔记:Tensorflow学习笔记1:Get Started 我们谈到Tensorflow是基于图(Graph)的计算系统.而图的节点则是由操作(Operation)来构成的,而图的各个节 ...

  2. Tensorflow学习笔记2019.01.22

    tensorflow学习笔记2 edit by Strangewx 2019.01.04 4.1 机器学习基础 4.1.1 一般结构: 初始化模型参数:通常随机赋值,简单模型赋值0 训练数据:一般打乱 ...

  3. Tensorflow学习笔记2019.01.03

    tensorflow学习笔记: 3.2 Tensorflow中定义数据流图 张量知识矩阵的一个超集. 超集:如果一个集合S2中的每一个元素都在集合S1中,且集合S1中可能包含S2中没有的元素,则集合S ...

  4. TensorFlow学习笔记之--[compute_gradients和apply_gradients原理浅析]

    I optimizer.minimize(loss, var_list) 我们都知道,TensorFlow为我们提供了丰富的优化函数,例如GradientDescentOptimizer.这个方法会自 ...

  5. 深度学习-tensorflow学习笔记(1)-MNIST手写字体识别预备知识

    深度学习-tensorflow学习笔记(1)-MNIST手写字体识别预备知识 在tf第一个例子的时候需要很多预备知识. tf基本知识 香农熵 交叉熵代价函数cross-entropy 卷积神经网络 s ...

  6. 深度学习-tensorflow学习笔记(2)-MNIST手写字体识别

    深度学习-tensorflow学习笔记(2)-MNIST手写字体识别超级详细版 这是tf入门的第一个例子.minst应该是内置的数据集. 前置知识在学习笔记(1)里面讲过了 这里直接上代码 # -*- ...

  7. tensorflow学习笔记(4)-学习率

    tensorflow学习笔记(4)-学习率 首先学习率如下图 所以在实际运用中我们会使用指数衰减的学习率 在tf中有这样一个函数 tf.train.exponential_decay(learning ...

  8. tensorflow学习笔记(3)前置数学知识

    tensorflow学习笔记(3)前置数学知识 首先是神经元的模型 接下来是激励函数 神经网络的复杂度计算 层数:隐藏层+输出层 总参数=总的w+b 下图为2层 如下图 w为3*4+4个   b为4* ...

  9. tensorflow学习笔记(2)-反向传播

    tensorflow学习笔记(2)-反向传播 反向传播是为了训练模型参数,在所有参数上使用梯度下降,让NN模型在的损失函数最小 损失函数:学过机器学习logistic回归都知道损失函数-就是预测值和真 ...

  10. tensorflow学习笔记(1)-基本语法和前向传播

    tensorflow学习笔记(1) (1)tf中的图 图中就是一个计算图,一个计算过程.                                       图中的constant是个常量 计 ...

随机推荐

  1. python中os.path下模块总结

    import os path =os.path.abspath("abc.text") # 返回绝对路径 print("path:",path) # path: ...

  2. Zabbix Server宕机报“__zbx_mem_malloc(): out of memory (requested 96 bytes)”

    早上登录Zabbix的时候,发现其提示"Zabbix server is not running: the information displayed may not be current& ...

  3. UEFI、BIOS、GPT、MBR等概念的辨析

    (本文转移自本人的旧博客) 从各个地方包括知乎,Wiki,CSDN搜索到的一些整理,这些概念极易混淆. 先说互相的关系 BIOS和UEFI是两种固件接口标准 MBR和GPT是两种分区表 Legacy模 ...

  4. leetcode刷题-82.删除排序链表中的重复元素 II

    题目 给定一个排序链表,删除所有含有重复数字的节点,只保留原始链表中 没有重复出现 的数字. 示例 1: 输入: 1->2->3->3->4->4->5输出: 1- ...

  5. LAMP环境之编译安装httpd服务

    “Apache HTTP Server”是开源软件项目的杰出代表,它基于标准的 HTTP 网络协议提供网页浏览服务. 在配置 Apache 网站服务之前,需要正确安装好 httpd 服务器软件.htt ...

  6. 字符串split的用法

    拆分字符串:张三:20|李四:40|王五:40 这个可以使用两次分割,第一次使用 | 分割,放到arr数组里,然后使用循环对arr[i]进行使用:分割 public static void main( ...

  7. 图解 Await 和 Async

    原文链接:Await and Async Explained with Diagrams and Examples 文章目录 简介 Promise 问题:组合 Promise Async 函数 Awa ...

  8. Georgia and Bob(POJ 1704)

    原题如下: Georgia and Bob Time Limit: 1000MS   Memory Limit: 10000K Total Submissions: 12712   Accepted: ...

  9. $\TeX$ Gyre 字体安装过程与问题解决

    目录 安装过程 1. 下载字体包 2. 安装字体 3. 测试范例文件 本文地址 https://www.cnblogs.com/oberon-zjt0806/p/13672426.html 本文只是一 ...

  10. 云计算openstack共享组件——时间同步服务ntp(2)

    一.标准时间讲解 地球分为东西十二个区域,共计 24 个时区 格林威治作为全球标准时间即 (GMT 时间 ),东时区以格林威治时区进行加,而西时区则为减. 地球的轨道并非正圆,在加上自转速度逐年递减, ...