『TensorFlow』网络操作API_下
一、优化器基类介绍
标注一点,优化器中的学习率可以是tensor,这意味着它可以feed,
learning_rate: A Tensor or a floating point value.
正常使用流程:
创建优化器对象 -> 指定最小化loss & 可优化参数 -> runminimize实际包含两个操作:首先计算梯度,然后更新可训练参数。

非标准化操作:
希望计算出梯度之后 - > 人工处理梯度 -> 优化参数,
使用两个新的函数取代minimize:
# 创建一个optimizer.
opt = GradientDescentOptimizer(learning_rate=0.1) # 计算<list of variables>相关的梯度
grads_and_vars = opt.compute_gradients(loss, <list of variables>) # grads_and_vars为tuples (gradient, variable)组成的列表。
#对梯度进行想要的处理,比如cap处理
capped_grads_and_vars = [(MyCapper(gv[0]), gv[1]) for gv in grads_and_vars] # 令optimizer运用capped的梯度(gradients)
opt.apply_gradients(capped_grads_and_vars)

二、优化器API详解
| 操作 | 描述 | 
|---|---|
| class tf.train.Optimizer | 基本的优化类,该类不常常被直接调用,而较多使用其子类, 比如GradientDescentOptimizer, AdagradOptimizer 或者MomentumOptimizer | 
| tf.train.Optimizer.__init__(use_locking, name) | 创建一个新的优化器, 该优化器必须被其子类(subclasses)的构造函数调用 | 
| tf.train.Optimizer.minimize(loss, global_step=None, var_list=None, gate_gradients=1, aggregation_method=None, colocate_gradients_with_ops=False, name=None, grad_loss=None) | 添加操作节点,用于最小化loss,并更新var_list 该函数是简单的合并了compute_gradients()与apply_gradients()函数 返回为一个优化更新后的var_list,如果global_step非None,该操作还会为global_step做自增操作 | 
| tf.train.Optimizer.compute_gradients(loss,var_list=None, gate_gradients=1, aggregation_method=None, colocate_gradients_with_ops=False, grad_loss=None) | 对var_list中的变量计算loss的梯度 该函数为函数minimize()的第一部分,返回一个以元组(gradient, variable)组成的列表 | 
| tf.train.Optimizer.apply_gradients(grads_and_vars, global_step=None, name=None) | 将计算出的梯度应用到变量上,是函数minimize()的第二部分,返回一个应用指定的梯度的操作Operation,对global_step做自增操作 | 
| tf.train.Optimizer.get_name() | 获取名称 | 
初始化优化器:

最小化loss:

计算梯度并返回:

应用梯度更新参数:

三、并发性参数专栏
minimize()和compute_gradients()的可选参数,
有GATE_NONE,GATE_OP,GATE_GRAPH三个可选选项。
GATE_NONE最高级别并发,会造成结果不可复现;
GATE_OP每一个节点内部不并发,计算完本节点全部梯度才更新;
GATE_GRAPH最低并发,计算好全部梯度才更新参数,如果想在apply梯度(全梯度)前处理一下,使用这个选项。

四、调试函数(高级API)
一些optimizer的子类,比如 MomentumOptimizer 和 AdagradOptimizer 分配和管理着额外的用于训练的变量。这些变量称之为’Slots’,Slots有相应的名称,可以向optimizer访问的slots名称。有助于在log debug一个训练算法以及报告slots状态。
| 操作 | 描述 | 
|---|---|
| tf.train.Optimizer.get_slot_names() | 返回一个由Optimizer所创建的slots的名称列表 | 
| tf.train.Optimizer.get_slot(var, name) | 返回一个name所对应的slot,name是由Optimizer为var所创建 var为用于传入 minimize() 或 apply_gradients()的变量 | 


五、优化器子类展示
本节不过多区分这些子类的区别,后续章节会对比各个优化器的性能。
| 操作 | 描述 | 
|---|---|
| class tf.train.GradientDescentOptimizer | 使用梯度下降算法的Optimizer | 
| tf.train.GradientDescentOptimizer.__init__(learning_rate, use_locking=False, name=’GradientDescent’) | 构建一个新的梯度下降优化器(Optimizer) | 
| class tf.train.AdadeltaOptimizer | 使用Adadelta算法的Optimizer | 
| tf.train.AdadeltaOptimizer.__init__(learning_rate=0.001, rho=0.95, epsilon=1e-08, use_locking=False, name=’Adadelta’) | 创建Adadelta优化器 | 
| class tf.train.AdagradOptimizer | 使用Adagrad算法的Optimizer | 
| tf.train.AdagradOptimizer.__init__(learning_rate, initial_accumulator_value=0.1, use_locking=False, name=’Adagrad’) | 创建Adagrad优化器 | 
| class tf.train.MomentumOptimizer | 使用Momentum算法的Optimizer | 
| tf.train.MomentumOptimizer.__init__(learning_rate, momentum, use_locking=False, name=’Momentum’, use_nesterov=False) | 创建momentum优化器 momentum:动量,一个tensor或者浮点值 | 
| class tf.train.AdamOptimizer | 使用Adam 算法的Optimizer | 
| tf.train.AdamOptimizer.__init__(learning_rate=0.001, beta1=0.9, beta2=0.999, epsilon=1e-08, use_locking=False, name=’Adam’) | 创建Adam优化器 | 
| class tf.train.FtrlOptimizer | 使用FTRL 算法的Optimizer | 
| tf.train.FtrlOptimizer.__init__(learning_rate, learning_rate_power=-0.5, initial_accumulator_value=0.1, l1_regularization_strength=0.0, l2_regularization_strength=0.0, use_locking=False, name=’Ftrl’) | 创建FTRL算法优化器 | 
| class tf.train.RMSPropOptimizer | 使用RMSProp算法的Optimizer | 
| tf.train.RMSPropOptimizer.__init__(learning_rate, decay=0.9, momentum=0.0, epsilon=1e-10, use_locking=False, name=’RMSProp’) | 创建RMSProp算法优化器 | 

『TensorFlow』网络操作API_下的更多相关文章
- 『TensorFlow』网络操作API_上
		简书翻译原文 卷积层 卷积操作是使用一个二维的卷积核在一个批处理的图片上进行不断扫描.具体操作是将一个卷积核在每张图片上按照一个合适的尺寸在每个通道上面进行扫描.为了达到好的卷积效率,需要在不同的通道 ... 
- 『TensorFlow』网络操作API_中_损失函数及分类器
		一.误差值 度量两个张量或者一个张量和零之间的损失误差,这个可用于在一个回归任务或者用于正则的目的(权重衰减). l2_loss tf.nn.l2_loss(t, name=None) 解释:这个函数 ... 
- 『TensorFlow』读书笔记_Inception_V3_下
		极为庞大的网络结构,不过下一节的ResNet也不小 线性的组成,结构大体如下: 常规卷积部分->Inception模块组1->Inception模块组2->Inception模块组3 ... 
- 『TensorFlow』专题汇总
		TensorFlow:官方文档 TensorFlow:项目地址 本篇列出文章对于全零新手不太合适,可以尝试TensorFlow入门系列博客,搭配其他资料进行学习. Keras使用tf.Session训 ... 
- 『TensorFlow』梯度优化相关
		tf.trainable_variables可以得到整个模型中所有trainable=True的Variable,也是自由处理梯度的基础 基础梯度操作方法: tf.gradients 用来计算导数.该 ... 
- 『TensorFlow』DCGAN生成动漫人物头像_下
		『TensorFlow』以GAN为例的神经网络类范式 『cs231n』通过代码理解gan网络&tensorflow共享变量机制_上 『TensorFlow』通过代码理解gan网络_中 一.计算 ... 
- 『TensorFlow』TFR数据预处理探究以及框架搭建
		一.TFRecord文件书写效率对比(单线程和多线程对比) 1.准备工作 # Author : Hellcat # Time : 18-1-15 ''' import os os.environ[&q ... 
- 『TensorFlow』分布式训练_其三_多机分布式
		本节中的代码大量使用『TensorFlow』分布式训练_其一_逻辑梳理中介绍的概念,是成熟的多机分布式训练样例 一.基本概念 Cluster.Job.task概念:三者可以简单的看成是层次关系,tas ... 
- 『TensorFlow』滑动平均
		滑动平均会为目标变量维护一个影子变量,影子变量不影响原变量的更新维护,但是在测试或者实际预测过程中(非训练时),使用影子变量代替原变量. 1.滑动平均求解对象初始化 ema = tf.train.Ex ... 
随机推荐
- java之threadlocal的使用
			基本介绍 ThreadLocal很多地方叫线程本地变量,或者叫线程本地存储.ThreadLocal为每一个使用该变量的线程都提供一个变量值的副本,是每一个线程都可以独立地改变自己的副本,而不会和其它线 ... 
- el表达式(一)
			<%@ page language="java" contentType="text/html; charset=UTF-8" pageEncoding= ... 
- git忽略规则.gitignore未生效解决办法
			创建git本地的仓库常用命令:git init #初始化--------生成.git文件 配置本地用户名跟邮箱(这样就知道是谁提交的东西)git config --global user.name [ ... 
- MySql 创建索引原则
			https://blog.csdn.net/csdnones/article/details/50412603 为了使索引的使用效率更高,在创建索引时,必须考虑在哪些字段上创建索引和创建什么类型的索引 ... 
- [py]使用字典get方法做数据统计
			s = "aabbccc" d = {} for i in s: if i in d: d[i] += 1 else: d[i] = 0 for i in s: d[i] = d. ... 
- cocos2dx JS 图片精灵添加纹理缓存
			添加精灵图片缓存 : cc.spriteFrameCache.addSpriteFrames("res/pic.plist"); 从缓存中获取 : var frame = cc.s ... 
- 实验:Oracle单节点RAC添加节点
			环境:RHEL 6.5 + Oracle 11.2.0.4 单节点RAC 需求:单节点RAC添加新节点 1.添加节点前的准备工作 2.正式添加节点 3.其他配置工作 1.添加节点前的准备工作 参考Or ... 
- #WEB安全基础 : HTTP协议 | 0x8 HTTP的Cookie技术
			说道Cookie,你喜欢吃饼干吗? 这里的Cookie不是饼干=_= HTTP不对请求和响应的通信状态进行保存,所以被称为无状态协议,为了保持状态和协议功能引入了Cookie技术 Cookie技术在请 ... 
- 基于CSS属性display:table的表格布局的使用
			项目改造中遇到DIV+CSS实现的table,新需求需要在表格使用单元格合并,网上调查返现CSS display:table实现的table表格,没有单元格的属性和样式,经过一番思考,曲折现实了单元格 ... 
- jQuery创建、删除和修改html标签
			1.在父标签内创建子标签,新创建的子标签放在父标签最下面 $(parent).append(son).$(son).appendTo(parent) <div class="d&quo ... 
