TensoFlow自动求导机制

『TensorFlow』第二弹_线性拟合&神经网络拟合_恰是故人归

下面做了三个简单尝试,

  • 利用包含gradients、assign等tf函数直接构建图进行自动梯度下降
  • 利用优化器计算出导数,再将导数应用到变量上
  • 直接使用优化器不显式得到导数

更新参数必须使用assign,这也可能会涉及到控制依赖问题。

# Author : Hellcat
# Time : 2/20/2018 import tensorflow as tf tf.set_random_seed(1000) def get_fake_data(batch_size=8):
x = 20 * tf.random_uniform([batch_size,1],dtype=tf.float32)
y = tf.multiply(x,3) + 1 + tf.multiply(
tf.random_normal([batch_size,1],mean=0,stddev=0.01,dtype=tf.float32),1)
return x, y x, y = get_fake_data() w = tf.Variable(tf.random_uniform([1,1], dtype=tf.float32), name='w')
b = tf.Variable(tf.random_uniform([1,1], dtype=tf.float32), name='b') lr = 0.001 y_pred = tf.add(tf.multiply(w,x),b)
loss = tf.reduce_mean(tf.pow(tf.multiply(0.5,(y_pred - y)),2),axis=0) # 梯度尝试
grad_w, grad_b = tf.gradients(loss,[w,b])
train_w = tf.assign(w,tf.subtract(w,lr*grad_w))
train_b = tf.assign(b,tf.subtract(b,lr*grad_b))
train = [train_w, train_b] # 使用优化器
# optimizer = tf.train.GradientDescentOptimizer(lr) # 优化器&学习率选择
# ## 优化器+梯度操作
# grads_and_vars = optimizer.compute_gradients(loss, [w,b])
# train = optimizer.apply_gradients(grads_and_vars)
## 优化器径直优化
# train = optimizer.minimize(loss) with tf.Session() as sess:
sess.run(tf.global_variables_initializer())
for ii in range(80000):
sess.run([train])
if ii % 1000 == 0:
print(sess.run(w),sess.run(b))

PyTorch自动求导机制

由于梯度是会累加的,所以清空梯度一定不要忘记。

import torch as t
from torch.autograd import Variable as V
import matplotlib.pyplot as plt
from IPython import display # 指定随机数种子
t.manual_seed(1000) def get_fake_data(batch_size=8):
x = t.rand(batch_size,1)*20
y = x * 2 + 3 + 3*t.randn(batch_size,1)
return x, y x, y = get_fake_data()
plt.scatter(x.squeeze(), y.squeeze()) w = V(t.rand(1,1),requires_grad=True)
b = V(t.rand(1,1),requires_grad=True) lr = 0.001 for ii in range(8000):
x, y = get_fake_data()
x, y = V(x), V(y)
# print(x, y)
y_pred = x.mm(w) + b.expand_as(x) loss = 0.5*(y_pred - y)**2
loss = loss.sum() # 集结loss向量 loss.backward() w.data.sub_(lr * w.grad.data)
b.data.sub_(lr * b.grad.data) w.grad.data.zero_()
b.grad.data.zero_() if ii % 1000 == 0:
display.clear_output(wait=True)
x = t.arange(0,20).view(-1,1)
y = x.mm(w.data) + b.data.expand_as(x)
plt.plot(x.numpy(), y.numpy())
x2, y2 = get_fake_data(batch_size=20)
plt.scatter(x2, y2) plt.xlim(0,20)
plt.ylim(0,40)
plt.show() print(w.data.squeeze(), b.data.squeeze())

『PyTorch x TensorFlow』第六弹_从最小二乘法看自动求导的更多相关文章

  1. 『PyTorch x TensorFlow』第八弹_基本nn.Module层函数

    『TensorFlow』网络操作API_上 『TensorFlow』网络操作API_中 『TensorFlow』网络操作API_下 之前也说过,tf 和 t 的层本质区别就是 tf 的是层函数,调用即 ...

  2. 『TensorFlow』第七弹_保存&载入会话_霸王回马

    首更: 由于TensorFlow的奇怪形式,所以载入保存的是sess,把会话中当前激活的变量保存下来,所以必须保证(其他网络也要求这个)保存网络和载入网络的结构一致,且变量名称必须一致,这是caffe ...

  3. [深度学习] pytorch学习笔记(1)(数据类型、基础使用、自动求导、矩阵操作、维度变换、广播、拼接拆分、基本运算、范数、argmax、矩阵比较、where、gather)

    一.Pytorch安装 安装cuda和cudnn,例如cuda10,cudnn7.5 官网下载torch:https://pytorch.org/ 选择下载相应版本的torch 和torchvisio ...

  4. 『TensorFlow』第十一弹_队列&多线程&TFRecod文件_我辈当高歌

    TF数据读取队列机制详解 一.TFR文件多线程队列读写操作 TFRecod文件写入操作 import tensorflow as tf def _int64_feature(value): # val ...

  5. 『TensorFlow』第十弹_队列&多线程_道路多坎坷

    一.基本队列: 队列有两个基本操作,对应在tf中就是enqueue&dequeue tf.FIFOQueue(2,'int32') import tensorflow as tf '''FIF ...

  6. 『TensorFlow』第三弹_可视化框架介绍_悄悄问圣僧

    添加记录节点 -> 汇总记录节点 -> run汇总节点 -> [书写器生成]书写入文件 [-> 刷新缓冲区] 可视化关键点: 注意, 1.with tf.name_scope( ...

  7. 『PyTorch』第四弹_通过LeNet初识pytorch神经网络_下

    『PyTorch』第四弹_通过LeNet初识pytorch神经网络_上 # Author : Hellcat # Time : 2018/2/11 import torch as t import t ...

  8. 『PyTorch』第四弹_通过LeNet初识pytorch神经网络_上

    总结一下相关概念: torch.Tensor - 一个近似多维数组的数据结构 autograd.Variable - 改变Tensor并且记录下来操作的历史记录.和Tensor拥有相同的API,以及b ...

  9. pytorch的自动求导机制 - 计算图的建立

    一.计算图简介 在pytorch的官网上,可以看到一个简单的计算图示意图, 如下. import torchfrom torch.autograd import Variable x = Variab ...

随机推荐

  1. 最全的MonkeyRunner自动化测试从入门到精通(9)

    最基本脚本功能开始编写(1)Monkeyrunner和Monkey的区别 1)Monkeyrunner工具在工作站上通过API定义的特定命令和事件控制设备或模拟器(可控) 2)精确控制事件之间的事件 ...

  2. java JFR

    1. 参数: -XX:+UnlockCommercialFeatures -XX:+FlightRecorder 2. 运行命令: jcmd <PID> JFR.start name=te ...

  3. npm install的时候出现unexpected end of file错误提示时的解决办法

    运行npm cache clean --force 清空npm缓存即可决这个问题 参考:https://blog.csdn.net/jingtian678/article/details/811876 ...

  4. MAVEN_day01 下载与安装及环境变量的配置

    一.MAVEN简介 MAVEN是apache组织下的一个开源项目,是使用纯java编写的,之用于管理java工程. 二.MAVEN下载与安装 下载地址:http://maven.apache.org/ ...

  5. Vue脚手架使用步骤 2.9.6版本

    转载自:https://blog.csdn.net/sky_LQ/article/details/80729547 Vue脚手架使用步骤 2018年06月19日 12:10:35 sky_LQ 阅读数 ...

  6. python数据结构-如何快速找到多个字典中的公共键

    如何快速找到多个字典中的公共键 问题举例 统计每轮都进球的球员: 第1轮{‘tom’:1, 'meixi':2} 第2轮{‘coco’:3, 'meixi':4, 'marton':2} 第3轮{'c ...

  7. CentOS 7 nginx+tomcat9 session处理方案之session复制

    我们的目标是所有服务器上都要保持用户的Session,那么将每个应用服务器中的Session信息复制到其它服务器节点上是不是就可以呢? 这就是Session的第二中处理办法:会话复制 192.168. ...

  8. Hdu2015 偶数求和

    题目链接:http://acm.hdu.edu.cn/showproblem.php?pid=2015 偶数求和 Time Limit: 2000/1000 MS (Java/Others)    M ...

  9. 约定优于配置---Java的eclipse项目配置

    0.测试文件夹test (测试文件的文件夹和源文件夹src是并行的关系,且位于同一目录) 以后源文件.java文件放在src目录下,相应的单元测试文件放在同级别的test目录下,且内部路径要相同 1. ...

  10. Loj 6036 「雅礼集训 2017 Day4」编码 - 2-sat

    题目传送门 唯一的传送门 题目大意 给定$n$个串,每个串只包含 ' .问是否可能任意两个不同的串不满足一个是另一个的前缀. 2-sat的是显然的. 枚举每个通配符填0还是1,然后插入Trie树. 对 ...