利用tensorflow实现数据的线性回归

**导入相关库**

  1. import tensorflow as tf
  2. import numpy
  3. import matplotlib.pyplot as plt
  4. rng = numpy.random

参数设置

  1. learning_rate = 0.01
  2. training_epochs = 1000
  3. display_step = 50

训练数据

  1. train_X = numpy.asarray([3.3,4.4,5.5,6.71,6.93,4.168,9.779,6.182,7.59,2.167,
  2. 7.042,10.791,5.313,7.997,5.654,9.27,3.1])
  3. train_Y = numpy.asarray([1.7,2.76,2.09,3.19,1.694,1.573,3.366,2.596,2.53,1.221,
  4. 2.827,3.465,1.65,2.904,2.42,2.94,1.3])
  5. n_samples = train_X.shape[0]

tf图输入

  1. X = tf.placeholder("float")
  2. Y = tf.placeholder("float")

设置权重和偏置

  1. W = tf.Variable(rng.randn(), name="weight")
  2. b = tf.Variable(rng.randn(), name="bias")

构建线性模型

  1. pred = tf.add(tf.multiply(X, W), b)

均方误差

  1. cost = tf.reduce_sum(tf.pow(pred-Y, 2))/(2*n_samples)

梯度下降

  1. optimizer = tf.train.GradientDescentOptimizer(learning_rate).minimize(cost)

初始化变量

  1. init = tf.global_variables_initializer()

开始训练

  1. with tf.Session() as sess:
  2. sess.run(init)
  3. # 适合所有训练数据
  4. for epoch in range(training_epochs):
  5. for (x, y) in zip(train_X, train_Y):
  6. sess.run(optimizer, feed_dict={X: x, Y: y})
  7. # 显示每个纪元步骤的日志
  8. if (epoch+1) % display_step == 0:
  9. c = sess.run(cost, feed_dict={X: train_X, Y:train_Y})
  10. print("Epoch:", '%04d' % (epoch+1), "cost=", "{:.9f}".format(c), \
  11. "W=", sess.run(W), "b=", sess.run(b))
  12. print("Optimization Finished!")
  13. training_cost = sess.run(cost, feed_dict={X: train_X, Y: train_Y})
  14. print("Training cost=", training_cost, "W=", sess.run(W), "b=", sess.run(b), '\n')
  15. # 画图显示
  16. plt.plot(train_X, train_Y, 'ro', label='Original data')
  17. plt.plot(train_X, sess.run(W) * train_X + sess.run(b), label='Fitted line')
  18. plt.legend()
  19. plt.show()

结果展示

Epoch: 0050 cost= 0.183995649 W= 0.43250677 b= -0.5143978

Epoch: 0100 cost= 0.171630666 W= 0.42162812 b= -0.43613702

Epoch: 0150 cost= 0.160693780 W= 0.41139638 b= -0.36253116

Epoch: 0200 cost= 0.151019916 W= 0.40177315 b= -0.2933027

Epoch: 0250 cost= 0.142463341 W= 0.39272234 b= -0.22819161

Epoch: 0300 cost= 0.134895071 W= 0.3842099 b= -0.16695316

Epoch: 0350 cost= 0.128200993 W= 0.37620357 b= -0.10935676

Epoch: 0400 cost= 0.122280121 W= 0.36867347 b= -0.055185713

Epoch: 0450 cost= 0.117043234 W= 0.36159125 b= -0.004236537

Epoch: 0500 cost= 0.112411365 W= 0.3549302 b= 0.04368245

Epoch: 0550 cost= 0.108314596 W= 0.34866524 b= 0.08875148

Epoch: 0600 cost= 0.104691163 W= 0.34277305 b= 0.13114017

Epoch: 0650 cost= 0.101486407 W= 0.33723122 b= 0.17100765

Epoch: 0700 cost= 0.098651998 W= 0.33201888 b= 0.20850417

Epoch: 0750 cost= 0.096145160 W= 0.32711673 b= 0.24377018

Epoch: 0800 cost= 0.093927994 W= 0.32250607 b= 0.27693948

Epoch: 0850 cost= 0.091967128 W= 0.31816947 b= 0.308136

Epoch: 0900 cost= 0.090232961 W= 0.31409115 b= 0.33747625

Epoch: 0950 cost= 0.088699281 W= 0.31025505 b= 0.36507198

Epoch: 1000 cost= 0.087342896 W= 0.30664718 b= 0.39102668

Optimization Finished!

Training cost= 0.087342896 W= 0.30664718 b= 0.39102668


参考:

Author: Aymeric Damien

Project: https://github.com/aymericdamien/TensorFlow-Examples/

机器学习系列-tensorflow-03-线性回归Linear Regression的更多相关文章

  1. Stanford机器学习---第二讲. 多变量线性回归 Linear Regression with multiple variable

    原文:http://blog.csdn.net/abcjennifer/article/details/7700772 本栏目(Machine learning)包括单参数的线性回归.多参数的线性回归 ...

  2. 机器学习 (一) 单变量线性回归 Linear Regression with One Variable

    文章内容均来自斯坦福大学的Andrew Ng教授讲解的Machine Learning课程,本文是针对该课程的个人学习笔记,如有疏漏,请以原课程所讲述内容为准.感谢博主Rachel Zhang的个人笔 ...

  3. ISLR系列:(1)线性回归 Linear Regression

       Linear Regression 此博文是 An Introduction to Statistical Learning with Applications in R 的系列读书笔记,作为本 ...

  4. [笔记]机器学习(Machine Learning) - 01.线性回归(Linear Regression)

    线性回归属于回归问题.对于回归问题,解决流程为: 给定数据集中每个样本及其正确答案,选择一个模型函数h(hypothesis,假设),并为h找到适应数据的(未必是全局)最优解,即找出最优解下的h的参数 ...

  5. 吴恩达机器学习(二) 单变量线性回归(Linear Regression with one variable)

    一.模型表示 1.一些术语 如下图,房价预测.训练集给出了房屋面积和价格,下面介绍一些术语: x:输入变量或输入特征(input variable/features). y:输出变量或目标变量(out ...

  6. 吴恩达机器学习笔记8-多变量线性回归(Linear Regression with Multiple Variables)--多维特征

    我们探讨了单变量/特征的回归模型,现在我们对房价模型增加更多的特征,例如房间数楼层等,构成一个含有多个变量的模型,模型中的特征为(

  7. 吴恩达机器学习笔记1-单变量线性回归(Linear Regression with One Variable)

    在监督学习中我们有一个数据集,这个数据集被称训练集.

  8. TensorFlow 学习笔记(1)----线性回归(linear regression)的TensorFlow实现

    此系列将会每日持续更新,欢迎关注 线性回归(linear regression)的TensorFlow实现 #这里是基于python 3.7版本的TensorFlow TensorFlow是一个机器学 ...

  9. 机器学习(三)--------多变量线性回归(Linear Regression with Multiple Variables)

    机器学习(三)--------多变量线性回归(Linear Regression with Multiple Variables) 同样是预测房价问题  如果有多个特征值 那么这种情况下  假设h表示 ...

随机推荐

  1. bzoj1123 割点性质应用

    删掉无向图上任意一点,请求出将会增加的不连通的点对数 将无向图联通性的问题转化到搜索树方向上考虑 如果一个点不是割点,那么删掉该点的答案很简单,就是2*(n-1) 如果点u是割点,同时u在搜索树上有t ...

  2. ES6 Promise 全面总结

    转载:点击查看原文 ES6 Promise对象 ES6中,新增了Promise对象,它主要用于处理异步回调代码,让代码不至于陷入回调嵌套的死路中. @-v-@ 1. Promise本质 Promise ...

  3. 插件使用一顶部消息提示---overhang

    overhang 是一个非常好的消息提示插件,它是在顶部提示. 官方网站:https://github.com/paulkr/overhang.js 使用方法 1.引入jquery库和jqeury u ...

  4. python---用链表结构实现有序和无序列表的几个功能

    只是看看套路,没有深入练习. 如果真要自己写,可以基于此类. 但其实,在普通使用中,这样实现的性能,并没有python原生的列表性能好. 因为python原生列表的功能,是基于数组作扩展实现的. # ...

  5. Centos7安装OpenJDK8

    https://blog.csdn.net/kanbe_kotori/article/details/70948430

  6. 用webstorm搭建vue项目

    本文只针对新手. 首先要明白几个名词(概念). Node.js: Node.js 是一个基于 Chrome V8 引擎的 JavaScript 运行环境. Node.js 使用了一个事件驱动.非阻塞式 ...

  7. 使用impala操作kudu之创建kudu表(内部表和外部表)

    依次启动HDFS.mysql.hive.kudu.impala 登录impala的shell控制端: Impala-shell 1:使用该impala-shell命令启动Impala Shell .默 ...

  8. php json_encode转换中文乱码

    $arr = ["a"=>'范德萨似懂非懂']; echo json_encode($arr,JSON_UNESCAPED_UNICODE);

  9. 老虎ji 剪枝模拟

    Problem Description “在赌场里,基本原则就是让他们玩下去以及让他们再来玩.他们玩得越久,他们会输的越多,最后,我们会得到一切.”(摘自1995年的电影Casino) 你正在一家赌场 ...

  10. 富文本编辑器上传图片需要配置js,后台代码

    富文本编辑器上传图片需要配置js,后台代码