Tensorflow之多元线性回归问题(以波士顿房价预测为例)
一、根据波士顿房价信息进行预测,多元线性回归+特征数据归一化
#读取数据
%matplotlib notebook import tensorflow as tf
import matplotlib.pyplot as plt
import numpy as np
import pandas as pd #能快速读取常规大小的文件。Pandas能提供高性能、易用的数据结构和数据分析工具
from sklearn.utils import shuffle #随机打乱工具,将原有序列打乱,返回一个全新的顺序错乱的值 #读取数据文件
df = pd.read_csv("data/boston.csv",header=0) #显示数据描述信息
# print(df.describe())
# print(df) #数据准备 #获取df的值
df = df.values #把df转换成np的数组格式
df = np.array(df) #特征数据归一化
#对特征数据{0到11}列 做(0-1)归一化
for i in range(12):
df[:,i] = (df[:,i]-df[:,i].min())/(df[:,i].max()-df[:,i].min()) #x_data为归一化后的前12列特征数据
x_data = df[:,:12] #y_data为最后1列标签数据
y_data = df[:,12] #模型定义 #定义特征数据和标签数据的占位符
#shape中None表示行的数量未知,在实际训练时决定一次带入多少行样本,从一个样本的随机SDG到批量SDG都可以
x = tf.placeholder(tf.float32,[None,12],name = "X") #12个特征数据(12列)
y = tf.placeholder(tf.float32,[None,1],name = "Y") #1个标签数据(1列) #定义模型函数
#定义了一个命名空间.
#命名空间name_scope,Tensoflow计算图模型中常有数以千计节点,在可视化过程中很难一下子全部展示出来/
#因此可用name_scope为变量划分范围,在可视化中,这表示在计算图中的一个层级
with tf.name_scope("Model"): # w 初始化值为shape=(12,1)的随机数
w = tf.Variable(tf.random_normal([12,1],stddev=0.01),name="W") # b 初始化值为1.0
b = tf.Variable(1.0,name="b") # w和x是矩阵相乘,用matmul,不能用mutiply或者*
def model(x,w,b):
return tf.matmul(x,w) + b #预测计算操作,前向计算节点
pred = model(x,w,b) #模型训练 #设置训练超参数
#迭代轮次
train_epochs = 50 #学习率
learning_rate = 0.01 #定义均方差损失函数
#定义损失函数
with tf.name_scope("LossFunction"):
loss_function = tf.reduce_mean(tf.pow(y-pred,2)) #均方误差 #创建优化器
optimizer = tf.train.GradientDescentOptimizer(learning_rate).minimize(loss_function) #声明会话
sess = tf.Session() #定义初始化变量的操作
init = tf.global_variables_initializer() #启动会话
sess.run(init) #迭代训练
for epoch in range(train_epochs):
loss_sum = 0.0
for xs,ys in zip(x_data,y_data): xs = xs.reshape(1,12)
ys = ys.reshape(1,1)
#feed数据必须和Placeholder的shape一致
_,loss = sess.run([optimizer,loss_function],feed_dict={x:xs,y:ys}) loss_sum = loss_sum + loss
#打乱数据顺序,防止按原次序假性训练输出
x_data,y_data = shuffle(x_data,y_data) b0temp = b.eval(session=sess) #训练中当前变量b值
w0temp = w.eval(session=sess) #训练中当前权重w值
loss_average = loss_sum/len(y_data) #当前训练中的平均损失 print("epoch=",epoch+1,"loss=",loss_average,"b=",b0temp,"w=",w0temp) #模型应用
n = np.random.randint(506) #随机确定一条来看看效果
print(n)
x_test = x_data[n] x_test = x_test.reshape(1,12)
predict = sess.run(pred,feed_dict={x:x_test})
print("预测值:%f"%predict) target = y_data[n]
print("标签值:%f"%target)
二、根据波士顿房价信息进行预测,多元线性回归+特征数据归一化+可视化
#读取数据
%matplotlib notebook import tensorflow as tf
import matplotlib.pyplot as plt
import numpy as np
import pandas as pd #能快速读取常规大小的文件。Pandas能提供高性能、易用的数据结构和数据分析工具
from sklearn.utils import shuffle #随机打乱工具,将原有序列打乱,返回一个全新的顺序错乱的值 #读取数据文件
df = pd.read_csv("data/boston.csv",header=0) #显示数据描述信息
# print(df.describe())
# print(df) #数据准备 #获取df的值
df = df.values #把df转换成np的数组格式
df = np.array(df) #特征数据归一化
#对特征数据{0到11}列 做(0-1)归一化
for i in range(12):
df[:,i] = (df[:,i]-df[:,i].min())/(df[:,i].max()-df[:,i].min()) #x_data为归一化后的前12列特征数据
x_data = df[:,:12] #y_data为最后1列标签数据
y_data = df[:,12] #模型定义 #定义特征数据和标签数据的占位符
#shape中None表示行的数量未知,在实际训练时决定一次带入多少行样本,从一个样本的随机SDG到批量SDG都可以
x = tf.placeholder(tf.float32,[None,12],name = "X") #12个特征数据(12列)
y = tf.placeholder(tf.float32,[None,1],name = "Y") #1个标签数据(1列) #定义模型函数
#定义了一个命名空间.
#命名空间name_scope,Tensoflow计算图模型中常有数以千计节点,在可视化过程中很难一下子全部展示出来/
#因此可用name_scope为变量划分范围,在可视化中,这表示在计算图中的一个层级
with tf.name_scope("Model"): # w 初始化值为shape=(12,1)的随机数
w = tf.Variable(tf.random_normal([12,1],stddev=0.01),name="W") # b 初始化值为1.0
b = tf.Variable(1.0,name="b") # w和x是矩阵相乘,用matmul,不能用mutiply或者*
def model(x,w,b):
return tf.matmul(x,w) + b #预测计算操作,前向计算节点
pred = model(x,w,b) #模型训练 #设置训练超参数
#迭代轮次
train_epochs = 50 #学习率
learning_rate = 0.01 #定义均方差损失函数
#定义损失函数
with tf.name_scope("LossFunction"):
loss_function = tf.reduce_mean(tf.pow(y-pred,2)) #均方误差 #创建优化器
optimizer = tf.train.GradientDescentOptimizer(learning_rate).minimize(loss_function) #声明会话
sess = tf.Session() #定义初始化变量的操作
init = tf.global_variables_initializer() #启动会话
sess.run(init) #迭代训练
loss_list = [] #用于保存loss值的列表
for epoch in range(train_epochs):
loss_sum = 0.0
for xs,ys in zip(x_data,y_data): xs = xs.reshape(1,12)
ys = ys.reshape(1,1)
#feed数据必须和Placeholder的shape一致
_,loss = sess.run([optimizer,loss_function],feed_dict={x:xs,y:ys}) loss_sum = loss_sum + loss loss_list.append(loss) #每步添加一次
#打乱数据顺序,防止按原次序假性训练输出
x_data,y_data = shuffle(x_data,y_data) b0temp = b.eval(session=sess) #训练中当前变量b值
w0temp = w.eval(session=sess) #训练中当前权重w值
loss_average = loss_sum/len(y_data) #当前训练中的平均损失 # loss_list.append(loss_average) #每轮添加一次
print("epoch=",epoch+1,"loss=",loss_average,"b=",b0temp,"w=",w0temp)
plt.plot(loss_list) #模型应用
n = np.random.randint(506) #随机确定一条来看看效果
print(n)
x_test = x_data[n] x_test = x_test.reshape(1,12)
predict = sess.run(pred,feed_dict={x:x_test})
print("预测值:%f"%predict) target = y_data[n]
print("标签值:%f"%target)
三、根据波士顿房价信息进行预测,多元线性回归+特征数据归一化+可视化+TensorBoard可视化
#读取数据
%matplotlib notebook import tensorflow as tf
import matplotlib.pyplot as plt
import numpy as np
import pandas as pd #能快速读取常规大小的文件。Pandas能提供高性能、易用的数据结构和数据分析工具
from sklearn.utils import shuffle #随机打乱工具,将原有序列打乱,返回一个全新的顺序错乱的值 #读取数据文件
df = pd.read_csv("data/boston.csv",header=0) #显示数据描述信息
# print(df.describe())
# print(df) #数据准备 #获取df的值
df = df.values #把df转换成np的数组格式
df = np.array(df) #特征数据归一化
#对特征数据{0到11}列 做(0-1)归一化
for i in range(12):
df[:,i] = (df[:,i]-df[:,i].min())/(df[:,i].max()-df[:,i].min()) #x_data为归一化后的前12列特征数据
x_data = df[:,:12] #y_data为最后1列标签数据
y_data = df[:,12] #模型定义 #定义特征数据和标签数据的占位符
#shape中None表示行的数量未知,在实际训练时决定一次带入多少行样本,从一个样本的随机SDG到批量SDG都可以
x = tf.placeholder(tf.float32,[None,12],name = "X") #12个特征数据(12列)
y = tf.placeholder(tf.float32,[None,1],name = "Y") #1个标签数据(1列) #定义模型函数
#定义了一个命名空间.
#命名空间name_scope,Tensoflow计算图模型中常有数以千计节点,在可视化过程中很难一下子全部展示出来/
#因此可用name_scope为变量划分范围,在可视化中,这表示在计算图中的一个层级
with tf.name_scope("Model"): # w 初始化值为shape=(12,1)的随机数
w = tf.Variable(tf.random_normal([12,1],stddev=0.01),name="W") # b 初始化值为1.0
b = tf.Variable(1.0,name="b") # w和x是矩阵相乘,用matmul,不能用mutiply或者*
def model(x,w,b):
return tf.matmul(x,w) + b #预测计算操作,前向计算节点
pred = model(x,w,b) #模型训练 #设置训练超参数
#迭代轮次
train_epochs = 50 #学习率
learning_rate = 0.01 #定义均方差损失函数
#定义损失函数
with tf.name_scope("LossFunction"):
loss_function = tf.reduce_mean(tf.pow(y-pred,2)) #均方误差 #创建优化器
optimizer = tf.train.GradientDescentOptimizer(learning_rate).minimize(loss_function) #声明会话
sess = tf.Session() #定义初始化变量的操作
init = tf.global_variables_initializer() #为TensorBoard可视化准备数据
#设置日志存储目录
logdir='d:/log'
#创建一个操作,用于记录损失值loss,后面在TensorBoard中SCALARS栏可见
sum_loss_op = tf.summary.scalar("loss",loss_function) #把所有需要记录摘要日志文件的合并,方便一次性写入
merged = tf.summary.merge_all() #启动会话
sess.run(init) #创建摘要的文件写入器
#创建摘要writer,将计算图写入摘要文件,后面在Tensorflow中GRAPHS栏可见
writer = tf.summary.FileWriter(logdir,sess.graph)
#迭代训练
loss_list = [] #用于保存loss值的列表
for epoch in range(train_epochs):
loss_sum = 0.0
for xs,ys in zip(x_data,y_data): xs = xs.reshape(1,12)
ys = ys.reshape(1,1) #feed数据必须和Placeholder的shape一致
_,summary_str,loss = sess.run([optimizer,sum_loss_op,loss_function],feed_dict={x:xs,y:ys})
writer.add_summary(summary_str,epoch) loss_sum = loss_sum + loss # loss_list.append(loss) #每步添加一次
#打乱数据顺序,防止按原次序假性训练输出
x_data,y_data = shuffle(x_data,y_data) b0temp = b.eval(session=sess) #训练中当前变量b值
w0temp = w.eval(session=sess) #训练中当前权重w值
loss_average = loss_sum/len(y_data) #当前训练中的平均损失 loss_list.append(loss_average) #每轮添加一次
print("epoch=",epoch+1,"loss=",loss_average,"b=",b0temp,"w=",w0temp)
plt.plot(loss_list) #模型应用
n = np.random.randint(506) #随机确定一条来看看效果
print(n)
x_test = x_data[n] x_test = x_test.reshape(1,12)
predict = sess.run(pred,feed_dict={x:x_test})
print("预测值:%f"%predict) target = y_data[n]
print("标签值:%f"%target)
———网易云课堂《深度学习应用开发Tensorflow实践》学习记录
Tensorflow之多元线性回归问题(以波士顿房价预测为例)的更多相关文章
- 利用TensorFlow实现多元线性回归
利用TensorFlow实现多元线性回归,代码如下: # -*- coding:utf-8 -*- import tensorflow as tf import numpy as np from sk ...
- 机器学习实战二:波士顿房价预测 Boston Housing
波士顿房价预测 Boston housing 这是一个波士顿房价预测的一个实战,上一次的Titantic是生存预测,其实本质上是一个分类问题,就是根据数据分为1或为0,这次的波士顿房价预测更像是预测一 ...
- 波士顿房价预测 - 最简单入门机器学习 - Jupyter
机器学习入门项目分享 - 波士顿房价预测 该分享源于Udacity机器学习进阶中的一个mini作业项目,用于入门非常合适,刨除了繁琐的部分,保留了最关键.基本的步骤,能够对机器学习基本流程有一个最清晰 ...
- TensorFlow从0到1之TensorFlow实现多元线性回归(16)
在 TensorFlow 实现简单线性回归的基础上,可通过在权重和占位符的声明中稍作修改来对相同的数据进行多元线性回归. 在多元线性回归的情况下,由于每个特征具有不同的值范围,归一化变得至关重要.这里 ...
- 基于sklearn的波士顿房价预测_线性回归学习笔记
> 以下内容是我在学习https://blog.csdn.net/mingxiaod/article/details/85938251 教程时遇到不懂的问题自己查询并理解的笔记,由于sklear ...
- 《用Python玩转数据》项目—线性回归分析入门之波士顿房价预测(二)
接上一部分,此篇将用tensorflow建立神经网络,对波士顿房价数据进行简单建模预测. 二.使用tensorflow拟合boston房价datasets 1.数据处理依然利用sklearn来分训练集 ...
- chapter02 回归模型在''美国波士顿房价预测''问题中实践
#coding=utf8 # 从sklearn.datasets导入波士顿房价数据读取器. from sklearn.datasets import load_boston # 从sklearn.mo ...
- 【udacity】机器学习-波士顿房价预测
import numpy as np import pandas as pd from Udacity.model_check.boston_house_price import visuals as ...
- 基于MXNET框架的线性回归从零实现(房价预测为例)
1.基于MXNET框架的线性回归从零实现例子 下面博客是基于MXNET框架下的线性回归从零实现,以一个简单的房屋价格预测作为例子来解释线性回归的基本要素.这个应用的目标是预测一栋房子的售出价格(元). ...
随机推荐
- Horovod 分布式深度学习框架相关
最近需要 Horovod 相关的知识,在这里记录一下,进行备忘: 分布式训练,分为数据并行和模型并行两种: 模型并行:分布式系统中的不同GPU负责网络模型的不同部分.神经网络模型的不同网络层被分配到不 ...
- android-ramdisk.img分析、recovery.img&boot.img执行过程【转】
一.ramdisk介绍 ramdisk通过直面意思就大概能理解意思,ram disk虚拟内存盘,将ram模拟成硬盘来使用的文件系统.对于传统的磁盘文件系统来说,这样做的好处是可以极大提高文件访问速度: ...
- Win2003下IIS以FastCGI模式运行PHP
由于PHP5.3 的改进,原有的IIS 通过isapi 方式解析PHP脚本已经不被支持,PHP从5.3.0 以后的版本开始使用微软的 fastcgi 模式,这是一个更先进的方式,运行速度更快,更稳定. ...
- vue 借用element-ui实现头像上传 axios发送请求
<!-- 上传组件 --> <!-- 总结一下: action 写图片上传请求的路径 去路径哈 show-file-list就是当你上传时,是否会显示出上传的是哪一个图片,一般为fa ...
- sqliteman
2.安装文件 采用源码方式安装 可用下面地址自行下载 https://sourceforge.net/projects/sqliteman/files/sqliteman/1.2.2/ 3.安装 1) ...
- Spring汇总
如今做Java尤其是web几乎是避免不了和Spring打交道了,但是Spring是这样的大而全,新鲜名词不断产生,学起来给人一种凌乱的感觉,我就在这里总结一下,理顺头绪. Spring Spring ...
- WPF 精修篇 窗体唯一(Single) 显示在最前
原文:WPF 精修篇 窗体唯一(Single) 显示在最前 只运行一个窗体 并在一次点击时 显示到最前 发现用 SetForegroundWindow 并不是稳定的有效 最后使用 SetWindowP ...
- IDEA2019 Win10 Tomcat Server控制台中文乱码的快速解决办法
原理 Windows10的控制台使用GBK编码,而Tomcat使用UTF-8编码,导致乱码 解决办法 修改$tomcat/conf/logging.properties文件 # 注释这行 java.u ...
- php foreach 的效率问题
结果: 结论:多数情况下,循环时不带$k的foreach执行速度较快,建议没有使用到$k时,尽量不写
- 参数检查(@property)
绑定属性时,如果直接把属性暴露出去,虽然写起来很简单,但无法对参数进行检查,导致属性被随便修改 因此,可以通过在类内定义get()获取属性值,定义set()对属性值进行设定并对设定值进行检查 但通过定 ...