tensorflow 学习笔记 多层感知机
# -*- coding: utf-8 -*-
"""
Created on Thu Mar 9 19:20:51 2017 @author: Jarvis
"""
'''
tnesorflow 做机器学习的几个步骤
1.定义公式
2.定义loss function,选择优化器,并制定优化器优化loss
3.迭代地对数据进行训练
4。在测试集或验证集对准确率进行评测 ''' import tensorflow as tf
import pandas as pd
import random
#自己定义的一个选取batch进行训练的一个取batch函数
def next_batch(mnist, num,ilen = 55):
size = len(mnist)
selected_n = set([]) while(len(selected_n) < num):
t = random.choice(range(size))
selected_n.add(t)
l = list(selected_n) batch_xs = []
batch_ys = [] batch_xs = mnist.iloc[l,range(2,54)] batch_ys = mnist.iloc[l,range(54,62)]
return batch_xs,batch_ys #对数据进行读取
org_mnist = pd.read_csv("NDVI_NDWI.csv",header = None,encoding = 'gbk')
mnist = pd.get_dummies(org_mnist)
#创建session
#input_data.read_data_sets("MNIST_data/",one_hot = True)
sess = tf.InteractiveSession() #定义算法公式,在此处就是神经网络的结构方式
in_units = 52#每一条instance具有52个输入
h1_units = 30
h2_units = 20
h3_units = 10
h4_units = 5 #tf.truncated_normal是正态分布的一个东东,主要用于初始化一些W矩阵
W1 = tf.Variable(tf.truncated_normal([in_units,h1_units],stddev = 0.1))
b1 = tf.Variable(tf.zeros([h1_units]))
W2 = tf.Variable(tf.zeros([h1_units,h2_units]))#[h1_units,8]
b2 = tf.Variable(tf.zeros([h2_units]))#
W3 = tf.Variable(tf.zeros([h2_units,h3_units]))
b3 = tf.Variable(tf.zeros([h3_units]))
W4 = tf.Variable(tf.zeros([h3_units,8]))
b4 = tf.Variable(tf.zeros([8])) '''
W4 = tf.Variable(tf.zeros([h3_units,h4_units]))
b4 = tf.Variable(tf.zeros([h4_units]))
W5 = tf.Variable(tf.zeros([h4_units,8]))
b5 = tf.Variable(tf.zeros([8]))
'''
x = tf.placeholder(tf.float32,[None, in_units])
keep_prob = tf.placeholder(tf.float32)#dropout 的比例 keep_prob hidden1 = tf.nn.sigmoid(tf.matmul(x,W1)+b1)
hidden1_drop = tf.nn.dropout(hidden1,keep_prob)
hidden2 = tf.nn.sigmoid(tf.matmul(hidden1_drop,W2)+b2)
hidden2_drop = tf.nn.dropout(hidden2,keep_prob)
hidden3 = tf.nn.sigmoid(tf.matmul(hidden2_drop,W3)+b3)
hidden3_drop = tf.nn.dropout(hidden3,keep_prob)
#hidden4 = tf.nn.sigmoid(tf.matmul(hidden3_drop,W4)+b4)
#hidden4_drop = tf.nn.dropout(hidden4,keep_prob) y = tf.nn.softmax(tf.matmul(hidden3_drop,W4)+b4)
y_ = tf.placeholder(tf.float32,[None,8])#[None,10]
#设置优化函数
cross_entropy = tf.reduce_mean(-tf.reduce_sum(y_*tf.log(y),reduction_indices=[1]))
train_step = tf.train.AdagradOptimizer(0.3).minimize(cross_entropy) tf.global_variables_initializer().run() for i in range(2010):#
batch_xs, batch_ys = next_batch(mnist,1000)#1000 3
train_step.run( {x : batch_xs, y_ : batch_ys,keep_prob: 1}) correct_prediction = tf.equal(tf.argmax(y, 1), tf.argmax(y_, 1))
accuracy = tf.reduce_mean(tf.cast(correct_prediction,tf.float32))
batch_xs, batch_ys = next_batch(mnist,10000)
print(accuracy.eval({x:batch_xs,y_:batch_ys,keep_prob:1.0}))
tensorflow 学习笔记 多层感知机的更多相关文章
- tensorflow学习笔记——自编码器及多层感知器
1,自编码器简介 传统机器学习任务很大程度上依赖于好的特征工程,比如对数值型,日期时间型,种类型等特征的提取.特征工程往往是非常耗时耗力的,在图像,语音和视频中提取到有效的特征就更难了,工程师必须在这 ...
- TensorFlow学习笔记4-线性代数基础
TensorFlow学习笔记4-线性代数基础 本笔记内容为"AI深度学习".内容主要参考<Deep Learning>中文版. \(X\)表示训练集的设计矩阵,其大小为 ...
- 深度学习-tensorflow学习笔记(2)-MNIST手写字体识别
深度学习-tensorflow学习笔记(2)-MNIST手写字体识别超级详细版 这是tf入门的第一个例子.minst应该是内置的数据集. 前置知识在学习笔记(1)里面讲过了 这里直接上代码 # -*- ...
- tensorflow学习笔记——使用TensorFlow操作MNIST数据(2)
tensorflow学习笔记——使用TensorFlow操作MNIST数据(1) 一:神经网络知识点整理 1.1,多层:使用多层权重,例如多层全连接方式 以下定义了三个隐藏层的全连接方式的神经网络样例 ...
- tensorflow学习笔记——VGGNet
2014年,牛津大学计算机视觉组(Visual Geometry Group)和 Google DeepMind 公司的研究员一起研发了新的深度卷积神经网络:VGGNet ,并取得了ILSVRC201 ...
- Tensorflow学习笔记No.4.1
使用CNN卷积神经网络(1) 简单介绍CNN卷积神经网络的概念和原理. 已经了解的小伙伴可以跳转到Tensorflow学习笔记No.4.2学习如和用Tensorflow实现简单的卷积神经网络. 1.C ...
- Tensorflow学习笔记2:About Session, Graph, Operation and Tensor
简介 上一篇笔记:Tensorflow学习笔记1:Get Started 我们谈到Tensorflow是基于图(Graph)的计算系统.而图的节点则是由操作(Operation)来构成的,而图的各个节 ...
- Tensorflow学习笔记2019.01.22
tensorflow学习笔记2 edit by Strangewx 2019.01.04 4.1 机器学习基础 4.1.1 一般结构: 初始化模型参数:通常随机赋值,简单模型赋值0 训练数据:一般打乱 ...
- Tensorflow学习笔记2019.01.03
tensorflow学习笔记: 3.2 Tensorflow中定义数据流图 张量知识矩阵的一个超集. 超集:如果一个集合S2中的每一个元素都在集合S1中,且集合S1中可能包含S2中没有的元素,则集合S ...
随机推荐
- java集合相关问题
1.Map/Set 的 key 为自定义对象时,必须重写 hashCode 和 equals: 2.ArrayList 的 subList 结果不可强转成 ArrayList,否则会抛出 ClassC ...
- UVa1599,Ideal Path
说实话,这题参考的: http://blog.csdn.net/u013382399/article/details/38227917 倒着BFS就把我难住了T T,原来这样倒着BFS一遍,遍历完 ...
- LDAP服务部署
1.安装基本环境 # yum -y install openldap openldap-devel openldap-servers openldap-clients 2.配置LDAP服务端 (1)拷 ...
- Java IO流 思维导图
- SpringMVC 配置
1.在WEB-INF\web.xml中定义前端控制器 <servlet> <servlet-name>springmvc</servlet-name> <se ...
- Web前端性能优化——如何有效提升静态文件的加载速度
WeTest 导读 此文总结了笔者在Web静态资源方面的一些优化经验. 一.如何优化 用户在访问网页时, 最直观的感受就是页面内容出来的速度,我们要做的优化工作, 也主要是为了这个目标.那么为了提高页 ...
- CentOS6编译LAMP基于FPM模式的应用wordpress
CentOS6编译LAMP基于FPM模式的应用wordpress 引言:其实我们可以直接使用yum安装LAMP(Linux+Apache[httpd]+Mysql+PHP),比手动编译安装LAMP要简 ...
- 基于 webpack 的 chrome 扩展开发探索
起 最近利用闲暇时间在进行一款 chrome 扩展 V2EX-HELPER 的开发(如果巧遇 V 友欢迎试用),今天把它彻底改成了用 webpack 打包依赖的模式,不由得感概 webpack 的强大 ...
- R学习笔记 第四篇:函数,分支和循环
变量用于临时存储数据,而函数用于操作数据,实现代码的重复使用.在R中,函数只是另一种数据类型的变量,可以被分配,操作,甚至把函数作为参数传递给其他函数.分支控制和循环控制,和通用编程语言的风格很相似, ...
- Ubuntu配置OpenStack 二:配置时间同步NTP和安装数据库Maridb以及问题总结
继上一节Ubuntu配置OpenStack 一:配置主机环境,下面继续为安装时间同步,以及配置openstack的安装包源和安装数据库Maridb.(全文截图都是由自己徒手搭建完成并且截图) 一.安装 ...