python keras 神经网络框架 的使用以及实例
先吐槽一下这个基于theano的keras有多难装,反正我是在windows下折腾到不行(需要64bit,vs c++2015),所以自己装了一个双系统。这才感到linux系统的强大之初,难怪大公司都是用这个做开发,妹的,谁用谁知道啊!!!!
先来介绍一下这个框架:我们都知道深度的神经网络,python一开始有theano这个框架用来写神经网络,不过后来我们发现keras这个比theano更加容易构建,很适合初学者。×..×
以下是对应的英文网站:http://keras.io/#installation,英文好的话自己都可以看懂了。
一:先看安装
有两种:
1.ubuntu下直接用 sudo pip install keras 安装
2.又或者先安装以下的依赖项:
numpy, scipy
pyyaml
Theano
HDF5 and h5py
Once you have the dependencies installed, clone the repo:
git clone https://github.com/fchollet/keras.git
二.模块简介
1.optimizers:
这个是用来选用优化方法的,里面有SGD,Adagrad,Adadelta,RMSprop,Adam可选
2.objectives 这个定义了用什么形式的误差来优化,有
mean_squared_error / mse:平均方差
mean_absolute_error / mae:绝对误差
mean_absolute_percentage_error / mape:平均绝对百分差
mean_squared_logarithmic_error / msle:对数误差
squared_hinge
hinge
binary_crossentropy: Also known as logloss.
categorical_crossentropy:使用这个目标函数需要设置label为二进制数组的形式。
3.model
model = keras.models.Sequential() 初始化一个神经网络
add 添加一层神经网
compile(optimizer, loss, class_mode=”categorical”):
参数:
optimizer: str (优化函数的名称) 或者优化对象.参考 optimizers.
loss: str (目标函数的名称) 或者目标函数. 参考 objectives.
class_mode: 值为”categorical”, “binary”. 用于计算分类正确率或调用 predict_classes方法.
theano_mode: A theano.compile.mode.Mode (reference).
fit(X, y, batch_size=128, nb_epoch=100, verbose=1, validation_split=0., validation_data =None, shuffle=True, show_accuracy=False): 固定的 epochs训练一个模型.
返回值:记录在字典中的训练成功的损失值,也可是验证损失值或精确度(适用的话).
参数:
X: data.
y: labels.
batch_size: int. 每一次迭代的样本数目.
nb_epoch: int.
verbose: 0 表示不更新日志, 1 更新日志, 2 每个epoch一个进度行.
validation_split: float (0 < x < 1).验证集的一部分.
validation_data: tuple (X, y) 数据作为验证集. 将加载validation_split.
shuffle: boolean. 每个 epoch是否随机抽取样本.
show_accuracy: boolean. 每个epoch是否显示分类正确率.
evaluate(X, y, batch_size=128, show_accuracy=False, verbose=1): 通过验证集的数据显示model的性能.
Return: 返回数据的损失值.
Arguments: 和上面fit函数定义相同. verbose用作二进制标识(进度条或无).
predict(X, batch_size=128, verbose=1):
Return: 测试数据的预测数组.
Arguments: 和fit一样.
predict_classes(X, batch_size=128, verbose=1): 返回test data的类预测数组.
Return: 测试数据的标签数组.
Arguments: 和fit一样.
train(X, y, accuracy=False): 一个batch的梯度更新. if accuracy==False, return tuple (loss_on_batch, accuracy_on_batch). Else, return loss_on_batch.
Return: 损失值, 或者tuple (loss, accuracy) if accuracy=True.
test(X, y, accuracy=False): 一个batch的性能计算. if accuracy==False, return tuple (loss_on_batch, accuracy_on_batch). Else, return loss_on_batch.
Return: 损失值, 或 tuple (loss, accuracy) if accuracy=True.
save_weights(fname):保存所有层的权值到HDF5文件中.
load_weights(fname): 加载保存在save_weights中模型权值. 只能加载相同结构的文件.
下面是自己写的一个小程序
#coding:utf-8
'''
Created on 2015-9-12
@author: zzq2015
'''
from keras.models import Sequential
from keras.layers.core import Dense, Dropout, Activation
import scipy.io as sio
import numpy as np
model = Sequential()
model.add(Dense(4, 200, init='uniform'))
model.add(Activation('relu'))
model.add(Dropout(0.5))
model.add(Dense(200, 100, init='uniform'))
model.add(Activation('relu'))
model.add(Dropout(0.5))
model.add(Dense(100, 50, init='uniform'))
model.add(Activation('relu'))
model.add(Dropout(0.5))
model.add(Dense(50, 20, init='uniform'))
model.add(Activation('relu'))
model.add(Dropout(0.5))
model.add(Dense(20, 3, init='uniform'))
model.add(Activation('softmax'))
model.compile(loss='binary_crossentropy', optimizer='adam', class_mode="binary")
matfn=u'/media/zzq2015/学习/python/da/kerasTrain.mat'
data=sio.loadmat(matfn)
data = np.array(data.get('iris_train'))
trainDa = data[:80,:4]
trainBl = data[:80,4:]
testDa = data[80:,:4]
testBl = data[80:,4:]
model.fit(trainDa, trainBl, nb_epoch=80, batch_size=20)
print model.evaluate(testDa, testBl, show_accuracy=True)
print model.predict_classes(testDa)
print '真实标签:\n'
print testBl
输出结果如下:
Epoch 79
20/80 [======>.......................] - ETA: 0s - loss: 0.1042
40/80 [==============>...............] - ETA: 0s - loss: 0.0857
60/80 [=====================>........] - ETA: 0s - loss: 0.0826
80/80 [==============================] - 0s - loss: 0.1216
10/10 [==============================] - 0s
[0.15986641560148043, 1.0]
10/10 [==============================] - 0s
[[0 0 1]
[0 0 1]
[0 0 1]
[0 0 1]
[0 0 1]
[0 0 1]
[0 0 1]
[0 0 1]
[0 0 1]
[0 0 1]]
真实标签:
[[ 0. 0. 1.]
[ 0. 0. 1.]
[ 0. 0. 1.]
[ 0. 0. 1.]
[ 0. 0. 1.]
[ 0. 0. 1.]
[ 0. 0. 1.]
[ 0. 0. 1.]
[ 0. 0. 1.]
[ 0. 0. 1.]]
0.15是损失值,1是准确率
python keras 神经网络框架 的使用以及实例的更多相关文章
- 【转】基于Python的接口测试框架实例
下面小编就为大家带来一篇基于Python的接口测试框架实例.小编觉得挺不错的,现在就分享给大家,也给大家做个参考.一起跟随小编过来看看吧 背景 最近公司在做消息推送,那么自然就会产生很多接口,测试 ...
- 深层神经网络框架的python实现
概述 本文demo非常适合入门AI与深度学习的同学,从最基础的知识讲起,只要有一点点的高等数学.统计学.矩阵的相关知识,相信大家完全可以看明白.程序的编写不借助任何第三方的深度学习库,从最底层写起. ...
- 基于Python的接口测试框架实例
文章来源:http://www.jb51.net/article/96481.htm 下面小编就为大家带来一篇基于Python的接口测试框架实例.小编觉得挺不错的,现在就分享给大家,也给大家做个参考. ...
- python之unittest框架实现接口测试实例
python之unittest框架实现接口测试实例 接口测试的方法有很多种,具体到工具有postman,jmeter,fiddler等,但是工具的局限性是测试数据的组织较差,接口的返回工具的判断有限, ...
- Python开源机器学习框架:Scikit-learn六大功能,安装和运行Scikit-learn
Python开源机器学习框架:Scikit-learn入门指南. Scikit-learn的六大功能 Scikit-learn的基本功能主要被分为六大部分:分类,回归,聚类,数据降维,模型选择和数据预 ...
- 7大python 深度学习框架的描述及优缺点绍
Theano https://github.com/Theano/Theano 描述: Theano 是一个python库, 允许你定义, 优化并且有效地评估涉及到多维数组的数学表达式. 它与GPUs ...
- python 实现web框架simfish
python 实现web框架simfish 本文主要记录本人利用python实现web框架simfish的过程.源码github地址:simfish WSGI HTTP Server wsgi模块提供 ...
- Caffe(卷积神经网络框架)介绍
Caffe(卷积神经网络框架)Caffe,全称Convolution Architecture For Feature Extraction caffe是一个清晰,可读性高,快速的深度学习框架.作者是 ...
- Python之Web框架们
Python的WEB框架 Bottle Bottle是一个快速.简洁.轻量级的基于WSIG的微型Web框架,此框架只由一个 .py 文件,除了Python的标准库外,其不依赖任何其他模块. pip i ...
随机推荐
- 【HTML】 向网页<Title></Title>中插入图片以及跑马灯
<!DOCTYPE html> <html> <head> <meta charset="UTF-8"> <style typ ...
- 环信EaseUI集成错误 Unknown type name 'NSString' NSLocalizedString
环信集成本来认为很简单的,有现成的UI,照着文档直接傻瓜操作就行,没曾想聊天记录不能长时间保存,于是乎就有了这篇记录环信坑的笔记 在下载的环信的SDK时候里面会有两个包,一个完整版的,一个简洁版的,导 ...
- php执行多个存储过程
2014年3月18日更新: 从以前的使用原生代码来看,只需要将结果集关闭即可,即 $this -> queryID -> close(); . // 使用mysqli方式,修改DbMysq ...
- [AaronYang风格]微软Unity2.X系统学习笔记,记录
读者约定: Unity我直接简写U了 Unity Dependency Injection(DI) 欢迎学习Unity,通过学完下面的几个流程的引导,你应该就可以很顺利的应用Unity到你的项目中去了 ...
- ggplot2-设置坐标轴
本文更新地址:http://blog.csdn.net/tanzuozhev/article/details/51107583 本文在 http://www.cookbook-r.com/Graphs ...
- SharePoint 2013混合模式登陆中 使用 自定义登陆页
接前一篇博客<SharePoint 2013自定义Providers在基于表单的身份验证(Forms-Based-Authentication)中的应用>,当实现混合模式登陆后,接着我们就 ...
- Logstash+ElasticSearch+Kibana处理nginx访问日志(转)
ELK似乎是当前最为流行的日志收集-存储-分析的全套解决方案. 去年年初, 公司里已经在用, 当时自己还山寨了一个统计系统(postgresql-echarts, 日志无结构化, json形式存储到p ...
- python appium 有道云笔记分享文章到qq
有道云添加一个笔记,笔记的title为aff 使用appium 把这篇文章分享到qq,前提是android里面有登录qq Python代码 from appium import webdriver i ...
- win 7 下合并多个表格
首先我这里从服务器上下载了一大堆的表格 分类放好之后 这里我们需要把每一类的表格合并成一张表格 这里我们使用win 7下的copy的命令 这里我的表格的格式是csv 使用cmd 我们先cd到你的表格的 ...
- php分享三十二:php调试工具
一:phpdbg http://phpdbg.com/