简单单层bp神经网络
单层bp神经网络是解决线性可回归问题的。
的实现
代码是python,有注释,非常容易看懂。
#-*- coding: UTF-8 -*-
from numpy import exp,array,random,dot
class NeuralNetwork():
def __init__(self):
# 生成随机数种子
random.seed(1)
# 对每个神经元建模,含有三个输入和一个输出连接
# 对3 * 1的矩阵赋予随机权重值,范围[-1,1],平均数为0
self.synaptic_weights = 2 * random.random((3,1)) - 1
# sigmoid 函数
# 正规化操作,使得每个元素都是0~1
def __sigmoid(self,x):
return 1 / (1 + exp(-x))
# sigmoid 函数求导
# sigmoid 函数梯度
# 表示我们对当前权重的置信程度
def __sigmoid_derivative(self,x):
return x * (1-x)
# 神经网络——思考
def think(self,inputs):
# 把输入传递给神经网络
return self.__sigmoid(dot(inputs,self.synaptic_weights))
# 神经网络
def train(self,training_set_inputs,training_set_outputs,number_of_training):
for iteration in xrange(number_of_training):
# 训练集导入神经网络
output = self.think(training_set_inputs)
# 计算误差
error = training_set_outputs - output
# 将误差、输入和S曲线相乘
# 对于置信程度低的权重,调整程度也越大
# 为0的输入值不会影响权重
adjustment = dot(training_set_inputs.T,error * self.__sigmoid_derivative(output))
# 调整权重
self.synaptic_weights += adjustment
if __name__ == "__main__":
# 初始化神经网络
neuralnetwork = NeuralNetwork()
print "训练前的权重"
print neuralnetwork.synaptic_weights
# 训练集,四个样本,3个输入,1个输出
training_set_inputs = array([[0,0,1],
[1,1,1],
[1,0,1],
[0,1,1]])
training_set_outputs = array([[0,1,1,0]]).T
# 训练神经网络
# 10000次训练
neuralnetwork.train(training_set_inputs,training_set_outputs,10000)
print "训练后的权重"
print neuralnetwork.synaptic_weights
# 新数据测试
print "考虑[1,0,0]"
print neuralnetwork.think(array([1,0,0]))
简单单层bp神经网络的更多相关文章
- 练习推导一个最简单的BP神经网络训练过程【个人作业/数学推导】
写在前面 各式资料中关于BP神经网络的讲解已经足够全面详尽,故不在此过多赘述.本文重点在于由一个"最简单"的神经网络练习推导其训练过程,和大家一起在练习中一起更好理解神经网络训 ...
- 简单三层BP神经网络学习算法的推导
博客园不支持数学公式orz,我也很绝望啊!
- 【机器学习】BP神经网络实现手写数字识别
最近用python写了一个实现手写数字识别的BP神经网络,BP的推导到处都是,但是一动手才知道,会理论推导跟实现它是两回事.关于BP神经网络的实现网上有一些代码,可惜或多或少都有各种问题,在下手写了一 ...
- BP神经网络的公式推导
如果感觉自己看不懂,那就看看我博客的梯度下降法,博文最后的感知机也算最简单的BP神经网络吧,用的也是反馈(w,b):典型梯度下降法 BP网络的结构 BP网络的结构如下图所示,分为输入层(Input), ...
- 机器学习入门学习笔记:(一)BP神经网络原理推导及程序实现
机器学习中,神经网络算法可以说是当下使用的最广泛的算法.神经网络的结构模仿自生物神经网络,生物神经网络中的每个神经元与其他神经元相连,当它“兴奋”时,想下一级相连的神经元发送化学物质,改变这些神经元的 ...
- NO.2:自学tensorflow之路------BP神经网络编程
引言 在上一篇博客中,介绍了各种Python的第三方库的安装,本周将要使用Tensorflow完成第一个神经网络,BP神经网络的编写.由于之前已经介绍过了BP神经网络的内部结构,本文将直接介绍Tens ...
- Python使用numpy实现BP神经网络
Python使用numpy实现BP神经网络 本文完全利用numpy实现一个简单的BP神经网络,由于是做regression而不是classification,因此在这里输出层选取的激励函数就是f(x) ...
- 二、单层感知器和BP神经网络算法
一.单层感知器 1958年[仅仅60年前]美国心理学家FrankRosenblant剔除一种具有单层计算单元的神经网络,称为Perceptron,即感知器.感知器研究中首次提出了自组织.自学习的思想, ...
- Keras实现简单BP神经网络
BP 神经网络的简单实现 from keras.models import Sequential #导入模型 from keras.layers.core import Dense #导入常用层 tr ...
随机推荐
- 用matplotlib制作的比较满意的蜡烛图
用matplotlib制作的比较满意的蜡烛图 2D图形制作包, 功能强大, 习练了很久, 终于搞定了一个比较满意的脚本. 特点: 使用方面要非常简单 绘制出来的图要非常的满意, 具有如下的特点 时间和 ...
- spring框架学习(一)入门
spring 入门--IOC 1.导入jar包 4 + 1 : 4个核心(beans.core.context.expression) + 1个依赖(commons-loggins...jar) ...
- MySQL异步复制延迟解决
http://www.ttlsa.com/mysql/mysql-5-7-enhanced-multi-thread-salve/
- 五个案例让你明白GCD死锁(转)
转自:http://ios.jobbole.com/82622/ 死锁一直都是在使用多线程时,需要注意的一个问题.以前对同步.异步,串行.并行只有一个模糊的概念,想想也是时候整理一下了.再看看之前的博 ...
- Spark笔记之使用UDAF(User Defined Aggregate Function)
一.UDAF简介 先解释一下什么是UDAF(User Defined Aggregate Function),即用户定义的聚合函数,聚合函数和普通函数的区别是什么呢,普通函数是接受一行输入产生一个输出 ...
- 【干货】DD 和 netcat实战---擦除数据和远控
原创:Unit 2: Linux/Unix Acquisition 2.1 Linux/Unix Acquistion Using dd Continued DD也是一个复制设备数据的工具,比特流复制 ...
- IIS 无法识别的属性“targetFramework”---解决之道
在安装VS2010后,应用.NET Framework 4创建的网站放在IIS(7.0)下会出现如下的错误: 其中的“版本信息”中告诉了我们.NET Framework和ASP.NET的版本都是2.0 ...
- MySQL root密码忘记后更优雅的解决方法
MySQL root密码忘记后更优雅的解决方法 https://www.jb51.net/article/143453.htm /usr/bin/mysqld_safe --defaults-file ...
- python的map,filter,reduce学习
python2,python3中map,filter,reduce区别: 1,在python2 中,map,filter,reduce函数是直接输出结果. 2,在python3中做了些修改,输出前需要 ...
- .net MVC 登陆模块后台代码
首先是拦截器 public class AuthLoginAttribute : ActionFilterAttribute { public bool IsLogin = true; /// < ...