单层bp神经网络是解决线性可回归问题的。

该代码是论文:https://medium.com/technology-invention-and-more/how-to-build-a-simple-neural-network-in-9-lines-of-python-code-cc8f23647ca1#.7np22hkhc

的实现

代码是python,有注释,非常容易看懂。

#-*- coding: UTF-8 -*-
from numpy import exp,array,random,dot class NeuralNetwork():
def __init__(self):
# 生成随机数种子
random.seed(1)
# 对每个神经元建模,含有三个输入和一个输出连接
# 对3 * 1的矩阵赋予随机权重值,范围[-1,1],平均数为0
self.synaptic_weights = 2 * random.random((3,1)) - 1 # sigmoid 函数
# 正规化操作,使得每个元素都是0~1
def __sigmoid(self,x):
return 1 / (1 + exp(-x)) # sigmoid 函数求导
# sigmoid 函数梯度
# 表示我们对当前权重的置信程度
def __sigmoid_derivative(self,x):
return x * (1-x) # 神经网络——思考
def think(self,inputs):
# 把输入传递给神经网络
return self.__sigmoid(dot(inputs,self.synaptic_weights)) # 神经网络
def train(self,training_set_inputs,training_set_outputs,number_of_training):
for iteration in xrange(number_of_training):
# 训练集导入神经网络
output = self.think(training_set_inputs) # 计算误差
error = training_set_outputs - output # 将误差、输入和S曲线相乘
# 对于置信程度低的权重,调整程度也越大
# 为0的输入值不会影响权重
adjustment = dot(training_set_inputs.T,error * self.__sigmoid_derivative(output)) # 调整权重
self.synaptic_weights += adjustment if __name__ == "__main__": # 初始化神经网络
neuralnetwork = NeuralNetwork() print "训练前的权重"
print neuralnetwork.synaptic_weights # 训练集,四个样本,3个输入,1个输出
training_set_inputs = array([[0,0,1],
[1,1,1],
[1,0,1],
[0,1,1]])
training_set_outputs = array([[0,1,1,0]]).T # 训练神经网络
# 10000次训练 neuralnetwork.train(training_set_inputs,training_set_outputs,10000) print "训练后的权重"
print neuralnetwork.synaptic_weights # 新数据测试 print "考虑[1,0,0]"
print neuralnetwork.think(array([1,0,0]))

简单单层bp神经网络的更多相关文章

  1. 练习推导一个最简单的BP神经网络训练过程【个人作业/数学推导】

    写在前面   各式资料中关于BP神经网络的讲解已经足够全面详尽,故不在此过多赘述.本文重点在于由一个"最简单"的神经网络练习推导其训练过程,和大家一起在练习中一起更好理解神经网络训 ...

  2. 简单三层BP神经网络学习算法的推导

    博客园不支持数学公式orz,我也很绝望啊!

  3. 【机器学习】BP神经网络实现手写数字识别

    最近用python写了一个实现手写数字识别的BP神经网络,BP的推导到处都是,但是一动手才知道,会理论推导跟实现它是两回事.关于BP神经网络的实现网上有一些代码,可惜或多或少都有各种问题,在下手写了一 ...

  4. BP神经网络的公式推导

    如果感觉自己看不懂,那就看看我博客的梯度下降法,博文最后的感知机也算最简单的BP神经网络吧,用的也是反馈(w,b):典型梯度下降法 BP网络的结构 BP网络的结构如下图所示,分为输入层(Input), ...

  5. 机器学习入门学习笔记:(一)BP神经网络原理推导及程序实现

    机器学习中,神经网络算法可以说是当下使用的最广泛的算法.神经网络的结构模仿自生物神经网络,生物神经网络中的每个神经元与其他神经元相连,当它“兴奋”时,想下一级相连的神经元发送化学物质,改变这些神经元的 ...

  6. NO.2:自学tensorflow之路------BP神经网络编程

    引言 在上一篇博客中,介绍了各种Python的第三方库的安装,本周将要使用Tensorflow完成第一个神经网络,BP神经网络的编写.由于之前已经介绍过了BP神经网络的内部结构,本文将直接介绍Tens ...

  7. Python使用numpy实现BP神经网络

    Python使用numpy实现BP神经网络 本文完全利用numpy实现一个简单的BP神经网络,由于是做regression而不是classification,因此在这里输出层选取的激励函数就是f(x) ...

  8. 二、单层感知器和BP神经网络算法

    一.单层感知器 1958年[仅仅60年前]美国心理学家FrankRosenblant剔除一种具有单层计算单元的神经网络,称为Perceptron,即感知器.感知器研究中首次提出了自组织.自学习的思想, ...

  9. Keras实现简单BP神经网络

    BP 神经网络的简单实现 from keras.models import Sequential #导入模型 from keras.layers.core import Dense #导入常用层 tr ...

随机推荐

  1. HTML5 拖拽实现

    简介: 最早在网页中引入JavaScript拖放功能是IE4.当时,网页中只有两种对象可以拖放:图像和某些文本.拖放图像时,把鼠标放到图像上,按住鼠标不放就可以拖放它.拖放文本时,要先选中文本,然后可 ...

  2. LCA 算法(二)倍增

     介绍一种解决最近公共祖先的在线算法,倍增,它是建立在任意整数的二进制拆分之上.   代码:   //LCA:Doubly #include<cstdio> #define swap(a, ...

  3. C++(vs)多线程调试 (转)

      在一个程序中,这些独立运行的程序片断叫作“线程”(Thread),利用它编程的概念就叫作“多线程处理”.利用线程,用户可按下一个按钮,然后程序会立即作出响应,而不是让用户等待程序完成了当前任务以后 ...

  4. 【C语言】十六进制形式输出应用程序

    1.前言 最近在看到同事写了一款封印病毒的程序,非常有意思!原理大致是将PE文件中的ASCII转换成HEX输出到文本中.这样做的目的是为了保存病毒样本的时候不会被杀毒软件查杀!然而却是delphi写的 ...

  5. BAT修改文本内容

    @echo off (for /f "delims=" %%a in (文件名) do ( set "str=%%a" setlocal enabledelay ...

  6. Linux中Samba详细安装【转】

    转自:http://www.cnblogs.com/whiteyun/archive/2011/05/27/2059670.html 为了实现Windows主机与Linux服务器之间的资源共享,Lin ...

  7. linux使用badblocks命令扫描硬盘排除故障(待验证)

    检查硬盘是否产生坏道并输出# badblocks -s -v -o /root/badblocks.log /dev/sda              //公司操作 -s     Show the p ...

  8. python小记

    最近有匹骚猪用微信骚扰我,我很是气愤, 自学一波脚本: 学习目的:用脚本回击回去,通过py写一个脚本,一次性给别人发n条消息: mac上自学python: brew install python3(自 ...

  9. snmp信息的查询命令snmpwalk

    在日常监控中,经常会用到 snmp 服务,而 snmpwalk 命令则是测试系统各种信息最有效的方法,现总结一些常用的方法如下: 获取所有信息snmpwalk -v 2c -c public 52.0 ...

  10. java 多重继承

    接口不仅仅只是一种更纯粹形式的抽象类,它的目标比这更高,因为接口是根本没有任何具体实现的--也就是说,没有任何与接口相关的存储,因此也就无法阻止多个接口的组合, 在导出类中,不强制要求必须有一个抽象的 ...