BP神经网络实现

以3层网络为例,Python实现;

1.代码框架

主要函数:

  1. Init函数:设定InputLayer nodes、HiddenLayer nodes、OutputLayer nodes数量,网络链接权重和学习率;
  2. Training函数:学习训练集体样本并优化权重;
  3. Query函数:给定输入,输出节点答案;

2.代码实现

2.1 Init函数

创建neuralNetwork类,在该类中通过__init__()函数实现数据初始化,当实例化neuralNetwork类时(即创建对象)会自动调用初始化函数;

class neuralNetwork:
#initialise the neural network
def __init__(self, inputnodes, hiddennodes, outputnodes, learningrate):
self.inodes = inputnodes
self.hnodes = hiddennodes
self.onodes = outputnodes self.wih = numpy.random.normal(0.0, pow(self.hnodes, -0.5),(self.hnodes, self.inodes))
self.who = numpy.random.normal(0.0, pow(self.onodes, -0.5),(self.onodes, self.hnodes))
#Learning rate
self.lr = learningrate
self.actication_function = lambda x:scipy.special.expit(x)
pass

输入层到隐藏层的权重初值,根据X=W*I知道,矩阵W的大小是[hidden nodes,input nodes],只有这样对应的X大小才是hidden nodes的大小,大小确定后,在定义矩阵时对号入座即可;

根据经验取权重值大小为1/√节点数 ,在结合numpy的正态分布函数即可;

得到两组链路权重:

self.wih = numpy.random.normal(0.0, pow(self.hnodes, -0.5),(self.hnodes, self.inodes))
self.who = numpy.random.normal(0.0, pow(self.onodes, -0.5),(self.onodes, self.hnodes))

2.2 训练函数

    def train(self, inputs_list, targets_list):
#转置由行变成列
inputs = numpy.array(inputs_list, ndmin=2).T
targets = numpy.array(targets_list, ndmin=2).T #隐藏层输入信号计算:权重计算
hidden_inputs = numpy.dot(self.wih,inputs)
#隐藏层输出信号计算:S函数计算
hidden_outputs = self.actication_function(hidden_inputs) #输出层输入信号计算:权重计算
final_inputs = numpy.dot(self.who, hidden_outputs)
#输出层输出信号计算:S函数计算
final_outputs = self.actication_function(final_inputs) #输出层误差:目标值-计算值
output_errors = targets - final_outputs
#隐藏层输出误差
hidden_errors = numpy.dot(self.who.T, output_errors) #取未更新self.who计算误差
#隐藏层权重更新
self.who += self.lr*numpy.dot((output_errors*final_outputs*(1.0-final_outputs)), numpy.transpose(hidden_outputs)) #误差计算后再更新self.who
#输入层权重更新
self.wih += self.lr * numpy.dot((hidden_errors * hidden_outputs * (1.0 - hidden_outputs)),numpy.transpose(inputs))

2.3 查询函数

    def query(self, inputs_list):
inputs = numpy.array(inputs_list, ndmin=2).T
hidden_inputs = numpy.dot(self.wih,inputs) #根据训练后的权重计算输出
hidden_outputs = self.actication_function(hidden_inputs)
final_inputs = numpy.dot(self.who, hidden_outputs)#根据训练后的权重计算输出
final_outputs = self.actication_function(final_inputs)
return final_outputs

3 数字识别

取MNIST提供的训练数据100个进行学习,获得学习后的更新权重,再自己车手写一个数字进行识别;

input_nodes = 784
hidden_nodes = 100
output_nodes = 10
learning_rate = 0.3
n = neuralNetwork(input_nodes,hidden_nodes,output_nodes,learning_rate) tranining_data_file = open("F:/0_TechPath/0_ControlMind/3_NeuralNetwork/mnist_dataset/mnist_train_100.csv", 'r')
tranining_data_list = tranining_data_file.readlines()
tranining_data_file.close()
for record in tranining_data_list:
all_values = record.strip("\n").split(',', -1) inputs = numpy.array(all_values[1:], dtype=numpy.uint8)/255*0.99+0.01 #输入归一化处理
targets = numpy.zeros(output_nodes) + 0.01 #各个输出节点初值0.01
targets[int(all_values[0])] = 0.99 #对应期望节点处的目标值
n.train(inputs, targets)#调用train函数 #测试网络
fname = "F:/0_TechPath/0_ControlMind/3_NeuralNetwork/mnist_dataset/pic.png"
image = Image.open(fname)
image = image.convert('L')
width,height = image.size
img_array = image.resize((28,28))
img_arr = numpy.array(img_array)
my_image = 255-img_arr.reshape(-1,784)
image_array = numpy.array(my_image, dtype=numpy.uint8).reshape((28, 28))
scaled_input = numpy.array(my_image, dtype=numpy.uint8) / 255 * 0.99 + 0.01
values = n.query(scaled_input)
max_index1 = numpy.argmax(values)
print("I'm:",max_index1) plt.imshow(image_array, cmap='Greys', interpolation='None')
plt.show()

[BPNN]BP神经网络实现的更多相关文章

  1. [BPNN]BP神经网络概念

    BP神经网络概念 BP神经网络的计算过程: 由正向计算过程和反向计算过程组成: 正向计算过程,输入模式从输入层经隐单元层逐层处理,并转向输出层,每一层神经元的状态只影响下一层神经元的状态.如果在输出层 ...

  2. Python实现bp神经网络识别MNIST数据集

    title: "Python实现bp神经网络识别MNIST数据集" date: 2018-06-18T14:01:49+08:00 tags: [""] cat ...

  3. BP神经网络与Python实现

    人工神经网络是一种经典的机器学习模型,随着深度学习的发展神经网络模型日益完善. 联想大家熟悉的回归问题, 神经网络模型实际上是根据训练样本创造出一个多维输入多维输出的函数, 并使用该函数进行预测, 网 ...

  4. 机器学习(4):BP神经网络原理及其python实现

    BP神经网络是深度学习的重要基础,它是深度学习的重要前行算法之一,因此理解BP神经网络原理以及实现技巧非常有必要.接下来,我们对原理和实现展开讨论. 1.原理  有空再慢慢补上,请先参考老外一篇不错的 ...

  5. Python语言编写BP神经网络

    Python语言编写BP神经网络 2016年10月31日 16:42:44 ldy944758217 阅读数 3135   人工神经网络是一种经典的机器学习模型,随着深度学习的发展神经网络模型日益完善 ...

  6. JAVA实现BP神经网络算法

    工作中需要预测一个过程的时间,就想到了使用BP神经网络来进行预测. 简介 BP神经网络(Back Propagation Neural Network)是一种基于BP算法的人工神经网络,其使用BP算法 ...

  7. BP神经网络原理及python实现

    [废话外传]:终于要讲神经网络了,这个让我踏进机器学习大门,让我读研,改变我人生命运的四个字!话说那么一天,我在乱点百度,看到了这样的内容: 看到这么高大上,这么牛逼的定义,怎么能不让我这个技术宅男心 ...

  8. BP神经网络

    秋招刚结束,这俩月没事就学习下斯坦福大学公开课,想学习一下深度学习(这年头不会DL,都不敢说自己懂机器学习),目前学到了神经网络部分,学习起来有点吃力,把之前学的BP(back-progagation ...

  9. 数据挖掘系列(9)——BP神经网络算法与实践

    神经网络曾经很火,有过一段低迷期,现在因为深度学习的原因继续火起来了.神经网络有很多种:前向传输网络.反向传输网络.递归神经网络.卷积神经网络等.本文介绍基本的反向传输神经网络(Backpropaga ...

随机推荐

  1. [CF1220C] Substring Game in the Lesson - 博弈论

    [CF1220C] Description 给定一个字符串 \(S\) , 同时维护一个区间 \([l,r]\) .轮流操作,每次可以扩展到一个新区间使得原区间是新区间的真子区间,并且字典序更小,不能 ...

  2. Windows7自定义主题

    一.破解主题限制 Windows系统默认只能允许用户使用系统自带主题(非壁纸),即使用户安装了第三方主题,Windows也会限制很多地方,导致第三方主题用起来怪怪的. 故此,想要一个可以自定义主题的W ...

  3. SpringBoot获取http请求参数的方法

    SpringBoot获取http请求参数的方法 原文:https://www.cnblogs.com/zhanglijun/p/9403483.html 有七种Java后台获取前端传来参数的方法,稍微 ...

  4. HTML学习(16)颜色

    HTML 颜色由红色.绿色.蓝色混合而成. 颜色值 HTML 颜色由一个十六进制符号来定义,这个符号由红色.绿色和蓝色的值组成(RGB). 每种颜色的最小值是0(十六进制:#00).最大值是255(十 ...

  5. 每天进步一点点------Allegro 原理图到PCB网表导入

  6. CSS之浮动布局及相关问题

    CSS之浮动布局及相关问题   1.什么是浮动:       在我们布局的时候用到的一种技术,能够方便我们进行布局,默认流动布局有不足,让块元素可以并排显示,通过让元素浮动,我们可以使元素在水平上左右 ...

  7. IntelliJ IDEA 2017.3尚硅谷-----设置界面

  8. C++类的函数成员

    类的基本成员函数 一个类包含:构造.析构.拷贝构造.赋值构造.常对象取地址.普通对象取地址基本函数 class Test { public: Test() :m_data(data) { cout & ...

  9. Linux Centos7文件系统

    上期教大家创建分区,刚分区完成后没有文件系统,分区不能使用.本期教大家创建文件系统,(文件系统:操作系统通过文件系统管理文件及数据,创建文件系统的过程俗称格式化.)没有文件系统的设备称之为裸(raw) ...

  10. IIS 无法读取配置节"system.web.extensions",因为它缺少节声明

    IIS 无法读取配置节"system.web.extensions",因为它缺少节声明 先安装ASP.NET 4.0  然后: 今天在本地安装iis,搭建网站,应用程序的时候报错下 ...