第一种

%%
%用神经网络解决异或问题 clear
clc
close
ms=4;%设置4个样本
a=[0 0;0 1;1 0;1 1];%设置输入向量
y=[0,1,1,0];%设置输出向量
n=2;%输入量的个数
m=3;%隐层量的个数
k=1;%输出层的个数
w=rand(n,m);%为输入层到隐层的权值赋初值
v=rand(m,k);%为隐层到输出层的权值赋权值
yyuzhi=rand(1,m);%为输入层到隐层的阈值赋初值
scyuzhi=rand(1,1);%为隐层到输出层的阈值赋权值
maxcount=10000;%设置最大的计数
precision=0.0001;%设置精度
speed=0.2;%设置训练率
count=1;%设置计数器的初始值 while(count<=maxcount)
cc=1;%cc为第几个样本
%样本数少于ms=4时执行
while(cc<=ms)
%计算第cc个样本的输出层的期望输出
for l=1:k
o(l)=y(cc);
end
%获得第cc个样本的输入的向量
for i=1:n
x(i)=a(cc,i);
end
%%
%计算隐层的输入输出
%b(j)为隐层的输出,转移函数为logsig函数
for j=1:m
s=0;
for i=1:n
s=s+w(i,j)*x(i);
end
s=s-yyuzhi(j);
b(j)=1/(1+(exp(-s)));
end %%
%计算输出层的输入输出
%b(j)为输出层的输入,c为输出层的输出,转移函数为logsig函数
%for t=1:k 此处k为1,所以循环不写
for t=1:k
ll=0;
for j=1:m
ll=ll+v(j,t)*b(j);
end
ll=ll-scyuzhi(t);
end
%c(t)=l/(1+exp(-l))引文k为1,所以直接用下式
% c=l/(1+exp(-ll));
if ll<0
c=0;
else
c=1;
end %%
%计算误差
errort=(1/2)*((o(l)-c)^2);
errortt(cc)=errort;
%计算输出层各单元的一般化误差
scyiban=(o(l)-c)*c*(1-c);
%计算隐层的一般化误差
for j=1:m
e(j)=scyiban*v(j)*b(j)*(1-b(j));
end %修正隐层到输出层连接权值和输出层各阈值
for j=1:m
v(j)=v(j)+speed*scyiban*b(j);
end
scyuzhi=scyuzhi-speed*scyiban;
%修正输入层到中间层的权值和阈值
for i=1:n
for j=1:m
w(i,j)=w(i,j)+speed*e(j)*x(i);
end
end
for j=1:m
yyuzhi(j)=yyuzhi(j)-speed*e(j);
end
cc=cc+1;
end %%
%计算count一次后的误差
tmp=0;
for i=1:ms
tmp=tmp+errortt(i)*errortt(i);
end
tmp=tmp/ms;
error(count)=sqrt(tmp);
%判断是否小于误差精度
if(error(count)<precision)
break;
end
count=count+1;
end
errortt
count
p=1:count-1;
plot(p,error(p))

 第二种

%%用matlab工具箱实现异或
p=[0 0 1 1;0 1 0 1];%p为输入
t=[0 1 1 0];%t为理想输出
%隐含层有2个神经元,输出层有1个神经元,隐含层的传输函数为logsig函数
%输出层的传输函数为purelin函数
net=newff(minmax(p),[2,1],{'logsig','purelin'},'trainlm');
net.trainParam.epochs=1000;%训练的最大次数为1000
net.trainParam.goal=0.0001;%训练的精度为0.0001
LP.lr=0.1;%训练的学习率为0.1
net.trainParam.show=20;%显示训练的迭代过程
net=train(net,p,t);%开始训练
out=sim(net,p);%用sim函数仿真验证

  

【神经网络】BP算法解决XOR异或问题MATLAB版的更多相关文章

  1. 多层神经网络BP算法 原理及推导

    首先什么是人工神经网络?简单来说就是将单个感知器作为一个神经网络节点,然后用此类节点组成一个层次网络结构,我们称此网络即为人工神经网络(本人自己的理解).当网络的层次大于等于3层(输入层+隐藏层(大于 ...

  2. 神经网络BP算法C和python代码

    上面只显示代码. 详BP原理和神经网络的相关知识,请参阅:神经网络和反向传播算法推导 首先是前向传播的计算: 输入: 首先为正整数 n.m.p.t,分别代表特征个数.训练样本个数.隐藏层神经元个数.输 ...

  3. 神经网络(BP)算法Python实现及简单应用

    首先用Python实现简单地神经网络算法: import numpy as np # 定义tanh函数 def tanh(x): return np.tanh(x) # tanh函数的导数 def t ...

  4. 深度学习——前向传播算法和反向传播算法(BP算法)及其推导

    1 BP算法的推导 图1 一个简单的三层神经网络 图1所示是一个简单的三层(两个隐藏层,一个输出层)神经网络结构,假设我们使用这个神经网络来解决二分类问题,我们给这个网络一个输入样本,通过前向运算得到 ...

  5. (转)神经网络和深度学习简史(第一部分):从感知机到BP算法

    深度|神经网络和深度学习简史(第一部分):从感知机到BP算法 2016-01-23 机器之心 来自Andrey Kurenkov 作者:Andrey Kurenkov 机器之心编译出品 参与:chen ...

  6. [DL学习笔记]从人工神经网络到卷积神经网络_1_神经网络和BP算法

    前言:这只是我的一个学习笔记,里边肯定有不少错误,还希望有大神能帮帮找找,由于是从小白的视角来看问题的,所以对于初学者或多或少会有点帮助吧. 1:人工全连接神经网络和BP算法 <1>:人工 ...

  7. stanford coursera 机器学习编程作业 exercise4--使用BP算法训练神经网络以识别阿拉伯数字(0-9)

    在这篇文章中,会实现一个BP(backpropagation)算法,并将之应用到手写的阿拉伯数字(0-9)的自动识别上. 训练数据集(training set)如下:一共有5000个训练实例(trai ...

  8. 神经网络中 BP 算法的原理与 Python 实现源码解析

    最近这段时间系统性的学习了 BP 算法后写下了这篇学习笔记,因为能力有限,若有明显错误,还请指正. 什么是梯度下降和链式求导法则 假设我们有一个函数 J(w),如下图所示. 梯度下降示意图 现在,我们 ...

  9. 人工神经网络反向传播算法(BP算法)证明推导

    为了搞明白这个没少在网上搜,但是结果不尽人意,最后找到了一篇很好很详细的证明过程,摘抄整理为 latex 如下. (原文:https://blog.csdn.net/weixin_41718085/a ...

随机推荐

  1. [Spring学习笔记 2 ]装配各种类型的属性 map,list,array,null,properties

    一.spring Ioc容器补充(1) Spring Ioc容器 DI(依赖注入): 注入的方式:设值方法注入setter(属性注入)/构造子注入(构造函数传入依赖的对象)/字段注入field(注解) ...

  2. Word2Vec中文语料实战

    http://blog.csdn.net/gnehcuoz/article/details/52136371

  3. mysql 查询 根据时分秒取数据 比如 取 时间为 8点半的 dateformat 时间函数转换

     date_format(date,'%H') = 8 and date_format(date,'%i') = 30   SELECT * FROM `t_pda_trucklog` WHERE D ...

  4. mysql慢查询日志相关参数

    -- mysql慢查询日志相关参数 -- 慢查询日志时间 show variables like "long_query_time"; -- 将时间设置为2s ; -- 是否开启慢 ...

  5. mysql FullText全文索引的问题

    今天有同学问题,搜索ip的时候怎样能把 select ip from tabelx where ip like '%192.168.0.1%' 这种句子的性能优化. 的确,使用 like %x 的方式 ...

  6. Android 自定义可拖拽View,界面渲染刷新后不会自动回到起始位置

    以自定义ImageView为例: /** * 可拖拽ImageView * Created by admin on 2017/2/21. */ public class FloatingImageVi ...

  7. python类内init外声明的属性与init内声明的对象属性的访问和操作区别

    python类内init外声明的属性与init内声明的对象属性的访问和操作区别(面试题) 1.在ipython中输入以下代码,其输出会是什么? In [1]: class ClassOut: ...: ...

  8. HMM条件下的 前向算法 和 维特比解码

    一.隐马尔科夫HMM如果: 有且仅仅有3种天气:0晴天.1阴天.2雨天 各种天气间的隔天转化概率mp: mp[3][3] 晴天 阴天 雨天 晴天 0.33333 0.33333 0.33333 阴天 ...

  9. Scipy:高端科学计算

    转 :https://blog.csdn.net/lwfcgz/article/details/23290623 Scipy scipy包包含致力于科学计算中常见问题的各个工具箱.它的不同子模块相应于 ...

  10. Vue Ssr之旅 —— Nuxt

    Nuxt 官方网站:https://nuxtjs.org/ 官方脚手架工具 Create-nuxt-app: https://github.com/nuxt-community/create-nuxt ...