神经网络与机器学习 笔记—LMS(最小均方算法)和学习率退火
神经网络与机器学习 笔记—LMS(最小均方算法)和学习率退火
LMS算法和Rosenblatt感知器算法非常想,唯独就是去掉了神经元的压制函数,Rosenblatt用的Sgn压制函数,LMS不需要压制函数,两者一样是只有单个神经元。
LMS算法信号流图

算法小结:

然后在说下退火:

#pragma once
#include "stdafx.h"
#include <string>
#include <iostream>
using namespace std;
int gnM = 0; //训练集空间维度
int gnN = 0; //突触权值个数
double gdU0 = 0.1; //初始学习率参数,用于退火,前期可以较大
double gdT = 1; //控制退火用的开始降温的时间点
double gdN = 0; //当前工作时间(神经网络学习次数)
//退火
//U=U0/(1+(N/T))
double GetNowU() {
gdN++;
//cout<< gdU0 / (1.0 + (gdN / gdT))<<endl;
return gdU0 / (1.0 + (gdN / gdT));
}
void LMSInit(double *dX, const int &nM, double *dW, const int &nN, const double &dB, const double &dU0 ,const double &dT) {
//dX 本次训练数据集
//nM 训练集空间维度
//dW 权值矩阵
//nN 突触权值个数 LMS只有一个神经元,所以nM==nM
//dB 偏置,正常这个是应该 走退火动态调整的,以后再说,现在固定得了。
//dU0 初始学习率参数,用于退火,前期可以较大
//dT控制退火用的开始降温的时间点
if (nM > 0) {
dX[0] = 1;//把偏置永远当成一个固定的突触
}
for (int i = 0; i <= nN; i++) {
if (i == 0) {
dW[i] = dB;//固定偏置
}
else {
dW[i] = 0.0;
}
}
gnM = nM, gnN = nN, gdU0 = dU0, gdT = dT;
}
double Sgn(double dNumber) {
return dNumber > 0 ? +1.0 : -1.0;
}
//感知器收敛算法-学习
void LMSStudy(const double *dX, const double dD, double *dW) {
//dX 本次训练数据集
//dD 本次训练数据集的期望值
//dW 动态参数,突触权值
double dY = 0;
for (int i = 0; i <= gnM && i <= gnN; i++) {
dY = dY + dX[i] * dW[i];
}
//dY = Sgn(dY); LMS这个地方不用了,Rosenblatt是需要的
if (dD == dY) {
return;//不需要进行学习调整突触权值
}
for (int i = 1; i <= gnM && i <= gnN; i++) {
dW[i] = dW[i] + GetNowU() * (dD - dY) * dX[i];
}
}
//感知器收敛算法-泛化
double LMSGeneralization(const double *dX, const double *dW) {
//dX 本次需要泛化的数据集
//dW 已经学习好的突触权值
//返回的是当前需要泛化的数据集的泛化结果(属于那个域的)
double dY = 0;
for (int i = 0; i <= gnM && i <= gnN; i++) {
dY = dY + dX[i] * dW[i];
}
return Sgn(dY);
}
//双月分类模型,随机获取一组值
/* 自己稍微改了下
域1:上半个圆,假设圆心位坐标原点(0,0)
(x - 0) * (x - 0) + (y - 0) * (y - 0) = 10 * 10
x >= -10 && x <= 10
y >= 0 && y <= 10
域2:下半个圆,圆心坐标(10 ,-1)
(x - 10) * (x - 10) + (y + 1) * (y + 1) = 10 * 10;
x >= 0 && x <= 20
y >= -11 && y <= -1
*/
const double gRegionA = 1.0; //双月上
const double gRegionB = -1.0;//双月下
void Bimonthly(double *dX, double *dY, double *dResult) {
//dX 坐标x
//dY 坐标y
//dResult 属于哪个分类
*dResult = rand() % 2 == 0 ? gRegionA : gRegionB;
if (*dResult == gRegionA) {
*dX = rand() % 20 - 10;//在区间内随机一个X
*dY = sqrt(10 * 10 - (*dX) * (*dX));//求出Y
}
else {
*dX = rand() % 20;
*dY = sqrt(10 * 10 - (*dX - 10) * (*dX - 10)) - 1;
*dY = *dY * -1;
}
}
int main()
{
//system("color 0b");
double dX[2 + 1], dD, dW[2 + 1]; //输入空间维度为3 平面坐标系+一个偏置
double dB = 0;
double dU0 = 0.1;
double dT = 128; //128之后开始降温
LMSInit(dX, 2, dW, 2, dB, dU0, dT);//初始化 感知器
double dBimonthlyX, dBimonthlyY, dBimonthlyResult;
int nLearningTimes = 1024 * 10;//进行10K次学习
for (int nLearning = 0; nLearning <= nLearningTimes; nLearning++) {
Bimonthly(&dBimonthlyX, &dBimonthlyY, &dBimonthlyResult);//随机生成双月数据
dX[1] = dBimonthlyX;
dX[2] = dBimonthlyY;
dD = dBimonthlyResult;
LMSStudy(dX, dD, dW);
//cout <<"Study:" << nLearning << " :X= " << dBimonthlyX << "Y= " << dBimonthlyY << " D=" << dBimonthlyResult<< "----W1= " << dW[1] << " W2= " << dW[2] << endl;
}
//进行LMS泛化能力测试 测试数据量1K
int nGeneralizationTimes = 1 * 1024;
int nGeneralizationYes = 0, nGeneralizationNo = 0;
double dBlattGeneralizationSuccessRate = 0;
for (int nLearning = 1; nLearning <= nGeneralizationTimes; nLearning++) {
Bimonthly(&dBimonthlyX, &dBimonthlyY, &dBimonthlyResult);//随机生成双月数据
dX[1] = dBimonthlyX;
dX[2] = dBimonthlyY;
//cout << "Generalization: " << dBimonthlyX << "," << dBimonthlyY;
if (dBimonthlyResult == LMSGeneralization(dX, dW)) {
nGeneralizationYes++;
//cout << " Yes" << endl;
}
else {
nGeneralizationNo++;
//cout << " No" << endl;
}
}
dBlattGeneralizationSuccessRate = nGeneralizationYes * 1.0 / (nGeneralizationNo + nGeneralizationYes) * 100;
cout << "Study : " << nLearningTimes << " Generalization : " << nGeneralizationTimes << " SuccessRate:" << dBlattGeneralizationSuccessRate << "%" << endl;
getchar();
return 0;
}
执行结果:
Study : 10240 Generalization : 1024 SuccessRate:96.6797%
注意:
相对于Rosenblatt算法,LMS如果直接把sgn去掉了可能出现泛化能力急剧下降的问题,我就是,直接变成50%了(和没学习一样),因为此时的学习率参数恒等于0.1有点大(为什么说0.1大,因为没有sgn了,算出的XW是比较大的,而这个时候我们训练数据集的期望结果,还是+1和-1)。同时,退火的那个地方,去动态调整那几个参数,会得到你意想不到的效果,挺微妙的。
神经网络与机器学习 笔记—LMS(最小均方算法)和学习率退火的更多相关文章
- 机器学习:Python实现最小均方算法(lms)
lms算法跟Rosenblatt感知器相比,主要区别就是权值修正方法不一样.lms采用的是批量修正算法,Rosenblatt感知器使用的 是单样本修正算法.两种算法都是单层感知器,也只适用于线性可分的 ...
- Python机器学习笔记:异常点检测算法——LOF(Local Outiler Factor)
完整代码及其数据,请移步小编的GitHub 传送门:请点击我 如果点击有误:https://github.com/LeBron-Jian/MachineLearningNote 在数据挖掘方面,经常需 ...
- 【机器学习笔记之四】Adaboost 算法
本文结构: 什么是集成学习? 为什么集成的效果就会好于单个学习器? 如何生成个体学习器? 什么是 Boosting? Adaboost 算法? 什么是集成学习 集成学习就是将多个弱的学习器结合起来组成 ...
- 最小均方算法(LMS Algorithm)理论及DSP实现
LMS算法可认为是机器学习里面最基本也比较有用的算法,神经网络中对参数的学习使用的就是LMS的思想,在通信信号处理领域LMS也非常常见,比如自适应滤波器. 本文主要对LMS(Least Mean Sq ...
- 神经网络与机器学习 笔记—Rosenblatt感知器收敛算法C++实现
Rosenblatt感知器收敛算法C++实现 算法概述 自己用C++实现了下,测试的例子和模式用的都是双月分类模型,关于双月分类相关看之前的那个笔记: https://blog.csdn.net/u0 ...
- 神经网络与机器学习 笔记—反向传播算法(BP)
先看下面信号流图,L=2和M0=M1=M2=M3=3的情况,上面是前向通过,下面部分是反向通过. 1.初始化.假设没有先验知识可用,可以以一个一致分布来随机的挑选突触权值和阈值,这个分布选择为均值等于 ...
- Stanford机器学习笔记-9. 聚类(K-means算法)
9. Clustering Content 9. Clustering 9.1 Supervised Learning and Unsupervised Learning 9.2 K-means al ...
- 神经网络与机器学习 笔记—多层感知器(MLP)
多层感知器(MLP) Rosenblatt感知器和LMS算法,都是单层的并且是单个神经元构造的神经网络,他们的局限性是只能解决线性可分问题,例如Rosenblatt感知器一直没办法处理简单异或问题.然 ...
- 神经网络与机器学习 笔记—卷积神经网络(CNN)
卷积神经网络 之前的一些都是考虑多层感知器算法设计相关的问题,这次是说一个多层感知器结构布局相关的问题.来总结卷积神经网络.对于模式分类非常合适.网络的提出所隐含的思想收到了神经生物学的启发. 第一个 ...
随机推荐
- C# 应用 - 多线程 4) Task cancel
1. 操作取消 1.1 步骤 实例化 CancellationTokenSource 对象,该对象管理取消通知并将其发送给单个取消标记 将 CancellationTokenSource.Token ...
- apk、dex完整性验证
对Dex进行完整性的检查,可通过CRC,或者Hash值.可将校验值放到String资源文件里,或者放到服务器中. 1. 在代码中完成校验值对比逻辑,此部分代码后续不能再改变,否则CRC值会发生变化: ...
- 攻防世界 reverse EasyRE
EasyRE 主函数 int sub_401080() { unsigned int lens; // kr00_4 signed int i; // edx char *v2; // esi cha ...
- PTA 统计二叉树度为2的结点个数
6-4 统计二叉树度为2的结点个数 (11 分) 本题要求实现一个函数,可统计二叉树中度为2的结点个数. 函数接口定义: int NodeCount ( BiTree T); T是二叉树树根指针, ...
- Java学习之路 -- Java怎么学?
@ 目录 java基础怎么学? 学完基础学什么? 几个常用框架学完学什么? MQ JVM的知识跑不掉 微服务等等 其他 数据结构和算法 java基础怎么学? 当时,作为懵懂的小白,大一学习了c和c++ ...
- Androi Studio 之 RelativeLayout
RelativeLayout简介 •基本属性 •根据父容器定位 •父容器定位属性示意图 •根据兄弟组件定位 •根据兄弟组件定位 •margin(偏移) •padding(填充) •margin与pad ...
- SQL 存储过程里调用另一个存储过程
由于创建了一个存储过程,并且要在另一个存储过程里调用这个存储过程所以在网上找了一下相关的代码,现在总结一下,防止以后还会用到 由于这次我写的存储过程只需要返回一个求和的结果,所以我使用了output ...
- 3w 字长文爆肝 Java 基础面试题!太顶了!!!
hey guys ,这不是也到了面试季了么,cxuan 又打算重新写一下 Java 相关的面试题,先从基础的开始吧,这些面试题属于基础系列,不包含多线程相关面试题和 JVM 相关面试题,多线程和 JV ...
- 使用 shell 做 tcp 协议模拟
问题背景 公司有一套消息推送系统(简称GCM),由于人事变动接手了其中的客户端部分.看了一下文档,仅通讯协议部分有几页简单的说明,代码呢又多又乱,一时理不出一个头绪.由于消息是从后台推送到端的,所以使 ...
- BUAAOO第二单元代码分析
第一次作业 设计思路与感想 第一次作业是要求有捎带的电梯实现, 第一次作业是花费的时间比较长的一次,花费了很多的时间去思考架构的问题.起初是想要搞三个线程的:输入线程,调度器线程和电梯线程,想要搞一个 ...