1.贝叶斯---最大似然估计 回顾一下第二讲的经典SLAM模型: 通过传感器(例如IMU)的运动参数u来估计运动(位姿x)[定位],通过相机的照片的观测参数z来估计物体的位置(地图y)[建图],都是有噪声的.因为运动参数和照片都有噪声,所以需要进行优化.而过去卡尔曼滤波只关心当前的状态估计,而非线性优化则对所有时刻采集的数据进行状态估计,被认为优于卡尔曼滤波.由于要估计所有的采集数据,所以待估计变量就变成:x={x1,…,xN,y1,….,yM} 所以对机器人状态的估计,就是求已知输入数据u(传…
上一篇博文已经讲了贝叶斯滤波的原理以及公式的推导:http://www.cnblogs.com/JunhaoWu/p/bayes_filter.html 本篇文章将从贝叶斯滤波引入到粒子滤波,讲诉粒子滤波的原理. 前面我们已经提到,将跟踪目标的运动看作是一个动态系统.系统的状态以目标的状态来表示.这里,不妨将跟踪目标的中心位置作为系统状态 xt=(it,jt).在连续变化的图像序列里,状态xt随时间不断变换.我们的目的是估计t时刻系统的状态,在这个例子中为目标的中心位置. 状态估计问题(目标跟踪…
(一)朴素贝叶斯多项式事件模型 在上篇笔记中,那个最基本的NB模型被称为多元伯努利事件模型(Multivariate Bernoulli Event Model,以下简称 NB-MBEM).该模型有多种扩展,一种是在上一篇笔记中已经提到的每个分量的多值化,即将p(xi|y)由伯努利分布扩展到多项式分布:还有一种在上一篇笔记中也已经提到,即将连续变量值离散化.本文将要介绍一种与多元伯努利事件模型有较大区别的NB模型,即多项式事件模型(Multinomial Event Model,一下简称NB-M…
假设有事件A和事件B,可以同时发生但不是完全同时发生,如以下韦恩图所示: 其中,A∩B表示A和B的并集,即A和B同时发生的概率. 如此,我们很容易得出,在事件B发生的情况下,事件A发生的概率为: 这个P(A|B)就是条件概率(Conditional Probability). 同理,在事件A发生的情况下,事件B发生的概率为: 由以上式子可得: 再调整一下,变成: 这个就是著名的贝叶斯公式的基本形态了,其中: P(A|B)叫做后验概率(Posterior Probability) P(A)叫做先验…
每每以为攀得众山小,可.每每又切实来到起点,大牛们,缓缓脚步来俺笔记葩分享一下吧,please~ --------------------------- 一.贝叶斯网络与朴素贝叶斯的区别 朴素贝叶斯的假设前提有两个第一个为:各特征彼此独立:第二个为且对被解释变量的影响一致,不能进行变量筛选.但是很多情况这一假设是无法做到的,比如解决文本分类时,相邻词的关系.近义词的关系等等.彼此不独立的特征之间的关系没法通过朴素贝叶斯分类器训练得到,同时这种不独立性也给问题的解决方案引入了更多的复杂性[1].…
目录 第1讲 前言:本书讲什么:如何使用本书: 第2讲 初始SLAM:引子-小萝卜的例子:经典视觉SLAM框架:SLAM问题的数学表述:实践-编程基础: 第3讲 三维空间刚体运动 旋转矩阵:实践-Eigen:旋转向量和欧拉角:四元数:相似.仿射.射影变换:实践-Eigen几何模块:可视化演示: 第4讲 李群与李代数 李群李代数基础:指数与对数映射:李代数求导与扰动模型:实践-Sophus:相似变换群与李代数:小结: 第5讲 相机与图像 相机模型:图像:实践-图像的存取与访问:实践-拼接点云: 第…
离去年“马尔可夫链进行彩票预测”已经一年了,同时我也计划了一个彩票数据框架的搭建,分析和预测的框架,会在今年逐步发表,拟定了一个目录,大家有什么样的意见和和问题,可以看看,留言我会在后面的文章中逐步改善:彩票数据框架与分析预测总目录.同时这篇文章也是“[彩票]彩票预测算法(一):离散型马尔可夫链模型C#实现”的兄弟篇.所以这篇文章还有一个标题,应该是:[彩票]彩票预测算法(二):朴素贝叶斯分类器在足球胜平负预测中的应用及C#实现. 以前了解比较多的是SVM,RF,特征选择和聚类分析,实际也做过一…
生活中很多场合需要用到分类,比如新闻分类.病人分类等等. 本文介绍朴素贝叶斯分类器(Naive Bayes classifier),它是一种简单有效的常用分类算法. 一.病人分类的例子 让我从一个例子开始讲起,你会看到贝叶斯分类器很好懂,一点都不难. 某个医院早上收了六个门诊病人,如下表. 症状 职业 疾病 打喷嚏 护士 感冒  打喷嚏 农夫 过敏  头痛 建筑工人 脑震荡  头痛 建筑工人 感冒  打喷嚏 教师 感冒  头痛 教师 脑震荡 现在又来了第七个病人,是一个打喷嚏的建筑工人.请问他患…
先不要想其他的,首先要在大脑里形成概念! 最大似然估计是什么意思?呵呵,完全不懂字面意思,似然是个啥啊?其实似然是likelihood的文言翻译,就是可能性的意思,所以Maximum Likelihood可以直接叫做最大可能性估计,这就好理解了,就是要求出最大的可能性(下的那个参数). 一些最基本的概念:总体X,样本x,分布P(x:θ),随机变量(连续.离散),模型参数,联合分布,条件分布 而似然函数在形式上,其实就是样本的联合密度:L(θ)= L(x1,x2,-,xn:θ)= ΠP(xi:θ)…
最大似然估计: 最大似然估计提供了一种给定观察数据来评估模型参数的方法,即:“模型已定,参数未知”.简单而言,假设我们要统计全国人口的身高,首先假设这个身高服从服从正态分布,但是该分布的均值与方差未知.我们没有人力与物力去统计全国每个人的身高,但是可以通过采样,获取部分人的身高,然后通过最大似然估计来获取上述假设中的正态分布的均值与方差. 最大似然估计中采样需满足一个很重要的假设,就是所有的采样都是独立同分布的.下面我们具体描述一下最大似然估计: 首先,假设为独立同分布的采样,θ为模型参数,f为…