作者:吴艳敏 来源:83 项开源视觉 SLAM 方案够你用了吗? 前言 1. 本文由知乎作者小吴同学同步发布于https://zhuanlan.zhihu.com/p/115599978/并持续更新. 2. 本文简单将各种开源视觉SLAM方案分为以下 7 类(固然有不少文章无法恰当分类): ·Geometric SLAM ·Semantic / Learning SLAM ·Multi-Landmarks / Object SLAM ·VIO / VISLAM ·Dynamic SLAM ·Ma…
激光SLAM与视觉SLAM的特点 目前,SLAM技术被广泛运用于机器人.无人机.无人驾驶.AR.VR等领域,依靠传感器可实现机器的自主定位.建图.路径规划等功能.由于传感器不同,SLAM的实现方式也有所不同,按传感器来分,SLAM主要包括激光SLAM和视觉SLAM两大类. 其中,激光SLAM比视觉SLAM起步早,在理论.技术和产品落地上都相对成熟.基于视觉的SLAM方案目前主要有两种实现路径,一种是基于RGBD的深度摄像机,比如Kinect:还有一种就是基于单目.双目或者鱼眼摄像头的.视觉SLA…
开源方案 传感器形式 地址链接 MonoSLAM 单目 https://github.com/hanmekim/SceneLib2  PTAM 单目  http://www.robots.ox.ac.uk/~gk/PTAM/ ORB-SLAM  单目为主 http://webdiis.unizar.es/~raulmur/orbslam/ ORB-SLAM2 单目 https://github.com/raulmur/ORB_SLAM2 LSD-SLAM 单目为主 http://vision.i…
目录 前言 1.Eigen线性代数库的安装 2.Sophus李代数库的安装 3.OpenCV计算机视觉库的安装 4.PCL点云库的安装 5.Ceres非线性优化库的安装 6.G2O图优化库的安装 7.Octomap八叉树地图库的安装 8.DBoW3词袋模型库 正文 回到顶部 前言 本篇博客主要写了视觉SLAM常用库的安装方法,主要包括Eigen线性代数库.Sophus李代数库.OpenCV计算机视觉库.PCL点云库.Ceres非线性优化库和G2O图优化库等.安装步骤是直接从高翔大牛书上搬抄过来了…
MoNoSLAM:https://github.com/hanmekim/SceneLib2 以扩展卡尔曼滤波为后端,追踪前端非常稀疏的特征点,以相机的当前状态和所有路标点为状态量,更新其均值和协方差. 优点:在2007年,随着计算机性能的提升,以及该系统用稀疏的方式处理图像,使得该方案使得SLAM系统能够在线运行.(之前的SLAM系统是基本不能在线运行的,只能靠机器人携带相机采集的数据,再离线进行定位和建图.) 缺点:MoNoSLAM存在应用场景窄,路标数量有限,系数特征点非常容易丢失等缺点,…
目录 第1讲 前言:本书讲什么:如何使用本书: 第2讲 初始SLAM:引子-小萝卜的例子:经典视觉SLAM框架:SLAM问题的数学表述:实践-编程基础: 第3讲 三维空间刚体运动 旋转矩阵:实践-Eigen:旋转向量和欧拉角:四元数:相似.仿射.射影变换:实践-Eigen几何模块:可视化演示: 第4讲 李群与李代数 李群李代数基础:指数与对数映射:李代数求导与扰动模型:实践-Sophus:相似变换群与李代数:小结: 第5讲 相机与图像 相机模型:图像:实践-图像的存取与访问:实践-拼接点云: 第…
      首页 视界智尚 算法技术 每日技术 来打我呀 注册     SLAM系统的研究点介绍 本文主要谈谈SLAM中的各个研究点,为研究生们(应该是博客的多数读者吧)作一个提纲挈领的摘要.然后,我们再就各个小问题,讲讲经典的算法与分类. 1. 前言 在<SLAM for Dummy>中,有一句话说的好:”SLAM并不是一种算法,而是一个概念.(SLAM is more like a concept than a single algorithm.)”所以,你可以和导师.师兄弟(以及师妹,如…
由于显示格式问题,建议阅读原文:如何从零开始系统化学习视觉SLAM? 什么是SLAM? SLAM是 Simultaneous Localization And Mapping的 英文首字母组合,一般翻译为:同时定位与建图.同时定位与地图构建.虽然听起来比较拗口,但SLAM却是三维视觉的核心技术,广泛应用于AR.自动驾驶.智能机器人.无人机等前沿热门领域.可以说凡是具有一定行动能力的智能体都拥有某种形式的SLAM系统.关于SLAM的具体应用场景介绍可以看<SLAM有什么用?> SLAM是计算机视…
视觉SLAM漫谈 1.    前言 开始做SLAM(机器人同时定位与建图)研究已经近一年了.从一年级开始对这个方向产生兴趣,到现在为止,也算是对这个领域有了大致的了解.然而越了解,越觉得这个方向难度很大.总体来讲有以下几个原因: 入门资料很少.虽然国内也有不少人在做,但这方面现在没有太好的入门教程.<SLAM for dummies>可以算是一篇.中文资料几乎没有. SLAM研究已进行了三十多年,从上世纪的九十年代开始.其中又有若干历史分枝和争论,要把握它的走向就很费工夫. 难以实现.SLAM…
摘要: ORB-SLAM2是基于单目,双目和RGB-D相机的一套完整的SLAM方案.它能够实现地图重用,回环检测和重新定位的功能.无论是在室内的小型手持设备,还是到工厂环境的无人机和城市里驾驶的汽车,ORB-SLAM2都能够在标准的CPU上进行实时工作.ORB-SLAM2在后端上采用的是基于单目和双目的光束法平差优化(BA)的方式,这个方法允许米制比例尺的轨迹精确度评估.此外,ORB-SLAM2包含一个轻量级的定位模式,该模式能够在允许零点漂移的条件下,利用视觉里程计来追踪未建图的区域并且匹配特…
视觉SLAM技术应用 SLAM技术背景 SLAM技术全称Simultaneous localization and mapping,中文为"同时定位与地图构建".SLAM可以在未知的环境中实时定位自身的位置,并同时构建环境三维地图,是计算机视觉领域以及机器人领域中非常关键的一项技术,有着非常广泛的应用,例如VR.AR.机器人.自动驾驶等领域. SLAM技术在机器人领域应用广泛,可以采用各种各样的传感器,例如激光雷达,深度摄像头,单目.双目.多目摄像头,惯性传感器等等. 根据传感器的信息…
RGB-D相机视觉SLAM Dense Visual SLAM for RGB-D Cameras 开源代码地址:  vision.in.tum.de/data/software/dvo 摘要 本文提出了一种用于RGB-D相机的稠密视觉SLAM方法,该方法可以使所有像素上的光度误差和深度误差最小化.与稀疏的.基于特征的方法相比,能够更好地利用图像数据中的可用信息,从而提高姿态精度.提出了一种基于熵的相似性度量方法,用于关键帧选择和环路闭合检测.从所有成功的匹配中,构建了一个使用g2o框架进行优化…
SLAM:Simultaneous Localization And Mapping.中文:同时定位与地图重建. 它是指搭载特定传感器的主体,在没有实验先验信息的情况下,于运动过程中建立环境的模型,同时估计自己的运动.如果这里的传感器主要是相机,那就称为视觉SLAM. SLAM的目的是解决定位与地图重建两个问题.(一边估计传感器资深的位置,一边建立周围环境的模型) 计算机通过概率学建模的方式辨识出物体.人脸.声音.文字等,这与我们用眼睛去观察世界,理解周围物体是有很大不同的. 学习SLAM预备主…
视觉SLAM中的数学基础 第二篇 四元数 什么是四元数 相比欧拉角,四元数(Quaternion)则是一种紧凑.易于迭代.又不会出现奇异值的表示方法.它在程序中广为使用,例如ROS和几个著名的SLAM公开数据集.g2o等程序都使用四元数记录机器人的姿态.因此,理解四元数的含义与用法,对学习SLAM来说是必须的.本节我们就来讲讲四元数. 首先,请读者不要对四元数有什么神秘的感觉.四元数仅是3D姿态的一种表达方式,我们用一个单位四元数表达原本用旋转矩阵表示的三维旋转.这样做一个直接的好处是省空间.一…
工具类: ros框架 linux系列教程     vim Eigen     Eigen快速入门 Pangolin  Pangolin安装与使用 数据集: TUM         数据格式 提供python写的工具,参考  TUM数据集测评工具的使用 除此之外提供online测试 合并深度图和rgb: python associate.py rgb.txt depth.txt > associations.txt #如果没有最后那个选项会把结果直接打印到控制台 对齐输出轨迹,并计算误差: pyt…
视觉SLAM中的数学基础 第一篇 3D空间的位置表示 前言 转眼间一个学期又将过去,距离我上次写<一起做RGBD SLAM>已经半年之久.<一起做>系列反响很不错,主要由于它为读者提供了一个可以一步步编码.运行的SLAM程序,为读者理解SLAM实现的细节作了详细的介绍.但是我也有很多对它不满意的地方.作为面向实现的介绍,它的代码不够稳定可靠,例如,甚至没有对匹配丢失的情况进行处理,因而只能用于教学.另一方面,对SLAM研究者来说,我只是介绍了编码方面如何调用一些常见的库函数,而没有…
视觉SLAM漫谈(二):图优化理论与g2o的使用 1    前言以及回顾 各位朋友,自从上一篇<视觉SLAM漫谈>写成以来已经有一段时间了.我收到几位热心读者的邮件.有的希望我介绍一下当前视觉SLAM程序的实用程度,更多的人希望了解一下前文提到的g2o优化库.因此我另写一篇小文章来专门介绍这个新玩意. 在开始本篇文章正文以前,我们先来回顾一下图优化SLAM问题的提法.至于SLAM更基础的内容,例如SLAM是什么东西等等,请参见上一篇文章.我们直接进入较深层次的讨论.首先,关于我们要做的事情,你…
博客转载自:https://www.leiphone.com/news/201707/ETupJVkOYdNkuLpz.html 雷锋网(公众号:雷锋网)按:本文作者SLAMTEC(思岚科技公号slamtec-sh)技术顾问,专注SLAM及相关传感器研发应用. SLAM(同步定位与地图构建),是指运动物体根据传感器的信息,一边计算自身位置,一边构建环境地图的过程,解决机器人等在未知环境下运动时的定位与地图构建问题.目前,SLAM的主要应用于机器人.无人机.无人驾驶.AR.VR等领域.其用途包括传…
SLAM(Simultaneous Localization and Mapping)是业界公认视觉领域空间定位技术的前沿方向,中文译名为“同步定位与地图构建”,它主要用于解决机器人在未知环境运动时的定位和地图构建问题.本次阅面科技资深研究员赵季也将从SLAM方向着手,为大家展现更深层次的技术干货. 赵季:阅面科技资深研究员.2012年获华中科技大学博士学位,2012年至2014年在CMU机器人研究所做博士后.曾在三星研究院从事深度相机.SLAM.人机交互方面的研究.目前专注于空间感知技术的研发…
SLAM简介 : SLAM是 Simultaneous Localization and Mapping 的缩写,中文译作 " 同时定位与地图构建 ".它是指搭载特定传感器的主题,在没有环境先验信息的情况下,于运动过程中建立环境的模拟,同时估计自己的运动.如果传感器主要是相机,那就称之为 " 视觉SLAM ". SLAM 的目的是为了解决 " 定位 " 与 " 地图构建 " 这两个问题.也就是说,一边要估计传感器自身的位置,一…
目录 一 视觉SLAM中的传感器 二 经典视觉SLAM框架 三 SLAM问题的数学表述 注:原创不易,转载请务必注明原作者和出处,感谢支持! 本讲主要内容: (1) 视觉SLAM中的传感器 (2) 经典视觉SLAM框架 (3) SLAM问题的数学表述 一 视觉SLAM中的传感器 想象一个在室内的移动机器人在自由地探索室内的环境,那么定位与建图可以直观地理解成: (1) 我在什么地方?--定位 (2) 周围环境是怎样的?--建图 而要完成定位和建图则需要各种传感器的支持.传感器一般可以分为两类,一…
版权声明:本文为博主原创文章,转载请注明出处: http://www.cnblogs.com/newneul/p/8545450.html 6.在PnP优化中,将第一个相机的观测也考虑进来,程序应如何书写?最后结果会有何变化?分析:实际上在PnP例子中,我们可以把第一帧作为世界坐标系,然后在优化过程中对于第一帧的RT我们不做优化,但是我们在添加节点时仍然要将第一帧在世界坐标系下的空间点加入到图中,并且与第一帧的位姿链接起来,然后将第一帧坐标系下的空间点与第二帧的位姿连接起来.下面是我们修改的部分…
相机是在某些时刻采集数据的,所以只关心这些时刻的位置和地图. 就把这一段时间的运动变成了李三时刻 t=1,2,...K当中发生的事情. 在这些事可,x表示机器自身的位置. x1,x2,x3,x4...xK就是机器人的轨迹. 在地图方面,我们假设地图是由许多个路标组成的. 设路标用y1,y2,y3,y4,...yK组成. 机器人带着传感器在环境中运动,可以由两件事情描述: (1)什么是运动?从K-1时刻到K时刻,机器人的位置x是如何变化的. 机器人会携带一个测量自身运动的传感器,可以读取相关的数据…
视觉SLAM中,通常是指使用相机来解决定位和建图问题. SLAM中使用的相机往往更加简单,不携带昂贵的镜头,以一定的速率拍摄周围的环境,形成一个连续的视频流. 相机分类: 单目相机:只是用一个摄像头进行SLAM的做法成为单目SLAM. 单目相机的数据就是照片,照片就是拍照时的场景在相机的成像平面上留下的一个投影,它以二维的形式反映了三维的世界,在这个过程中丢掉了一个维度即深度(距离).我们无法通过单张照片计算场景中的物体与我们之间的距离.(照片:近小远大原理) 如果想要通过单目相机拍摄的照片恢复…
  目前实验室做机器人,主要分三个方向,定位导航,建图,图像识别,之前做的也是做了下Qt上位机,后面又弄红外识别,因为这学期上课也没怎么花时间在项目,然后导师让我们确定一个方向来,便于以后发论文什么.上个礼拜看了些论文,感觉视觉slam方向还可以,图像识别毕竟不是计算机科班,可能真正要弄也很难有成果,slam也是最近才研究起来,也挺适合我们搞,需要一些高数.c++.ros等知识,学的东西也挺多的,但这样才能体现研究生的价值,不然本科生也能做,然后确定了这个研究方向,希望好好研究个一两年有所成就,…
经典视觉SLAM框架 整个视觉SLAM流程包括以下步骤: 1. 传感器信息读取.在视觉SLAM中主要为相机图像信息的读取和预处理. 2. 视觉里程计(Visual Odometry,VO).视觉里程计的任务是估算相邻图图像间相机的运动,以及局部地图的样子.VO又称为前段. 3. 后端优化(Optimization).后端接受不同时刻视觉里程计测量的相机位姿以及回环检测的信息,对他们进行优化,得到全局一致的轨迹和地图.由于接在VO之后,又称为后端. 4. 回环检测(Loop Closing).回环…
原文地址:http://www.cnblogs.com/zjiaxing/p/5548265.html 在目前实际的视觉SLAM中,闭环检测多采用DBOW2模型https://github.com/dorian3d/DBoW2,而bag of words 又运用了数据挖掘的K-means聚类算法,笔者只通过bag of words 模型用在图像处理中进行形象讲解,并没有涉及太多对SLAM的闭环检测的应用. 1.Bag-of-words模型简介 Bag-of-words模型是信息检索领域常用的文档…
下载<视觉SLAM十四讲:从理论到实践>源码:https://github.com/gaoxiang12/slambook 第二讲:初识SLAM 2.4.2 Hello SLAM(书本P27) 1.从github上下载源码,并解压 Ubuntu上,解压zip,先找到zip文件所在位置,然后运行下面代码,进行解压. unzip slambook-master.zip 解压后,找到ch2文件夹,在文件夹中找到helloSLAM.cpp文件 运行cpp文件 g++ helloSLAM.cpp 如未安…
一.经典综述文章 1.  Durrant-Whyte H, Bailey T. Simultaneous localization and mapping: part I[J]. IEEE robotics & automation magazine, 2006, 13(2): 99-110. 2. T. Bailey and H. F. Durrant-Whyte. Simultaneous Localisation and Mapping (SLAM): Part II. Robotics…
视觉SLAM中的数学基础 第三篇 李群与李代数 前言 在SLAM中,除了表达3D旋转与位移之外,我们还要对它们进行估计,因为SLAM整个过程就是在不断地估计机器人的位姿与地图.为了做这件事,需要对变换矩阵进行插值.求导.迭代等操作.例如,在经典ICP问题中,给定了两组3D点,我们要计算它们之间的变换矩阵.假设第一组的3D点为$\mathbf{P}=\{ \mathbf{p}_i | i = [1,2, \ldots, N] \}$,第二组3D点为$\mathbf{Q}=\{ \mathbf{q}…