ros⾃⼰写避障算法_slam导航避障算法,让⽆⼈机⾃主避障教
学研究迈向更⾼处...
随着消费级⽆⼈机技术的不断成熟,不断完善的⾃动避障系统可以极⼤的减少因操作失误⽽带来的各项损失,⽬前避障能⼒正逐渐成为了⽆⼈机⾃动化或智能化的关键点所在。
⽽根据⽆⼈机避障技术的原理和发展趋势,可以将⽆⼈机避障技术分为三重阶段:即感知障碍物阶段、绕过障碍物和场景建模和路径搜索。
感知障碍阶段
"在开阔场地飞⾏,尽量避开⼈,避免因操作失误⽽带来的安全事故”是⽬前⼤部分消费级⽆⼈机的使⽤说明上都会出现的⼀项标注,因此各⽆⼈机开发商为了降低安全事故的发⽣⼏率,都将避障技术作为了开发的重点。⽽如何实现⽆⼈机⾃动避障,⾸先要实现的是如何精确的测量⽆⼈机与障碍物之间的距离,只有先测量出危险范围内的距离,才可以有时间在撞向障碍物之前停⽌⽆⼈机的前进动作,进⽽避免事故的发⽣。就如⼈类或其他动物在前进的过程中,只有先看见前⽅的障碍物,并且会⼤致估算出⾃⼰与障碍物之间的距离,才能决定下⼀步的⾏为⽅向,因此虽然看似测距停⽌的这种思路很简单粗暴,但在实际应⽤中还是有⼀定的存在意义。
⽽⽬前的⽆⼈机领域被⼴泛应⽤到的障碍物检测⽅法有超声波测距、红外或激光测距、双⽬视觉、电⼦地图等。其中双⽬视觉技术更是利⽤了⼈眼如何估计视觉的原理,是⽬前较受⽆⼈机开发商青睐的⼀种技术。超声波测距其实是⼀种⽐较成熟的测距技术,⽽成本相对较低,⽬前被⼤量的应⽤于家⽤的汽车倒车雷达上,但是其测量距离较近,⽽且对反射⾯有着⼀定的要求 ,因此常被⽤来测量⽆⼈机与地⾯之间的距离,⽽⾮与障碍物之间的距离。
红外或激光测距⼜称TOF是利⽤传感器发射定频率的信号,通过计算反射信号与原信号之间的相位差来确定信号的飞⾏时间,并最终确定的⽆⼈机与障碍物之间的距离,该技术⼀旦达到⾼等级 ,还可以获得障碍物的深度图。
⽽双⽬视觉技术是运⽤了⼈眼计算距离的原理,是机器视觉的⼀种重要形式,主要基于视察原理并利⽤成像设备从不同的位置获取被测物体的两幅图像,并通过计算图像对应点之间的位偏差,来确定物体三维⼏何信息的⽅法。虽然该技术的难度较⾼.但是已经开始逐渐应⽤到⽆⼈机避障技术中来。
电⼦地图则是借助GPS系统、细粒度的数字⾼程地图和城市建筑3D地图,⽐较适⽤于⽆⼈机的禁区功能,不仅可以避免重要建筑物受到撞击,还可实现多种情况下的避障功能。
在看过基本的障碍物测量原理之后,我们可以继续看⽆⼈机的避障功能,最简单的概况就是通过各项障碍物测量技术,来保障⽆⼈机与障碍物之间的距离并且根据距离实⾏下⼀步的飞⾏计划,然⽽在遇
到障碍物之后就保持距离并进⾏等待,只能说是⽆⼈机避障功能的最初级阶段。
绕过障碍阶段
当⽆⼈机遇到障碍物之后进⾏悬停等待,等待已经完全不能满⾜操作者们的使⽤需求⽬标,但是获取前⽅障碍物距离容易,获取精准的障碍物轮廓并绕过去却是新的技术障碍,⽽关键点则如何精确获得障碍物的深度图像。
在⾃然界中,动物们都知道前⽅遇到障碍物时该如何绕过去,⽽不是只在障碍物之前等待,⽽原因在于动物们可以知道障碍物的⼤致轮廓,只要到边缘处所在,就可以从边上绕过去,然⽽看似简单的做法却包含着很深的套路。
很简单的就是⽬前的测障技术很难满⾜障碍物轮廓获取的需求,当⽆⼈机采⽤超声波进⾏测距时,只能⼤致测出前⽅的距离,只能获得⼆维的数值,⽽⾮三维的画⾯。
但是⽬前的TOF和双⽬视觉技术则是声称可以获得障碍物深度图像的技术。也就是说利⽤这两种技术来进⾏障碍物距离测量,只要障碍物没有充满整个视觉范围,其边缘总会被获取到,⽽⽆⼈机则可以根据测量的结果继续选择下⼀步的飞⾏路线。
看似问题已经解决,其实不然。举例来说,当我们出门想到达⼀个⽬的地的时候,如果⽬的地前⽅有⼀座⾼楼,我们可以通过发现⾼楼的边缘从⽽绕过它来到达⽬的地,但是我们不可预知的是⾼楼背后是否有其他的建筑物的存在。⽆⼈机也是如此,⼀旦障碍物之后的近距离还有障碍物的存在,那么依然存在较⾼的事故发⽣率。因此如何应对多重障碍物的存在就成为了⽆⼈机避障技术下⼀步需要探讨的对象。
场景建模和路径探索
上⽂说到⽆⼈机的避障功能已经需要⼀个可以应对多重障碍物的技术出现,也就是说在⽬前的技术中,如何对飞⾏场景进⾏精准建模,实时获取场景模型,并通过飞控来设置最优避障飞⾏路径是重点,这也拉开了⽆⼈机避障功能中的场景建模和路径搜索阶段的帷幕。
其实就是基于电⼦地图等来源获取场景模型,利⽤机载计算机中的算法来得出最优路径,如果应⽤在⾃然界中来说,就是当动物经过⼀些障碍物时,它们的⼤脑⾥⾯会存在相关场景的⼀个地图,当再⼀次经过的时候,就会根据上次记忆的场景模型来获取最佳避障路线。⽆⼈机虽然不能通过两次飞⾏去获取记忆的场景模型,但是它可以通过其他的科技⼿段来获取,也就是说飞⾏场地的3D地图等。
基于该项理论的基础上,卓翼智能联合北航专业视觉导航团队研发出,基于机器视觉⽆⼈平台⾃主导航避障系统,具有⽴体视觉、运动估计、稠密重建、Slam导航、路径规划、⾃主避碍等功能。
系统结合⽬前热门研究领域与研究⽅向,集⽆⼈机、⽆⼈车、双⽬视觉、机载AI视觉处理板卡于⼀体,形成全套的⽆⼈平台控制、通讯链路、视觉图像采集、图像识别、三维重建、定位解算等软件算法解决⽅案。
为各科研团队、⾼校实验室提供硬件完善、功能齐全、开发环境完整、引领⾏业发展的全系统全功能开发测试环境,让各科研团队专注于slam导航避障算法研究。
该系统提供全套的学科教学课程以及⽰例算法等,可快速展开相关课程设计,进⾏实际教学应⽤阶段。教科书级专业指导,永葆技术先进性。
整体解决⽅案
基于机器视觉⽆⼈平台⾃主导航避障系统组成架构:
硬件组成
基于机器视觉⽆⼈平台⾃主导航避障系统硬件由:开发⼯作站、⽆⼈机系统、机载双⽬视觉、机载图像处理板、VR三维显⽰等组成。
1、开发⼯作站
开发⼯作站是系统开发实验控制平台,主要⽤于双⽬视觉⽬标识别训练系统开发使⽤,为前期视觉系统控制平台,当在上位机中控制成功后即可以移植到TX2上进⾏实时⾃主控制。
2、⽆⼈机平台
⽆⼈机平台专为基于机器视觉⽆⼈平台⾃主导航避障系统研发,具有飞⾏稳定。可通过串⼝、USB接⼝、⽹络通讯等多种通讯控制接⼝控制。可搭载超声波、激光、光流GPS、PTK等诸多传感器,适应多种应⽤环境与系统组合。
3、机载双⽬视觉系统
导航页源码机载双⽬视觉系统包括双⽬相机、图传系统,双⽬相机固定于⽆⼈机底部,实时采集⽆⼈机巡视拍摄信息,发送⾄TX2机载处理板卡进⾏避障、跟随以及slam计算,或下传⾄地⾯图传接收机由开发⼯作站进⾏处理。机载双⽬视觉系统所使⽤的双⽬视觉相机为⼩觅双⽬视觉相机。
采⽤⼩觅双⽬摄像头标准版,双⽬帧在硬件上同步。以60Hz的频率采集图像,分辨率达到752×480像素,如图2.2为⼩觅双⽬标准摄像头。内置六轴IMU传感器,频率可以达到500Hz。双⽬基线120mm。采⽤全局快门,可实现两个摄像头的所有像元同时曝光。在⾼速移动的拍摄场景中,能有效降低图像畸变,提供更加精准的图像源。
特点
(1)IMU 六轴传感器,IMU 与图像的同步精度⾼达0.05ms,为 SLAM 算法以及 空间移动算法的研发提供数据校正;
(2)IR 主动光,2颗IR主动光探测器发射的红外结构光,有效增强⽩墙和玻璃等物体 的识别精度,适⽤于完全⿊暗环境;
⾃动⽩平衡,精准调教的感光元件和镜头提供室内外感光的⾃适应和调节;
(3)双⽬帧同步,提供两颗摄像头的硬件级帧同步,减⼩因图像不同步⽽导致的误 差;
(4)全局快门,实现每个像元的同时曝光有效降低⾼速移动拍摄时的图像畸变;
(5)灰度镜头,提供清晰的⿊⽩视觉研究图像源,分辨率为752x480/60fps;
(6)基线长度,120mm 的基线长度适⽤绝⼤多数双⽬应⽤场景;
(7)铝合⾦外壳,阳极铝加⼯外壳坚固耐⽤,采⽤标准 1/4”螺丝接⼝;
(8)适⽤于双⽬SLAM研究,⽀持 VINS,OKVIS, ORB_SLAM2,VIORB 等多个开源 VSLAM 项⽬,并在
SDK 中提供样例;
(9)CUDA 加速,提供基于 CUDA 加速的实时深度输出,使 GPU 能够解决复杂的计算问题;
(10)丰富数据信息,通过 SDK 获取原始数据/校正双⽬图像、视差图像、实时深度图像、实时点云图像、IMU 数据等;
(11)多平台SDK,SDK 适配 Windows、Linux、ROS、Mac、Android、TX1/2 等多种平台,并提供丰富⼯具。
4、Jetson TX2机载图像处理板
Jetson TX2是⽆⼈机平台搭载的深度学习⽬标检测算法运⾏板,为后期将图像处理移植于机载端进⾏处理,是深度学习、计算机视觉、图像处理和GPU计算的优秀系统,⾮常适合于⽆⼈机、⾃主机器⼈、移动医学成像等嵌⼊式系统应⽤。
Jetson TX2为2017年3⽉发布的新⼀代产品,集成256核NVIDIA Pascal GPU和⼀个6核64位的ARMv8处理器集,拥有
8GBLPDDR4 128位内存。ARMv8处理器集包含⼀个双核NVIDIA Denver 2以及⼀个4核ARM Cortex-A57。Jetson TX2模块⼤⼩为50 x 87 mm,重量为85克,典型功耗为7.5⽡。
Jetson TX2基于16纳⽶NVIDIA Tegra “Parker” SOC,其效能⽐Jetson TX1提升2倍,性能表现超过了Intel Xeon服务器级CPU
Jetson TX2提供两种运⾏模态:⼀种是MAX Q,能效⽐能达到最⾼,是上⼀代的TX1的2倍,功耗在7.5W以下;另⼀种是MAX P,性能可以做到最⾼,能效⽐同样可以做到前⼀代的2倍,功耗则在15W以下。
5、VR眼镜进可选硬件
VR眼镜主要应⽤于三维显⽰使⽤,其图像来源为图传系统,显⽰延迟为50ms。
6、可选硬件