基于视觉激光惯性相结合的机器人SLAM算法
针对弱纹理环境下SLAM系统只依靠单一传感器鲁棒性较差的问题,提出一种视觉、单线激光雷达与惯性相结合的机器人SLAM算法。在视觉与雷达预处理阶段,视觉提取点线特征,同时雷达帧间匹配过程采用激光点到其最近两个点连线的距离构建误差方程,实现更高精度匹配效果。采用惯性传感器与轮速里程计进行雷达运动畸变校正,同时雷达估计信息为单目点线特征三角化提供良好深度值,再利用点线视觉信息、雷达点云信息与惯性测量单元紧耦合优化机制提高机器人SLAM的精确度。最后,将该方法在仿真环境和真实弱纹理环境进行实验。结果表明:该方法定位准确率达到98.6%,在弱纹理环境中定位效果具有较强的鲁棒性和准确性,满足实际需求。
基于改进能观性的扩展卡尔曼滤波机器人定位
为解决EKF-SLAM算法的状态估计不一致问题,提出一种改进能观性的EKF算法。利用每一个状态变量的第一个可用估计值计算滤波器的雅可比矩阵,从而保证误差状态系统模型的可观测子空间与实际的非线性SLAM系统的可观测子空间具有相同维数。在测量噪声协方差未知的情况下,对EKF-SLAM算法运用初始化的指数移动平均法估计测量噪声协方差。结果表明:改进的EKF-SLAM算法比传统EKF-SLAM算法的定位更精确,均方误差至少降低30%。
基于单目稀疏法多传感器融合移动机器人定位
针对移动机器人室内定位过程中,单目视觉难适应光照变化、里程计累计误差导致定位误差较大问题,提出边缘侧多传感器融合的定位方法。以稀疏直接法(半直接法)作为单目视觉的前端,实时单目相机估计位姿,通过惯性传感器恢复尺度输出位置信息,并且获取IMU的加速度以及偏航角、里程计当前速度,通过扩展卡尔曼滤波算法融合3种传感器信息,实现更加精确的定位。在移动机器人侧处理传感器读取的信息,从而减小机器人体积。边缘侧混合式多传感器信息融合使移动机器人在单个传感器失效以及无法人为干预时,也能够精确实时地在多种复杂环境中完成自主定位。
改进自适应混合高斯模型和帧间差分的运动目标检测
针对传统混合高斯模型进行运动目标检测易受环境噪声或光照变化干扰,检测结果存在空洞、边缘缺失等问题,提出一种改进自适应混合高斯模型和帧间差分的运动目标检测算法。在混合高斯模型建立之初,采用较大的学习率快速消除背景干扰信息,当模型趋于稳定后,根据目标运动状态不断调整学习率,实现自适应修正背景模型。同时引入光照变化因子调整模型更新率,有效克服光照变化的影响。为提高目标边缘连续性,采用基于图像相似度的四帧差分法并结合
基于精确背景运动补偿的机器人运动目标检测与跟踪
为实现动态场景下机器人快速准确地检测与跟踪运动目标,提出一种基于精确背景补偿的运动目标检测方法,并利用Kalman滤波扩展的KCF算法进行目标跟踪。针对传统ORB算法存在特征点分布不均匀、误匹配率高导致背景补偿效果不佳的问题,采用小波变换及图像分块处理保证提取的特征点数目及均匀分布,通过SURF算法提取具有尺度不变性的特征点并构建ORB描述子。利用KNN算法与对称约束相结合的特征匹配法提高匹配精度,同时引入改进的RANSAC方法精确求解全局运
-
共1页/5条