• <bdo id="e8w02"><label id="e8w02"></label></bdo>
    写帖子

    最近搜索

      暂无相关数据

    注册 登录

    无人驾驶中的环境感知

    说两句

    圈子: 2019-01-14 17:29:19

    无人驾驶中的环境感知


    为了确保无人车对环境的理解和把握,无人驾驶系统的环境感知部分通常需要获取周围环境的大量信息,具体来说包括:?#20064;?#29289;的位置,速度以及可能的行为,可行驶的区域,交通规则等?#21462;?#26080;人车通常是通过融合激光雷达(Lidar),相机(Camera),毫米波雷达(Millimeter Wave Radar)等多种传感器的数据来获取这些信息,本节我们简要地了解一下激光雷达和相机在无人车感知中的应用。

     

    激光雷达是一类使用激光进行探测和测距的设备,它能够每秒钟向环境发送数百万光脉冲,它的内部是一?#20013;?#36716;的结构,这使得激光雷达能够实时的建立起周围环境的3维地图。

     

    通常来说,激光雷达以10Hz左右的速度对周围环境进行旋转扫描,其扫描一次的结果为密集的点构成的3维图,每个点具备(x,y,z)信息,这个图被称为点云图(Point Cloud Graph),如下图所示,是使用Velodyne VLP-32c激光雷达建立的一个点云地图:

     

    激光雷达因其可靠性目前仍是无人驾驶系统中最重要的传感器,然而,在现实使用中,激光雷达并不是完美的,往往存在点云过于稀疏,甚至丢失部分点的问题,对于不规则的物体表面,使用激光雷达很难辨别其模式,在诸如大雨天气这类情况下,激光雷达也无法使用。

     

    为了理解点云信息,通常来说,我们对点云数据进行两步操作:分割(Segmentation)和分类(Classification)。其中,分割是为了将点云图中离散的点聚类成若干个整体,而分类则是区分出这些整体属于哪一个类别(?#28909;?#35828;行人,车辆以及?#20064;?#29289;)。分割算法可以?#29615;?#31867;如下几类:

     

    基于边的方法,例如梯度过?#35828;齲?/span>

     

    基于区域的方法,这类方法使用区域特征对邻近点进行聚类,聚类的依据是使用一些指定的标准(如欧几里得距离,表面法线等),这类方法通常是先在点云中选取若干种子点(seed points),?#32531;?#20351;用指定的标准从这些种子点出发对邻近点进行聚类;

     

    参数方法,这类方法使用预先定义的模型去拟合点云,常见的方法包括随机样本一致性方法(Random Sample ConsensusRANSAC )和霍夫变换(Hough TransformHT)

     

    基于属性的方法,首先计算每个点的属性,?#32531;?#23545;属性相关联的点进行聚类的方法;

     

    基于图的方法;

     

    基于机器学习的方法;

     

    在完成了点云的目标分割?#38498;螅?#20998;割出来的目标需要被正确的分类,在这个环节,一般使用机器学习中的分类算法,如支持向量机(Support Vector MachineSVM)对聚类的特征进行分类,最近几年由于深度学习的发展,业界开始使用特别设计的卷积神经网络(Convolutional Neural NetworkCNN)对三维的点云聚类进行分类。

     

    然而,不论是提取特征-SVM的方法还是原始点云-CNN的方法,由于激光雷达点云本身解析度低的原因,对于反射点稀疏的目标(?#28909;?#35828;行人),基于点云的分类并不可靠,所以在实践中,我们往往融合激光雷达和相机传感器,利用相机的高分辨率来对目标进行分类,利用Lidar的可靠性对?#20064;?#29289;检测和测距,融合两者的优点完成环境感知。

     

    在无人驾驶系统中,我们通常使用图像视觉来完成道路的检测和道路上目标的检测。道路的检测包含对道路线的检测(Lane Detection),可行驶区域的检测(Drivable Area Detection);道路?#19979;?#26631;的检测包含对其他车辆的检测(Vehicle Detection),行人检测(Pedestrian Detection),交通标志和信号的检测(Traffic Sign Detection)?#20154;?#26377;交通参与者的检测和分类。

     

    车道线的检测涉及两个方面:第一是识别出车道线,对于弯曲的车道线,能够计算出其曲率,第二是确定车辆自身相对于车道线的偏移(即无人车自身在车道线的哪个位置)。一种方法是抽取一些车道的特征,包括边缘特征(通常是求梯度,如索贝尔算子),车道线的颜色特征等,使用多项式拟合我们认为可能是车道线的像素,?#32531;?#22522;于多项式以及当前相机在车上?#20197;?#30340;位置确定前方车道线的曲率和车辆相对于车道的偏离。

     

    可行驶区域的检测目前的一种做法是采用深度神经网络直接对场景进行分割,即通过训练一个逐像素分类的深度神经网络,完成对图像中可行驶区域的切割。

     

    交通参与者的检测和分类目前主要?#35272;?#20110;深度学习模型,常用的模型包括两类:

     

    RCNN为代表的基于Region Proposal的深度学习目标检测算法(RCNNSPP-NETFast-RCNNFaster-RCNN等);

     

    YOLO为代表的基于回归方法的深度学习目标检测算法(YOLOSSD等)


    显示全部

    0个评论

      数据加载中...

    欢迎来到汽车学堂!

    请及时完善个人信息,增加就业推荐机会

    欢迎来到汽车学堂!

    请及时完善个人信息,为您提供更好的服务

    下线通知

    您的帐号在其它地方登录,您已被迫下线,如果不 是您本人操作,请及时修改密码。

    浙江20选5玩法