需求反馈 需求反馈
需求反馈
请留下您的需求和问题,我们会尽快与您联系
姓名 电话 公司    邮箱 请描述您的需求和问题
当前位置:

环境感知系列车道线检测:自动驾驶技术

环境感知系列车道线检测:自动驾驶技术

快联科技 | 2023-02-13 16:44:38

自动驾驶汽车需要很好的感知周围环境,从而进行进一步的分析与计算,比如不同颜色、不同光照条件下的车道线。依靠车道线检测技术,可以引导汽车在正确的区域行驶,为自动驾驶汽车的自动巡航、车道保持、车道超车等行为提供依据,并在汽车偏离车道时为驾驶员提供预警,有助于安全驾驶。

下面介绍几种效果较好的环境感知技术。


Surround-view Fisheye Camera Perception for Automated Driving: Overview, Survey & Challenges

环视鱼眼相机通常用于自动驾驶中的近场感应。车辆四侧的四个鱼眼摄像头足以覆盖车辆周围的360°,捕捉整个近场区域。一些主要的用例是自动停车、交通堵塞辅助和城市驾驶。由于汽车感知的重点是远场感知,因此关于近场感知任务的数据集和工作都很有限。

40e22d4c-cc53-40ea-a6dc-8a8343246aee.jpg

图1 一个典型的汽车环视系统

与远场相比,由于10cm的高精度物体检测要求和物体的部分可见性,环视感知带来了额外的挑战。由于鱼眼相机有较大的径向畸变,标准算法不能轻易扩展到环视的使用情况。因此,本研究的动机是为研究人员和从业人员提供一个独立的汽车鱼眼相机感知参考。首先,Varun Ravi Kumar和Ciar´an Eising Member等人对常用的鱼眼相机模型进行了统一的分类处理。其次,他们讨论了各种感知任务和现有文献。最后,讨论了挑战和未来的方向。

5ac2c2b7-ac49-4315-968b-9697b97e14b8.jpg

图2 商业系统的物体检测和分割

鱼眼相机是自动驾驶系统中最常见的传感器之一。尽管它很普遍,但汽车界对它的了解却很有限,因为它是一种专门的相机传感器。

cff1c502-e174-4d59-acf4-9864ff60fd0e.jpg

图3 包含鱼眼图像的各种自动驾驶数据集的摘要

它是一种专门的相机传感器,标准的算法并不适用标准算法并没有普及到它。这项工作提供了一个详细的说明开始了环视鱼眼相机的开发。这篇论文一部分是教程,详细描述了鱼眼的几何形状和模型,部分调查讨论了在鱼眼上开发的感知的算法。最后提供了未来探讨的方向。

A Review on Viewpoints and Path-planning for UAV-based 3D Reconstruction

无人驾驶飞行器(UAVs)是广泛使用的平台,为各种应用携带数据采集传感器。这一成功的原因可以在许多方面找到:无人机的高机动性、无人机的高效率和高效率。这种成功的原因可以在许多方面找到:无人机的高机动性,执行自主数据采集的能力,在不同高度飞行,以及可以到达几乎任何有利位置。自主数据采集的能力,在不同高度的飞行,以及到达几乎任何有利位置的可能性。


e947d918-e20b-4c81-ba3f-e03ecdee685e.jpg


图4 观点规划中的SfM和MVS启发式方法

选择适当的视点和规划无人机的最佳轨迹是一个新兴的话题,目的是提高捕捉数据过程的自动化、效率和可靠度,以获得具有预期质量的数据集。另一方面,使用无人机捕获的数据进行三维重建也引起了研究和工业界的关注。这篇评论文章研究了一系列无模型和基于模型的算法,用于大规模物体的三维重建的视点和路径规划。

50d937e0-40c0-4a8d-b912-927eec730d91.jpg

图5 Kuang的基于双级图的路径规划

所分析的方法仅限于那些采用单一的无人机作为数据采集平台,用于户外三维重建的方法。除了讨论评估策略外,本文还强调了本文还强调了所调查方法的创新和局限性。本文最后对现有的挑战和未来的研究前景进行了批判性分析。

918be869-35ad-4503-bce6-f058a3594a32.jpg

图6 基于模型的研究中报告的评价措施

尽管在视点和路径规划领域有很多工作和进展,但现有的算法还远远不是这个主题的最后版本。算法还远不是这个主题的最后一句话,还有很多令人兴奋的工作要做。在本节中,讨论了目前在观点和路径规划方法方面的挑战,这些挑战表明了未来在这个问题上的研究方向。

Multi-modal Sensor Fusion for Auto Driving Perception: A Survey

多模态融合是自主驾驶系统感知的一项基本任务,最近吸引了许多研究人员。然而,由于原始数据的噪声、信息利用不足以及多模态传感器的错位,实现相当好的性能并不是一件容易的事。在本文中,Keli Huang和Botian Shi等人对现有的基于多模态的自主驾驶感知任务的方法进行了文献回顾。

b92645fb-7584-49f8-868b-89744b6bfa9b.jpg


图7 通过多模态传感器融合模型对自动驾驶的感知任务进行研究

一般来说,Keli Huang、Xiang Li等人做了详细的分析,包括50多篇利用感知传感器(包括LiDAR和相机)试图解决物体检测和语义分割任务的论文。与传统的融合方法不同的是,提出了一种创新的方法,从融合阶段的角度出发,通过更合理的分类法将其分为两个大类,四个小类。

be63d9a2-6f79-459f-a3c1-60c8344e328f.jpg


图8 强-混淆概览

Keli Huang和Botian Shi等人按照LiDAR和相机数据表示的不同组合阶段,将强融合分为四类,即早期融合、深度融合、后期融合和不对称融合。作为研究最多的融合方法,强融合在最近几年显示出很多突出的成就。从图8的概览图中不难发现,强融合中的每个小类都高度依赖于LiDAR点云而不是相机数据。

c3ae6799-f22d-4d60-bec8-680074b7bca3.jpg


图9 KITTI[26]中测试数据集的BEV任务结果调查

在本文中,Keli Huang和Botian Shi等人回顾了50多篇关于自主驾驶感知任务的多模式传感器融合的相关论文。具体来说,研究者首先提出了一种创新的方法,从融合的角度将这些论文分为三类,即更合理的分类法。然后,对激光雷达和照相机的数据格式和表示方法进行了深入调查,并描述了不同的特征。最后,详细分析了多模态传感器融合的剩余问题,并介绍了几个新的可能方向,这可能对未来的研究工作有所启发。

“本文为“AI购-快联科技让每个企业都能愉悦地连接AI”出品,转载请注明”

https://quickconn.net.cn/