ZIS团队的博客分享 http://blog.sciencenet.cn/u/xuzhengxing

博文

智慧城市车辆环境感知——AI视域下的智能车辆视觉技术技术

已有 1060 次阅读 2024-2-22 22:06 |系统分类:科普集锦

智慧城市车辆环境感知——AI视域下的智能车辆视觉技术技术

牛舒杰1李一尘1 诸云1*

(南京理工大学自动化学院,210094)

1* 诸云,南京理工大学副研究员,中国自动化学会“智向未来”自动化与人工智能百人科普团专家

摘要:该文章主题为"AI视域下的智能车辆视觉技术",主要探讨了该技术在国内外的研究现状。通过在互联网上查找关于AI视域下的智能车辆识别技术的研究报告以及相关文献,分析实际应用中的智能车辆识别技术,例如自动驾驶汽车、智能交通管理和车辆安全系统。发现目前这一技术面临的挑战,总结了该技术目前存在的已知问题,并规划了未来的发展方向。研究结果显示,视觉技术在实现更安全、高效和智能的交通系统中有着不可替代性。文章详细介绍了关于智慧城市车辆环境感知中所用到的各种技术。

关键词:智慧城市;人工智能;智能车辆;图象识别

Intelligent Urban Vehicle Environment Perception - Vision Technology for Intelligent Vehicles under the Scope of AI

NiuShujie,LiYichen,Zhuyun

Abstract:The theme of this paper is “Vision Technology for Intelligent Vehicles under the Scope of AI”, which mainly explores the current state of this technology both domestically and internationally. By searching the internet for research reports and related literature on intelligent vehicle recognition technology under the scope of AI, we analyze the intelligent vehicle recognition technology used in actual applications, such as autonomous driving cars, intelligent traffic management, and vehicle safety systems. We identify the challenges currently faced by this technology, summarize the known issues with this technology, and plan for future development directions. The research results show that vision technology is irreplaceable in achieving a safer, more efficient, and intelligent transportation system. The paper provides a detailed introduction to various technologies used in intelligent urban vehicle environment perception.

Key words:Intelligent City; Artificial Intelligence; Intelligent Vehicle; Image Recognition。

0 引言

AI技术正在以一种难以抵挡的趋势对我们的生活产生改变,从最早的AlphaGo到最近令人瞩目的人工智能大模型ChatGPT ,它对我们的影响体现在方方面面,而汽车领域毫无疑问是受其影响较大的。人工智能在汽车领域的应用已不仅仅局限于自动驾驶,更延伸至智能交通系统、车辆预测维护等多个层面,不断推动着汽车业的创新与发展。对智能汽车而言,视觉传感器是智能汽车的“眼睛”,它的原理是利用计算机视觉技术,通过处理摄像镜头捕捉的图像,从而获得引导信息,就像人眼视觉的机制一样。通过视觉传感器,汽车就可以知道外界环境,并获取信息,从而汽车控制系统可以发布指令,对汽车做出调控。视觉技术就是智能汽车获取外界信息和环境进行交互的关键,在此基础之上,我们才能考虑下一步实际的用途,无论是自动驾驶还是智能交通系统都离不开视觉技术。2017年工信部、发改委、科技部联合发布《汽车产业中长期发展规划》,提出“智能网联汽车推进工程”,对自动驾驶汽车渗透应用做出明确规划。尤其是 2022 年以来,国家部委出台多部关于汽车智能化的重点政策,旨在推动智能汽车在多场景中的落地计划。智能汽车方面自动驾驶、车路协同、车联网等技术的试点和应用正在加速推进,近年来,智能车辆己经成为世界车辆工程领域研究的热点和汽车工业增长的新动力,很多发达国家都将其纳入到各自重点发展的智能交通系统当中。智能车辆视觉技术,利用摄像头、雷达和激光雷达等传感器,对周围的环境进行感知,对获取的信息处理,是智慧车辆不可或缺的一部分。

1 智能车辆视觉技术概述

1.1 智能车辆视觉技术的基本原理

目前国内外应用最多的视觉导航方式是安装车载摄像机,基于局部视觉 通过图像处理技术得到导航信息。根据安装在汽车上的摄像机个数的不同又可分为单目视觉和多目视觉的方式。单目视觉方式,一般是将摄像机安装在汽车的前端,从一定高度和一定的俯角拍摄前方的路面情况,多目视觉,有时也称为全景传感器,是在汽车上安装多个摄像机以获得图像 全景信息的方式。图像采集常用的固态图像传感器主要有互补金属氧化物半导体CMOS图像传感器与电荷耦合器件CCD图像传感器两种类型。CCD图像传感器和CMOS图像传感器都可以将光学图像转换为电荷信号,以实现图像的存储、处理和显示。,大多数系统的图像采集工 具使用的也都是CCD摄像机。

数字图像处理由五大块组成:图像输入、图像存储、图像传送、图像处理、图像显示。图像处理的主要内容有:图像的采集、增强、复原、变换、编码、重建、分 割、配准、嵌拼、特征提取、模式识别、图像理解等等。道路图像采集需要将三维的道路图像场景投影到二维的图像平面,这个投影 可用几何透视变换来描述。由于车辆行驶时,视觉系统与道路环境之间存在相对运动、随机大气湍流,输出图像质量也会降低,常产生运动模糊等现象。为了改善视觉系统图像质量,需要突出道路图像中的有用信息并尽可能消除其它环境信息的干扰,因此需要对原始图像进行图像的预处理操作。图像预处理是指在处于最低抽象层次的图像上所进行的操作,这时处理的输入和输出都是灰度图像。道路图像预处理主要是平滑滤波、边缘增强处理和进行阈值分割处理。

计算机视觉需要大量数据。它一遍又一遍地运行数据分析,直到能够辨别差异并最终识别图像为止。例如,要训练一台计算机识别汽车轮胎,需要为其输入大量的轮胎图像和轮胎相关数据,供其学习轮胎差异和识别轮胎,尤其是没有缺陷的轮胎。这个过程会用到两种关键技术:一种是机器学习,叫做深度学习,另一种是卷积神经网络(CNN)。

机器学习使用算法模型,让计算机能够自行学习视觉数据的上下文。如果通过模型馈入足够多的数据,计算机就能"查看"数据并通过自学掌握分辨图像的能力。算法赋予机器自学的能力,而无需人类编程来使计算机能够识别图像。CNN将图像分解为像素,并为像素指定标记或标签,从而使机器学习或深度学习模型能够"看"到物体。它使用标签来执行卷积运算(用两个函数产生第三个函数的数学运算)并预测它"看到"的东西。该神经网络运行卷积运算,并通过一系列迭代检验预测准确度,直到预测开始接近事实。然后它以类似于人类的方式识别或查看图像。就像人类辨别远距离的图像一样,CNN首先辨别硬边缘和简单的形状,然后一边运行预测迭代,一边填充信息。CNN用于理解单个图像。循环神经网络(RNN)以类似的方式在视频应用程序中帮助计算机理解一连串帧中的图片关系。

1.2 传感器技术

激光雷达又称为LiDAR,激光雷达的工作原理是通过发射信号和反射信号的对比,构建出点云图,从而实现诸如目标距离、方位、速度、姿态、形状等信息的探测和识别。激光雷达的测距原理很简单,因为激光在空气中以光速传播。雷达每次发送一个脉冲,如果发射出的脉冲遇到障碍物会反射,那么接收机接收到回波,就可以计算出目标障碍物和汽车的中间距离。

除了传统的障碍物检测以外,激光雷达还可以应用于车道线检测在传统的认知中,人们普遍认为车道线检测需要通过摄像头的视觉相关算法完成,但是实际应用中,特别是雨雪天气下,车道线会被遮挡,这个时候通过激光摄像头可以有效地作为补充。激光摄像头检测车道线的原理是通过激光反射信号的强度,区分出车道线。

毫米波雷达,毫米波雷达的波长在1~10mm之间,具有较强的穿透性,可以轻易地穿透塑料等材质。毫米波雷达通常被用来做道路上车辆的测距和测速。具体原理跟激光雷达类似,也是通过发射信号和接收信号之间的频率差,计算出目标之间的距离。

超声波雷达目前已经在汽车领域被大面积的应用,超声波雷达也称倒车雷达,主要应用于自动泊车或者倒车辅助的相关环节。超声波雷达的工作距离一般在3cm到3m之间。作用原理是释放超声波,当遇到障碍物时,超声波反射,从而获取障碍物的具体距离。超声波雷达通常装配在汽车的前后区域。

激光雷达的优点在于获取信息丰富,抗源干扰能力强(指的是对于环境中其它电磁波带来的干扰)、分辨率和精度高。主要缺点是在一些极端天气条件下,可能会有一定影响。另外是对于颜色、图案的识别能力很弱,比如不能通过激光雷达识别道路交通牌子上面的内容。价格比较昂贵。

与激光雷达相比,毫米波雷达因为穿透力较强,所以受到雨雪等天气的影响较小。另外就是毫米波雷达的器械体积通常较小,易于在车辆进行安装。缺点在于,当需要探测行人这种反射界面较小的物体的时候,毫米波雷达容易出现误报。

超声波雷达的成本较低但是测量距离近,易受天气的影响,主要应用于自动泊车或者倒车辅助的相关环节。

基于各种传感器各有优缺点,对周围环境的感知更好的方法是多传感器数据融合。传感器的数据融合分为三个基本模式,分别是集中式、分布式和混合式,接下来分别介绍下。

1.集中式的方案是所有传感器采集的数据全部送到中央处理器做处理。这样做的优点是没有信息损失,便于中央处理器拿到全部的信息,可以做最精准的判断。劣势在于需要传输的数据量较大,因为传输的都是原始图像和日志信息,另外对中央处理器的计算能力要求很高。2.分布式的方案是每个传感器在获取数据后先进行数据的处理,将有价值的信息甚至是部分决策结果反馈给中央处理器。这样信息的损失可能会大一些,另外对于传感器的计算能力有一定要求,但是会大大减少数据传输带来的性能要求,并且会缓解中央处理器的数据处理量。3.混合式指的是分布式和集中式的融合方案,某些模块采取混合式,某些模块采取集中式。因为不同的传感器都存在数据准确性的问题,通常需要一套多数据融合的算法来解决这个问题。卡尔曼滤波的基础思想采用信号与噪声的状态空间模型,利用前一时刻的估计值和现时刻的观测值来更新对状态变量的估计,求出现时刻的估计值。通过预测-实测-修正的顺序递归,消除随机干扰。

1.3 图像处理和计算机视觉

图像中最常用的二维目标检测结构是单级和双级检测器。流行的单级探测器有“你只看一次”(Yolo)、单点多盒探测器(固态硬盘)。双级检测器,如RCNN、Faster RCNN或R-FCN,其将目标检测过程分为两部分:感兴趣区域候选方案和边界框分类。一般来说,单级探测器的性能不如双级探测器,但速度要快得多。

驾驶场景的理解也可以通过语义分割来实现,表示图像中每个像素的分类标记。在自动驾驶环境中,像素可以用分类标签来标记,代表可驾驶区域、行人、交通参与者、建筑物等,这是一项高级任务。其中Segnet、ICnet、ENET、Adapnet或Mask R-CNN等语义分割网络主要是具有像素级分类层的编码器-解码器架构。它们基于一些常见网络拓扑的构建块。图5显示了基于城市景观数据集的四个关键语义分割网络的测试结果。其中每类平均交集是指多类分割,每个像素被标记为属于特定的对象类,而每类是指前景(对象)-背景(非对象)分割。输入样本的大小为480px320px。

定位算法的目的是计算自主车辆导航时的姿态(位置和方向)。这可以通过GPS等系统来实现,但在下面的文章中将重点介绍基于视觉定位的深度学习技术。视觉定位,也称为视觉里程计(vo),通常是通过匹配连续视频帧中的关键点标记来确定的。给定当前帧,这些关键点用作透视N点映射算法的输入,用于计算车辆相对于前一帧的姿态。深度学习可以直接影响关键点检测的精度,从而提高精度。此外,随着摄像机姿态的计算,环境的结构可以逐步映射。这些方法属于同步定位与映射(slam)领域。为了安全地在驾驶现场导航,一辆自动驾驶的汽车应该能够估计周围环境的运动,也称为场景流。以往基于激光雷达的场景流估计技术主要依赖于人工设计的特征。还能够自动学习场景流的深度学习体系结构取代这些经典方法。在占用网格上训练编码深度网络,以在连续时间步之间找到匹配或不匹配的位置。虽然在基于深度学习的定位领域已经取得了很多进展,但是该技术仍然以经典的关键点匹配算法为主,并结合惯性传感器提供的加速度数据。这主要是因为关键点检测器计算效率高,可以很容易地部署在嵌入式设备上。2 实际应用和案例研究

到目前为止,深度学习和卷积神经网络(CNN)在智能车辆视觉技术中的应用已经取得了显著的突破:

自动驾驶技术:自动驾驶技术中的环境感知部分需要雷达与视觉技术的配合使用。视觉技术其实是仿生理学的解决方案,因为现实世界中司机驾驶车辆就是依靠视觉去做行车过程中的决策。在自动驾驶领域的识别主要分以下几个核心场景,分别是雷达云图的识别、行驶途中障碍物的识别、行驶区域的识别、交通标识的识别以及光流识别。

视觉AI让车路协同拥有上帝视角:视觉AI技术可以实现对车牌、车辆属性、驾驶人员属性的智能识别分析,利用视频分析算法,可实现路面交通参与者的种类区分。此外,视觉AI技术还可以帮助实现事件预警,全域执法和停车诱导等功能。

基于深度学习的视觉感知:包括了一些成功的应用案例,如图森(基于深度学习计算机视觉的智能集卡)、Momenta(提供基于深度学习的计算视觉解决方案,自主泊车)、地平线(基于深度学习的芯片硬件设计,提供整套软硬件方案)、Pony.ai(整车系统开发的无人驾驶)。

2.1 自动驾驶案例研究

智能车辆视觉技术是自动驾驶汽车的重要组成部分,它可以让汽车通过摄像头和算法来感知周围的环境,识别车道线、障碍物、交通标志等信息,从而实现安全和高效的驾驶,以下有2020无人驾驶的部分创新案例:

2.1.1 阿里达摩院:自动驾驶“混合式仿真测试平台”

路测是自动驾驶落地的核心环节,研究显示,自动驾驶汽车需要积累177亿公里的测试数据,才能保证自动驾驶感知、决策、控制整个链路的安全性。传统纯虚拟仿真测试平台能快速跑完自动驾驶路测里程,但仍然面临极端场景训练效率低下的关键问题。

达摩院自动驾驶混合式仿真测试平台解决了这一难题,平台打通了线上虚拟固定环境与线下真实路况不确定性的鸿沟,不仅可以使用真实路测数据自动生成仿真场景,还可通过人为随机干预,实时模拟前后车辆加速、急转弯、紧急停车等场景,加大自动驾驶车辆的避障训练难度。

针对极端场景数据不足的问题,平台可以任意增加极端路测场景变量。在实际路测中,复现一次极端场景的接管可能需要1个月的时间,但该平台可在30秒内即完成雨雪天气、夜间照明不良条件等特殊场景的构建和测试,每日可支持的场景构建数量达百万级。

规模化解决极端场景的复现难题,使得关键场景的训练效率提高上百万倍,达摩院致力于推动自动驾驶加速迈向L5阶段。

故专家点评为:攻坚克难。

2.1.2 百度Apollo:ACE交通引擎

ACE交通引擎,即自动驾驶、车路协同、高效出行。ACE交通引擎是百度多年在人工智能、自动驾驶、车路协同方面的积累和实践,集自动驾驶生态和百度AI能力全力赋能城市交通。

其采用了“1+2+N”的系统架构,即“一大数字底座、两大智能引擎、N大应用生态”。一大数字底座指“车”“路”“云”“图”等数字交通基础设施,包括小度车载OS、飞桨、百度智能云、百度地图。两大智能引擎分别是Apollo自动驾驶引擎和车路协同引擎。N大应用生态,包括智能信控、智能停车、交通治理、智能公交、智能货运、智能车联、智能出租、自主泊车和园区物种等。

目前,百度“ACE交通引擎”综合解决方案已在北京、长沙、保定等10余个城市落地实践,并在最近接连中标重庆、阳泉、合肥的车路协同新基建项目。

跟随智能交通的趋势和潮流,实施智能引领新路径,建设交通强国新支撑,助力交通科学治理新手段,百度在路上。

故专家点评为:智能引擎。

2.1.3 文远知行:自动驾驶车顶一体化集成套件

2019年12月18日,在英伟达NVIDIA主办的年度科技盛事GTC China 2019上,文远知行推出首个自动驾驶车顶一体化集成套件——WeRide Smart Suite 3.0。

WeRide Smart Suite 3.0由文远知行与合作伙伴英伟达、德昌电机共同打造。全新的All-IN-ROOF顶罩设计将计算单元套件、传感器套件和冷却及清洁系统全部集成在车顶上,体积更小,性能更强,是自动驾驶汽车车规级研发的一次重要突破。

通过将计算单元套件从后备箱迁移到车顶,WeRide Smart Suite 3.0成功将后备箱空间还给乘客,更高的模块集成度节省了多达50%的空间,并减少了车内噪音;冷却及清洁系统能够均匀覆盖所有光学类传感器的镜头,同时还可以针对反向电流、失速、高电流、高低电压、高温等情况进行功能性保护;传感器套件3.0配备文远知行自研相机模块,通过时间、空间双维度的校准和标定方法的升级,达到像素级主动同步,探测更为实时、精准,成像精度更高,进一步提升自动驾驶感知的准确性和运营的安全性,并且可以快速实现大规模量产。

更大空间,更多保护,更精准的感知与安全,自动驾驶不仅仅在于“自动驾驶”。

故专家点评为:完美集成。

2.1.4 元戎启行:车规级计算平台解决方案

2020年1月6日,深圳元戎启行科技有限公司公布了其计算平台解决方案——DeepRoute Tite,通过将L4级自动驾驶所需的算法移植到车规级计算平台Xavier,大幅降低了计算平台的成本和体积,并将整体功耗降到了45瓦。

通过采用英伟达的车规级计算平台Xavier,元戎启行的计算平台解决方案能够处理感知、预测、决策、规划与控制、导航定位等L4级自动驾驶模块。以往需要在庞大的计算平台上运行的工作,如今可以在一个小盒子里实现,释放了自动驾驶车辆的后备箱空间。

元戎启行通过自主研发的推理引擎,将自动驾驶相关算法成功移植到Xavier。其自研的推理引擎,能够针对深度学习算法中的自定义算子和网络结构,做出更好的计算资源上的优化,让自动驾驶算法能够高效和稳定地运行。既降低了成本,又保证了自动驾驶的安全性。通过使用这一计算引擎,元戎启行的L4级自动驾驶系统的所有计算需求,即使在复杂的城市道路中,也能精确识别周围障碍物,灵活完成红绿灯识别、转弯、避障等操作。

降本,增效,保安全,元戎启行的目标是加速自动驾驶量产。

故专家点评为:降本增效。

2.1.5 智加科技:L4远距多目视觉立体感知系统     

有效距离达到1英里(1600米)的立体视觉感知技术,可以精准判断物体的位置和速度,结合多传感器融合方案将大幅提升系统安全性。这是目前全球自动驾驶领域已知最领先的远距离AI视觉系统。

智加科技有效感知距离为1600米的立体视觉感知系统,是利用基于深度学习的多目视觉解决模块及算法,构建了高精度的物体检测认知模型。这一系统成功突破了立体视觉在自动驾驶远距离上感知精度的限制,实现了1600米距离上对物体和车道的识别和更进一步的追踪。

与单目摄像头带来的视觉感知能力相比,智加科技的多目立体视觉系统实现了三维世界内的距离量测,并且在车辆的自我位置识别、移动车辆的类型、位置、速度以及车道线等要素的有效识别上表现出了强悍的性能。

显著推升系统的整体感知能力,保证驾驶过程的安全性。有效的安全距离带来足够的预判时间,让自动驾驶可以合理操作,降低运营成本。立体视觉在有效距离上的突破,从安全和降本节能层面对自动驾驶的场景落地产生直接推动作用。

故专家点评为:独具慧眼。

2.1.6 驭势科技:厂区无人驾驶物流线路

2019年11月,驭势科技携手上汽通用五菱在宝骏基地部署运营的厂区无人物流项目正式开启常态化运营,并以宝骏新能源无人物流车作为运输载体,建成国内首条厂区无人驾驶物流线路,全面提升基地内部物流运力与效率。启用至今,无人物流车行驶里程已超过10000公里,运输超过6000次,真正为客户工厂运营创造了“降本增效”的实际价值。

驭势科技无人解决方案由具备L4级自动驾驶能力的无人物流车和一套功能强大的云端智能运营管理系统构成。无人物流车内搭载一款全功能智能驾驶控制器,可通过联合部署在车身周围的激光雷达、摄像头、超声波雷达等多类传感器的感知数据,结合无人驾驶核心算法,实现在多种复杂工厂环境下的无人驾驶。借助云端智能管理平台,为厂区无人物流运营提供多车协同、调度、远程控制、数据分析等功能服务,大大提升无人物流运营的管理效率与安全性。

在无人驾驶的助力下,无人化、智能化、网联化的物流模式已经形成。

故专家点评为:无人物流。

2.1.7 图森未来:高速公路无人驾驶队列测试

2019年12月30日,图森未来L4级无人驾驶卡车车队在京礼高速(延崇北京段)顺利完成中国首次高速公路全封闭环境下、基于C-V2X车路协同技术的队列跟驰测试工作。

在本次演示中,图森未来携手北汽福田、首发集团、华为等合作伙伴,实现了无人驾驶卡车车队总长14公里的三车队列跟驰。采用头车人工驾驶模式,后车无人驾驶模式完成列队巡航、列队换道、队列同步减速停车及列队车路协同场景的演示,并能在80公里/小时的时速下保持10米车间距,实现了单人驾驶多车车队,在节省燃油、降低道路占用、降低运输成本方面达到世界领先水平。

队列测试,技术引领,场景融合,图森未来致力于加快无人驾驶落地步伐。

故专家点评为:风驰电掣。 

2.1.8 轻舟智航:大规模智能仿真系统

基于大规模仿真技术应用来解决规划决策问题是当前无人驾驶技术领域的关键课题,通过建立大量的工具链以及仿真测试环境,可以实现技术迭代的自动化,以更快的速度、更高效的方式应对自动驾驶的边界化难题。

轻舟智航是将有效数据、智能仿真系统以及决策规划框架这三点视为推动技术向前转动的齿轮。借助大规模智能仿真系统和可自主学习决策规划框架,轻舟智航可做到最大化地利用有效数据,大幅降低测试成本,提升开发效率,保证解决方案的可拓展性。

一方面,借助仿真及相关工具链,能形成高效的数据测试闭环,支持算法的测试和高效迭代,取代堆人或堆车的方式。另一方面,只有经过大规模智能仿真验证过的软件,才能够保证安全性和可用性。

无人驾驶是个赛跑,仿真是助推器,助推完全无人驾驶的实现。

故专家点评为:轻舟起航。

2.1.9 Momenta:L4级自动驾驶MSD

2019年12月26日,Momenta 正式发布了L4级无人驾驶技术 MSD (Momenta Self Driving),可实现城市场景下的完全无人驾驶。结合此前发布的面向高速和泊车场景的前装量产产品 Mpilot,MSD 的发布标志着 Momenta 量产自动驾驶与完全无人驾驶“两条腿” 战略的雏形形成。

基于统一量产传感器方案,Mpilot 为 MSD 提供“数据流”,MSD 为 Mpilot 提供“技术流”,两者之间高效的闭环自动化迭代,将重新定义实现无人驾驶的关键路径:通过量产自动驾驶产品获得海量数据,持续研发数据驱动的核心算法,打造闭环自动化工程体系,发挥数据价值,高效迭代技术,最终实现完全无人驾驶。

左腿量产自动驾驶, 右腿完全无人驾驶,两条腿走路才更稳健。

故专家点评为:并驾齐驱。

2.1.10 AutoX:无人车运营大数据中心

高质量、规模化的路测和仿真数据,对自动驾驶公司解决边界化难题、更快迭代算法、更快实现规模化商业落地,有至关重要的意义。日前,AutoX宣布建成并使用其在上海嘉定汽车城的“无人车运营大数据中心”。

AutoX在上海路测的每台自动驾驶乘用车RoboTaxi每小时会产生1TB的数据量,而该大数据中心里的大数据云平台可以对这些大规模真实数据进行加工和压缩、质量监督、自动标注、结构化测试,并以x1000倍量级对其进行混合仿真,从而让物理世界和虚拟世界数据连接起来。

相较于普通车库和研发数据中心,新的无人车运营大数据中心的效率和速率将进一步提升,并可支持标准化、流水线化的规模运营。

全球只有少数几家自动驾驶公司建设了无人驾驶运营大数据中心,AutoX的技术引领又一次为其带来无限可能。

3 面临的挑战和未来发展

经过目前多种案例分析可以看出智能车辆视觉技术面临的问题主要有以下几个方面:

传感器的性能和成本:摄像头作为智能车辆视觉技术的主要传感器,需要具备高分辨率、高帧率、高动态范围、低噪声、低功耗等特点,同时还要考虑成本的控制,这对传感器的设计和制造提出了很高的要求。

算法的准确性和鲁棒性:智能车辆视觉技术需要处理复杂多变的道路场景,如光照变化、遮挡、模糊、反光等,这对算法的准确性和鲁棒性提出了很高的挑战。同时,算法还需要满足实时性、可解释性、可信赖性等要求,以保证自动驾驶的安全性和可靠性。

数据的质量和标注:智能车辆视觉技术依赖于大量的数据来训练和验证算法,这就需要数据具备高质量和高覆盖率,能够反映真实的道路场景和驾驶行为。同时,数据的标注也是一个耗时耗力的工作,需要专业的人员和工具来完成,这也增加了数据的成本和难度。

而同样也可以从这几方面分析出智能车辆视觉技术的未来的主要发展方向

传感器的集成和融合:为了提高智能车辆视觉技术的性能和稳定性,需要将摄像头与其他传感器,如雷达、激光雷达、超声波等进行集成和融合,实现多模态的感知能力。同时,还需要优化传感器的布局和配置,降低冗余和干扰,提高效率和安全性。

算法的创新和优化:为了提高智能车辆视觉技术的准确性和鲁棒性,需要不断创新和优化算法,利用深度学习、强化学习、迁移学习等人工智能技术,提升算法的泛化能力和自适应能力。同时,还需要优化算法的结构和参数,降低算法的复杂度和资源消耗,提高算法的实时性和可解释性。

数据的生成和增强:为了提高智能车辆视觉技术的数据质量和覆盖率,需要利用数据生成和增强的方法,如模拟仿真、对抗生成、数据增广等,扩充数据的数量和多样性,增加数据的难度和挑战性。同时,还需要利用数据的自标注和半监督学习的方法,降低数据的标注成本和难度,提高数据的利用率和效率。

 

参考文献

[1]陈涛,范林坤,李旭川,等. 基于深度学习的智能车辆视觉里程计技术发展综述[J]. 2021(1):1-10. DOI:10.19620/j.cnki.1000-3703.20200736.

[2] 王荣本,李琳辉,金立生,等. 基于双目视觉的智能车辆障碍物探测技术研究[J]. 2007,12(12):2158-2163. DOI:10.3969/j.issn.1006-8961.2007.12.020.

[3] 梁建伟. 智能车辆机器视觉技术的国内外研究现状分析[J]. 2013(31):23-23. DOI:10.3969/j.issn.1009-0843.2013.31.023.

[4] 鲁学柱. 智能车辆视觉图像处理技术的研究[D]. 北京信息科技大学,2007.

[5] 蒋杰. 新型智能车辆视觉系统及图像处理技术的研究[D]. 吉林:吉林大学,2003. DOI:10.7666/d.Y494870.



https://blog.sciencenet.cn/blog-3533821-1422664.html

上一篇:智慧医疗背景下的的法律问题研究
收藏 IP: 223.107.250.*| 热度|

0

该博文允许注册用户评论 请点击登录 评论 (0 个评论)

数据加载中...
扫一扫,分享此博文

全部作者的精选博文

Archiver|手机版|科学网 ( 京ICP备07017567号-12 )

GMT+8, 2024-5-5 18:46

Powered by ScienceNet.cn

Copyright © 2007- 中国科学报社

返回顶部