博舍

NAD蔚来自动驾驶 蔚来电动汽车自动驾驶级别是什么

NAD蔚来自动驾驶

蔚来自动驾驶

让车成为安全、自由的移动生活空间是我们的愿景;NIOAssistedandIntelligentDriving蔚来自动驾驶,从地图定位到感知算法,从底层系统到控制策略,拥有全栈自动驾驶技术能力;逐步实现高速、城区、泊车和换电场景的全覆盖,解放时间,减少事故,带来安全放松的点到点自动驾驶体验。

蔚来超感系统

Aquila蔚来超感系统,拥有33个高性能感知硬件,包括1个超远距高精度激光雷达、7颗800万像素高清摄像头、4颗300万像素高感光环视专用摄像头、1个增强主驾感知、5个毫米波雷达、12个超声波传感器、2个高精度定位单元和V2X车路协同。实现融合感知,定义了量产车自动驾驶感知系统的全新标准。

瞭望塔式传感器布局

传感器视线可以有效越过遮挡,特别是城市复杂交通场景,能有效减少盲区、提升安全性。

687m229m262m87m223m74m8MP1.2MP800万像素高清摄像头

感知的核心是视觉,而分辨率决定了视觉的高下。800万像素高清摄像头,感知距离更远,感知内容更精细。

超远距高精度激光雷达1550nm水平视角120°最高分辨率0.06°x0.06°最远探测距离500m

超远距高精度激光雷达对提高自动驾驶的安全性非常重要,加上800万像素高清摄像头,大幅提升了NAD的感知能力,让自动驾驶的安全性提升了两个等级。

33个高性能感知硬件每秒产生8GB图像数据

强大的感知系统,每秒能够产生8个G的数据。相当于一秒看完两部4K电影。

7

800万像素自动驾驶高清摄像头

4

300万像素高感光环视专用摄像头

1

1,550nm超远距高精度激光雷达

5

mmWave毫米波雷达

12

USS超声波传感器

2

GNSS+IMU高精度定位单元

1

V2X车路协同感知

1

ADMS增强主驾感知

NIOSUPERCOMPUTING蔚来超算平台超级图像处理流水线

它拥有超高带宽的图像接口,每秒可处理64亿像素的ISP,能够有效改善画质、增强细节,让每一个像素都服务于算法的精准和高效。

超高带宽骨干数据网络

将所有传感器和车辆系统的信号输入,实时无损分配到每一个算力核心。

搭载4颗NVIDIA DRIVE Orin芯片,算力高达1,016Tops,定义高端智能汽车新标准。

主控芯片

通过两颗主控芯片,实现NAD的全栈计算,包括多方案相互校验的感知、多源组合定位、多模态预测和决策。充足的算力,使得NAD在处理复杂交通场景时,算得更多,算得更准,算得更快。

实时冗余

独立的冗余备份芯片,任何⼀个主芯片失效,NAD都能确保安全。不仅如此,整个蔚来超算平台的电源、影像和主控系统,全都是热备份的冗余设计。

群体智能与个性训练专用SOC

自动驾驶群体智能与个性训练专用芯片,可以大大加快NAD的总体进化速度,同时又可以针对每个用户的用车环境,进行个性化本地训练,确保每个用户自动驾驶体验更好。

Adam蔚来超算平台,NAD的超级大脑,汽车智能的新开始。NIOAssistedandIntelligentDriving蔚来自动驾驶

从感知算法到地图定位,从控制策略到底层系统,蔚来全面自研,建立了NAD全栈自动驾驶技术。NAD将逐步实现高速、城区、泊车和加电场景的全覆盖,带来安全放松的点到点自动驾驶体验。

Aquila蔚来超感系统

33个高精度感知硬件|800万像素高清摄像头|超远距高精度激光雷达|360°视觉冗余|全向无盲区融合

Adam蔚来超算平台

4颗NVIDIAOrin芯片|1,016T算力|超级图像处理流水线|超高带宽骨干数据网络|热备份冗余设计

自动驾驶算法

多方案相互校验感知|多源组合高精定位|多模态预测规控|群体智能|个性化训练

自动驾驶整车平台

NVOS底层操作系统|核心控制器供电通讯冗余|转向系统控制冗余|驻车制动冗余|双电机动力冗余

*1本材料为蔚来自动驾驶系统的基础性介绍,随着蔚来对产品的持续改进,详细配置、功能及数据均可能有所变化,具体信息以实物车辆的产品说明为准。*2蔚来自动驾驶系统仅为辅助驾驶之目的,不能完全替代驾驶员的操控,不能完全应对交通、天气和路况可能出现的所有情形。驾驶员需时刻保持必要的注意义务,并根据周边环境及时予以干预或接管。在交通情况复杂、天气恶劣、特殊路况下需慎重选择使用自动驾驶功能。*3部分功能可能在交付车辆时无法立即使用,相关功能未来将通过远程方式逐步开启。

深度解析蔚来ET7自动驾驶技术

我个人是个汽车迷,每天都会看大量汽车相关的信息,最近蔚来发布了ET7这款车,看宣传是有机会实现L4自动驾驶,有不了解自动驾驶技术的同学可以看下以下信息:

 

除了传统的依靠视觉模型做自动驾驶的实现以外,本次蔚来ET7也搭载了Aquila超感系统。也就是说ET7是包含了:视觉自动驾驶技术+雷达波自动驾驶技术。接下来分别聊下ET7在这两方面技术的一些功能点。

视觉自动驾驶技术 

ET7搭载了4颗NVDIADriveOrin芯片以及800万像素的摄像头,这两个硬件设备是视觉自动驾驶技术实现的根本。先来说下芯片,这款芯片是专业的车载芯片。

ORin芯片可以支持基于Cuda和TensorRT做深度学习模型的服务,TensorRT是一个模型服务的框架,可以支持各种框架产生的模型。

 

ET7每秒钟可以产生8GB的视频,而视觉自动驾驶技术,其实就是一个物体识别模型实时inference的流程,需要保持每秒钟超过10个以上的图片识别请求效率。所以视觉自动驾驶的实现前提是强大的芯片计算力。Orin芯片是这个计算力的保证。

 

另外我个人的一个猜想,其实在汽车驾驶过程中Orin芯片可以被用来做实时的图片识别,当汽车不运行的时候,比如汽车充电的时候,这些计算力也可以用来做模型的更新,利用迁移学习技术对本车产生的一些新的数据做模型的fine-tune,不过如何保证这些fine-tune的模型准确率是个问题。短时间内,我猜测,汽车芯片还是主要负责inference,不会参与训练。

 

雷达波自动驾驶技术 

雷达波自动驾驶技术是对视觉自动驾驶技术的补充。NIOAquila蔚来超感系统将定义量产车自动驾驶感知系统的全新标准,该系统拥有33个高性能感知硬件。11个800万像素的高清摄像头,4个前向,3个后向,4个环视;1个超远距高精度激光雷达,5个毫米波雷达;12个超声波传感器,两个高精度定位单元,以及车路协同感知和增强主驾感知。

在一些雷雨天气,摄像头可能被雨点弄模糊,或者在一些强光环境下,摄像头无法正确捕捉画面,这个时候通过激光雷达波的方式可以辅助识别前方障碍物。下图是雷达波反馈的一个前方障碍物效果图,基本也能构建出前方的事物。

 

Aquila雷达波系统是由一家中国供应商Innovusion提供,该供应商也接受了来自蔚来的投资。目前Innovusion主要提供L3以上的自动驾驶辅助功能。

 

激光雷达本身的原理非常简单,像激光笔一样打到边上屏幕上,发过去再回来。但是自动驾驶难就难在要在自然的场景下,在自然光的条件下,有时候还有阳光,各种雨雾天气情况下打这个激光笔的光点,而且光电会打到各种不同特性的物体表面。如果打在会场后面,大家可以看到光点大很多了。如果在外面阳光下,用这个激光笔打的光点几乎是看不到的。在自然环境下保守估计有5%-10%的几率激光雷达系统会接收不到从物体返回的信号。

比如在50米以外,一米高的小孩要十个点以上(才能有效感知),需要激光雷达的传感器分辨率至少达到0.2度左右。另外高速路上的行驶,大家公认比较保守的停车、刹车距离大约是150米左右,这么远距离以外,汽车比人更不可控制,也许有一些车本身擦得很亮,颜色非常深,这时候一个车上需要有15-20个点左右。同样推算,激光雷达的分辨率也需要0.2度左右。一个驾驶场景考虑到纵向有坡度等不同变化条件下,大家可能希望有大约20-30度左右的视角。30除以0.2度,所以大家希望激光雷达达到的线数是150线左右,这是L4级自动驾驶的最低线数。

 

总结一下 

目前来看,蔚来在自动驾驶方面准备走雷达波结合视觉识别的方式,对比特斯拉只采用视觉识别的模式,蔚来的方案显然保证性更高。在视觉识别方面,未来技术发展路线一定是通过更多地训练样本提升模型准确率。在雷达波技术演进方面,未来很有可能采取更多线的雷达波方案,增加辐射面积。

 

蔚来这辆车我爱了,希望国产车越来越牛~

 

 

 

 

版权声明:本文内容由互联网用户自发贡献,该文观点仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌抄袭侵权/违法违规的内容,一经查实,本站将立刻删除。

上一篇

下一篇