无人驾驶失败案例汇总
慌不慌?无人驾驶的命案都在这儿!原创: 陈潇慕 贝克街探案官 5天前
作者:陈潇慕
11月21日,也就在昨天,美国国家运输安全委员会(NTSB)公布了去年发生的一起Uber致命车祸案件的调查结果。
这起广为人知并牵动了所有关注无人驾驶的目光的案件,在时隔一年后终于画上了句号。调查结果显示,主责在驾驶员,Uber的自动驾驶系统所担责任并不主要。
这正应了那句老话:人定胜天。
但是大众和行业人士等待的并不仅仅只是这样一个调查结果,更多的,是期待一个指引无人驾驶未来发展和引导的方向。
作为无人驾驶的最大助力,5G的商用越来越近。而摆在大众和行业人士眼前的问题是,如何让无人驾驶能够切实地保障行车安全,并且有效降低目前人为驾驶的车祸概率,让无人驾驶真实发挥它的最大效用。
一方面是无人驾驶的概念和公司的宣传日益陡增,另一方面是政府监管部门和公众对于无人驾驶的安全性和可靠性的广泛质疑。二者意识流的不断冲突,其实是在促进整个无人驾驶行业的向前推进。
那么,无人驾驶在今后的时间里,将会朝着何方前进?
1.
命案何起?
2018年3月9日晚,美国亚利桑那州一条普通的公路。
一起并不寻常的车祸就这么发生了:一名女性在过马路时被一辆SUV撞到并最终死亡。它不寻常的一点在于,这辆撞人的SUV事发时是处于无人驾驶状态,而该无人驾驶系统由Uber开发。
尽管车内当时有一名安全驾驶员,但是车祸还是这么发生了。事发后,亚利桑那州警方要求Uber停止其无人驾驶项目。受到该影响,Uber在坦佩、旧金山、匹兹堡以及多伦多都停止了他们的无人驾驶项目。
这起事故,被认为是世界上第一起自动驾驶汽车撞人死亡案件。
事故一出,对于无人驾驶可靠性的争论又一次摆上台前。无人驾驶究竟是否能够满足要求?为何事故频出?作为无人驾驶系统的开发商是否应该承担责任?
NTSB在一年半后终于给出了答案,虽然这个答案并不完全。
NTSB调查认为,事故主因由于车内司机(即安全驾驶人)在事故发生前的几分钟内都在聚精会神地观看手机上的节目。过分的关注手机导致她在行人出现时无法及时反应做出规避动作,最终导致惨案的发生。
目前的无人驾驶系统在运行时需要依靠车内有人充当安全驾驶人,起到监督作用。“监控驾驶环境和自动驾驶系统的运行”,这是Uber在无人驾驶系统的使用手册里明确写明的。
但是当人开启无人驾驶后,系统并没有响应措施检测安全驾驶人是否在履行职责以及相应的减速停车措施。
因此最终NTSB认为司机承担主要责任,但是Uber也有责要担,需要进一步改进系统。换句话来说,当前的无人驾驶系统存在着非常多的漏洞。
NTSB某成员表示:“在我看来,Uber把技术进步放在拯救生命之前。”Uber对于无人驾驶没有安全计划和指导文件,也缺乏安全部门,没有专人负责安全部分。
在事故发生前的几周,Uber将无人驾驶开启时的安全驾驶人数要求从2降为1,其系统在车祸发生时也没有检测出行人的状态。
事故总是惨痛的。
在付出了人命的代价后才发现,监管部门在目前无人驾驶系统的开发和应用中起到的作用过于被动。只有在出事之后,才能起到调查事故的作用。
这起事故将无人驾驶系统的开发公司缺点暴露无遗。开发公司没有履行在开发过程中的安全监管职责,仅仅是在不断地意图削减系统成本以及降低使用局限。此举带来的后果,就是安全性能的不断下滑。
Uber等众多公司没有在开发过程中加大投入,以多次上路实际测试来检验开发的无人驾驶系统的可靠性。在没有相应法律的约束下,科技公司的行为体现地更多的是一种“良心”意识。
无人驾驶“撞死人”的调查结果,不是开始,也不是结束。
2.
频发的车祸
根据NTSB的调查,Uber的无人驾驶系统汽车在该事故发生前的18个月里,总计发生了37起车祸。
鉴于如今无人驾驶是否安全的讨论正处于风口浪尖,37起车祸这个数字无疑是反对派抨击无人驾驶的最好理由。
虽然在今年3月,亚利桑那州的法官判定Uber无需承担刑事责任,但是在事故发生的过程中,Uber的无人驾驶系统明显出现了判定太晚(撞车前1.2秒才判定出是人体)、安全驾驶人没有履行职责的情况下没有后备安全措施等失误。
Uber其实作为无人驾驶系统领域的后来者,车祸的数量已经是较少。而作为该领域的先行者,特斯拉无疑最具焦点。
早在2016年,美国的一辆特斯拉ModelS汽车在途经十字路口时,自动驾驶系统未能准确地识别出在路口左转的白色卡车,导致特斯拉直接撞击而上从卡车底穿过,司机当场死亡。
事后特斯拉进行了详尽的调查,最终给出结论:主要是当时的情形特殊而导致的车祸发生。在强烈的日照条件下,驾驶员和自动驾驶系统都未能准确地识别出卡车的白色车身。日光的强烈反光使得Autopilot没有启动刹车系统,最终导致ModelS直接从卡车底穿过。
这起车祸致死案件可能是第一例无人驾驶致死的车祸事件。
但这并不是特斯拉的唯一一次车祸。
就在Uber系统出事后的两个月,特斯拉的ModelX在高速公路上行驶时,由于未能判定出公路上的隔离墩,导致ModelX直接撞上,司机随后命陨公路。
事后的调查结果显示该起车祸的主要原因在于车主在发生碰撞前,足足有6秒钟时间没有握住方向盘,在系统警示后车主选择了无视。在Autopilot系统说明中,也明确写明了目前在高速行驶中可能无法识别出静止物体。
没过几天,一辆特斯拉在美国加州地区撞上了一辆巡逻警车,当时特斯拉正处于Autopilot系统控制中。所幸只是轻伤,没有人员伤亡。
但是这些事故都体现出哪怕是业内顶尖的无人驾驶系统开发者特斯拉,也在系统的智能性上存在重大问题。
无独有偶,各家自动驾驶公司事故层出不穷。
2018年1月,福特投资的ArgoAI公司在美国宾夕法尼亚州测试自动驾驶车时,与一辆货车发生碰撞。
5月份时,谷歌的Waymo自动驾驶汽车在亚利桑那州钱德勒市测试过程中,与一辆小轿车发生撞车事故。车祸造成无人驾驶车司机轻伤,车辆出现一定损毁。但该起事故完全由对方车辆担责。
谷歌在测试Waymo中错误百出。一辆测试车在时速只有2英里的情况下撞上了一辆巴士。这是一起无人驾驶车百分百担责的事故。
根据报告显示,在去年,谷歌的Waymo每9600公里就会发生一起事故,名列各家无人驾驶系统之首。
8月,苹果的自动驾驶系统测试时也跌下马来。其被一辆轿车追尾造成损坏。
回到国内,在蔚来正式上路后,苏州、广州等地区车祸频发。对于蔚来的主动安全和自动防撞系统是否真正有效,不论是使用者还是看客都十分怀疑。
细观各家无人驾驶系统发生的车祸事件,一部分是由于其他客观原因,但是也凸显出无人驾驶系统如今的主动安全性堪忧。
3.
扑朔迷离
无人驾驶系统在近两年开始频繁上路后,开始密集地进入到人们的视野中。
无人驾驶其实相对于人为驾驶,具有诸多优点。高度智能化的自动驾驶系统可以系统性的规避掉绝大部分车祸的发生,保证在绝对安全的范围内驾驶。并且这也符合未来智能化社会的发展规律。
但是摆在各家开发公司面前的困局是,在大环境如此针对的情形下,如何才能继续发展?
在Uber发生车祸命案后,彼时美国各地的无人驾驶车都被愤怒的民众恶意破坏。公众对于无人驾驶目前还处于怀疑状态,而各类车祸事件的发生更是加剧了这种怀疑。
无人驾驶开发公司如今在面对开发系统时,面对的窘境不止于此。无人驾驶系统没有大规模铺开的原因,既有目前系统成熟度还有待检测,另一方面是加装成本高昂,大部分公众无法负担。
以特斯拉的Autopilot系统为例,如Model3车型在国内加装Autopilot系统的费用为4.8万元左右。这一数字对于很多购买者是无法负担的。
Uber在此次事件中被广泛批评的点也正在于对于设备成本的削减。将安全驾驶人的数量由2减为1,削减车身配置摄像头、传感器数量,降低雷达和红外线设备的等级。这一系列的措施,目的即在于Uber千方百计想削减当前无人驾驶系统的安装成本,否则价格太高没有车主装载,仅仅依靠投资人不断投资,开发之路会难以为继。
无人驾驶系统已经逐渐进入密集测试和上路阶段,但是频发的事故让监管部门对其日益关注。大洋彼岸的美国已经针对无人驾驶在拟定第四版相关规则,而我们还需要很长的路要走。也只有持之以恒的投入和监管,才能让公众对于无人驾驶日后的应用放下戒备的心态。
那些被自动驾驶“杀死”的人
原创: 陈念航 汽车之心 昨天
作者/陈念航
编辑/王德芙
出品 / 汽车之心(微信ID:Auto-Bit)
法国哲学家阿尔伯特·加缪曾经说过,没有哪种死法比车祸更荒谬。然而1960年,加缪死于车祸。
半个多世纪过去了,这样的「随机性残忍」时有发生。
驾驶机动车已成为大多数成年人做的最危险的事情之一,2018年,全球因车祸事故造成的死亡人数超过140万。
这几年自动驾驶在全球范围内燎原式发展,这一技术据称能消除94%由人为失误造成的车祸。
某种程度上,自动驾驶汽车有机会成为救命良方。但我们还没有走到那一步,自动驾驶的发展还处在中古时期,充满了太多的不确定性和未知。
我们缅怀这些在自动驾驶历史进程中,因为技术不够完善而遭遇不幸的人们,发展自动驾驶,每一个参与其中的人都应心存敬畏。
事故一
时间:2016年1月20日
地点:京港澳高速河北邯郸段
事故车辆:2014款白色特斯拉ModelS
罹难者:高雅宁(23岁)
2016年1月20日,京港澳高速河北邯郸段发生了一起追尾事故。
一辆特斯拉ModelS直接撞上正在作业的道路清扫车,ModelS当场损毁,司机高雅宁不幸身亡。
根据车辆行车记录仪拍下的画面显示:
2016年1月20日14时整,高雅宁驾驶车辆从河北邯郸入口进入高速,沿着左侧第一车道行驶。
当天天气晴好,车辆速度也不是很快,14时08分,高雅宁还哼了几句歌。
14时09分,行车记录仪的画面中可以看到前方的道路清扫车正在作业的指示灯,随后开在前面的黑色轿车向右并线到第二车道。
但高雅宁驾驶的特斯拉在距离道路清扫车越来越近时,没有进行减速或者变道,而是径直撞上了前方的道路清扫车。事故发生后,道路清扫车司机报了警。
经过警方的调查,他们发现在发生事故前,高雅宁驾驶的特斯拉轿车没有进行任何的紧急制动和躲避措施,直接发生了追尾事故。
事故发生时,高雅宁刚刚23岁,他的父亲高巨斌始终无法理解在行车记录仪里明明早就看到了道路清扫车,为什么儿子高雅宁既没有刹车也没有躲避而是直接撞了上去?
高巨斌介绍,高雅宁早在2011年就考取了驾照。
2013年,他以大学生的身份参军入伍,在部队中担任大型军用车辆的驾驶员,一直表现优秀。在2015年9月,高雅宁复员回家。
事发后,高雅宁部队的战友和上级都表示,高雅宁的驾驶技术完全没问题,安全驾驶的公里数为几万公里。
既然是这样,为何高雅宁没有采取任何动作?父亲高巨斌表示:「如果不找找这个问题,孩子死不瞑目。」
于是高巨斌将这起事故的行车记录视频发给了一些专业人士进行分析,他们得出的一致结论是:这辆特斯拉当时应该处在定速的状态。
后续,特斯拉方面也承认车辆在事故发生前其Autopilot系统是开启的状态,这导致了高雅宁在高速上行驶时没有把注意力放在前方道路上,而且Autopilot系统也没有识别出前方的道路清扫车,最后导致了这起悲剧。
高雅宁是在2014年购买的特斯拉ModelS,当时车上并没有自动驾驶功能,但是相应的硬件已经配齐,包括1个前置的摄像头和MobileyeEyeQ3芯片负责视觉感知;车前方装配了一个非隐藏式毫米波雷达;车辆周身配备了360度超声波传感器。
2015年10月,特斯拉开始向全球车主陆续推送V7.0版本的软件更新,Autopilot的主要功能得以解锁,加入了自动车道保持、自动变道和自动泊车三大辅助驾驶功能。Autopilot也成为特斯拉着力宣传的卖点。
事故发生的2016年1月,Autopilot系统在大部分情况下能够较好识别路况(包括车道线和其他车辆的位置)并进行处置。
但是针对锥桶、行人这样的小型障碍物,系统还识别不了。这起事故中,Autopilot系统没有识别到前方的道路清扫车,所以在碰撞前没有采取任何措施。
2016年7月,高雅宁的家人将特斯拉的经销商起诉至北京市朝阳区人民法院,要求赔偿损失10000元,理由是特斯拉在其自动驾驶系统尚不完善过关的情况下仍然通过诱导宣传让用户信任这套系统,应该承担相应的法律责任。
针对赔偿金额,高雅宁家人的代理律师表示,赔偿的多少并不是本案所追求的目的,而是通过这起案件带来一些社会价值:
让公众知道目前自动驾驶的缺陷,希望特斯拉公司能够在宣传、产品营销过程中有一个慎重的态度,不要把自动驾驶作为吸引年轻人的卖点。
在高雅宁事故之后,特斯拉的Autopilot系统似乎进入到了事故的怪圈中,接二连三出现开启Autopilot功能后致死致伤、车辆财产损失的事故。
这起事故在发生之后很长一段时间里,没有被太多报道,致使公众对这起事故的认知少之又少。
后来我们知道,2016年5月7日发生在美国佛罗里达州的特斯拉Autopilot致死事故引起了广泛关注,被称为「全球范围内第一起自动驾驶致死事故」。
但事实上,高雅宁案要比之更早,但在当时只被认为是一起普通追尾事故,没有引起自动驾驶业内足够的重视和警惕,这是非常令人遗憾的。
事故二
时间:2016年5月7日
地点:美国佛罗里达州Wiliston27号高速
事故车辆:2015款黑色特斯拉ModelS
罹难者:JoshuaBrown(40岁)
时间来到2016年5月7日,距离高雅宁事故发生不到4个月后,在美国佛罗里达州一段没有完全封闭的高速公路上,40岁的俄亥俄州居民JoshuaBrown驾驶的一辆2015款黑色特斯拉ModelS,撞上了一辆正在左拐的拖挂式卡车。
JoshuaBrown是一位狂热的特斯拉粉、科技爱好者,为自己的爱车取名「Tessy」。他经常在Youtube上发一些与特斯拉有关的视频,是个小有影响力的视频博主。
他曾经在推特上发布了一段特斯拉Autopilot系统帮助他避免一场车祸的视频,还得到了ElonMusk的转推。
据Brown的邻居回忆,Brown曾跟她聊天时谈到:「如果有幸能得到ElonMusk的关注,我死也值了。」
没想到一语成谶。
事故那天天气晴好,头顶是蓝天白云,心情不错的JoshuaBrown驾驶着他心爱的ModelS飞驰在佛罗里达州27号高速上。
他开启了车上的Autopilot系统,将自适应巡航的速度调至每小时74英里。因为对Autopilot系统足够信任,他没有将全部注意力放在车辆前方的道路上。
差不多时间,货运司机FrankBaressi驾驶着他的白色拖挂式卡车也行驶在27号高速上,但他在JoshuaBrown的对向车道上。
行至一个路口时,FrankBaressi进行左转准备下高速。就在这时,JoshuaBrown和他的特斯拉ModelS都没有注意到前方正在转弯的的白色卡车。
在没有任何反应的情况下,ModelS朝着卡车车厢撞了上去,车辆挡风玻璃首先撞上车厢底部,车顶被掀掉后从卡车车厢底部穿出,因为速度过快,ModelS还连撞了几个道路围栏、树木还有电话亭后才最终停下。
JoshuaBrown在这场车祸中丧生。
一个鲜为人知的细节是,卡车司机FrankBaressi后来向美联社回忆,事故发生后当他靠近事故车时,听见车里正在播放电影《哈利·波特》,当时警察也在事故车上找到了一台便携式的DVD播放机。
若他所言为真,这就解释了为什么JoshuaBrown在碰撞发生前没有进行任何接管车辆和踩刹车的动作。
这起致死事故引发了全球范围的关注,面对铺天盖地的报道和讨论,特斯拉再也不能像处理高雅宁案那样镇定自若了。
针对这起事故,特斯拉在其官方博客发表了声明,他们认为这起事故的特殊之处在于:拖挂车正在横穿公路,且车身较高,这一情况导致了ModelS的前挡风玻璃与挂车底部首先发生撞击。
假使当时车辆发生的是正面撞击或追尾事故,即便在高速行驶条件下,ModelS的防撞系统都极有可能避免人员伤亡的发生。
特斯拉同时强调,每一次自动驾驶启动时,车辆都会提醒驾驶员「请始终握住方向盘,准备随时接管」。
言下之意就是JoshuaBrown并未按照系统的提示手握方向盘,所以特斯拉系统不负主要责任。
而针对车辆系统未检测到白色的拖挂卡车车厢、AEB系统也没有及时起作用的情况,特斯拉的供应商Mobileye也发布了官方声明:
「当前的防碰撞技术或者自动紧急制动系统AEB的设计,是为了防止与前车车尾的碰撞。在这起事故中,涉及到对横向行驶车辆的处理,不属于这一代AEB的设计目标。」
就此将事故责任与自己撇清。
汽车之心基于多位业内专业人士的分析认为:
在JoshuaBrown的事故中,毫米波雷达已经检测到前方卡车车厢的存在,但它无法判断车厢的高度,结合视觉感知把卡车白色的「车厢」当成了天上的「白云」,最终系统倾向认为车厢是一块悬在道路上方的路牌。
2017年1月20日,美国NHTSA给出的事故最终结论是:
没有足够有力的证据表明特斯拉的自动驾驶系统直接导致了JoshuaBrown的不幸,将不会对任何一辆特斯拉进行召回。至此,为期8个月的事故调查告一段落。
这起事故受到了全球关注和讨论,也带来了一些深远的影响。
特斯拉和Mobileye在这起事故后的2个月宣布合作关系破裂,Mobileye将不再向特斯拉供应EyeQ芯片以及相应的视觉算法。
特斯拉对此的解释是Mobileye难以跟上其产品的发展步伐,双方分手不可避免;还有传闻说是特斯拉想自己开发视觉算法而Mobileye不同意才导致双方关系破裂。
后来的故事大家都知道,特斯拉转向与英伟达进行合作,并且在视觉算法上转向自研,内部成立TeslaVision团队。
2016年10月,特斯拉还发布了全新的Autopilot2.0版本硬件:
英伟达DrivePX2芯片;12个超声波雷达;1个毫米波雷达;8个全车摄像头(三目前视、正侧方、侧后方、后置摄像头)。
另一方面,2016年7月特斯拉在中国的经销商被高雅宁家属告上法庭,加上佛罗里达事故被全球关注——双重压力下,2016年8月份,特斯拉中文官网将「自动驾驶」改为「自动辅助驾驶」。
特斯拉中国公司员工还需接受额外培训,在演示相关功能时,必须将双手放在方向盘上。
之后很长一段时间,特斯拉Autopilot没有出过大问题。
但在当地时间2018年3月1日,一起与JoshuaBrown事故如出一辙的悲剧又发生了。
事故三
时间:2018年3月1日
地点:美国佛罗里达州棕榈滩
事故车辆:红色特斯拉Model3
罹难者:JeremyBanner
3月1日,JeremyBanner从睡梦中醒来,开上他的红色特斯拉Model3,沿着佛罗里达的大沼泽地的边缘向南行驶,车窗外的沼泽和农田快速掠过。
他轻拨了两下方向盘下的操纵杆,车内响起提示音,他启动了车上的Autopilot系统。
行至一处路口的时,Banner没能发现正前方有一辆拖挂卡车正穿过四车道的高速公路,Model3的Autopilot系统也没有注意到,车辆以109公里的时速撞了上去,车顶直接被掀翻,这位有三个孩子的50岁父亲当场死亡。
这次事故的场景与2016年5月发生的JoshuaBrown事故如出一辙,两年的时间,特斯拉Autopilot依然对这样的驾驶场景束手无策。
这一特殊场景,值得所有自动驾驶研发公司进行针对性研究。
Banner的家人根据佛罗里达州的《非正常死亡法案》起诉了特斯拉,要求产品责任索赔。
前文我们提到,特斯拉针对2016年5月份发生的事故曾经声明:车辆与拖挂卡车车厢底部相撞后直接穿过去的情况是「极其少见」的。但同样的事故,在特斯拉身上已经发生了两起。
事实是,在美国,这样场景的事故每年都会发生几百起,而且基本都是撞向车厢的侧面然后从底部钻了出来,但是业界一直没有采取有效措施来避免类似的事故。
后来,有一些创业者提出一些改进措施,就是在拖挂卡车的车厢两侧安装一个类似于护翼的装置,能够避免车辆在撞向卡车车厢侧面时窜入车底而引发更大的伤害。
人们给这样的装置起了一个很美好的名字「AngelWings(天使之翼)」。
2017年,IIHS针对AngelWings装置进行了测试,在车辆时速35-40英里时表现良好。
事故四
时间:2018年3月18日
地点:美国亚利桑那州坦佩市
事故车辆:Uber自动驾驶测试车
罹难者:ElaineHerzberg(49岁)
同样在3月,Uber自动驾驶测试车致死事故引发了全球行业震荡。
在一个看似寻常的周日晚上,一辆基于2017款沃尔沃XC90打造的Uber自动驾驶汽车正在亚利桑那州坦佩的一条既定路线进行道路测试,车辆驾驶位上是一名44岁的白人女性,她是这辆车的安全员。
晚上9时39分,这辆车开启了自动驾驶模式,系统接管了所有操作。19分钟后,车辆撞上了一位正推着自行车横穿马路的白人女性ElaineHerzberg并致其死亡。这是全球第一起自动驾驶测试车撞死行人事故。
事故发生的道路有4条车道,Uber的自动驾驶汽车行驶在最右侧的车道上,道路两侧是有路灯的。
但是ElaineHerzberg选择横穿马路的地方并不是斑马线区域,而且正好是路灯照不太到的位置。她推着车从左至右穿行,在快要穿过马路时,Uber的自动驾驶车撞倒了她。
车上的自动驾驶系统以及安全员都没有及时发挥作用,导致被撞者身亡。车内的摄像头录下的视频显示,碰撞前几秒,安全员还低头往右下方看了两眼。
Uber为这辆车配备了前向、后向、内视摄像头共10枚摄像头,还有毫米波雷达以及激光雷达,车内还集成了计算单元和数据存储单元。
而且,沃尔沃在出厂前也为这辆车配备了一系列驾驶辅助功能,其中包括AEB系统。但是Uber的设计逻辑是,一旦其自动驾驶系统接管了车辆,这辆XC90本身具备的一些驾驶辅助功能就无法使用。
美国NTSB针对这起事故发布了两份调查报告,汽车之心对其关键信息进行提取发现:
在碰撞前6秒,车上的毫米波雷达和激光雷达检测到了前方行人的存在,当时车辆的时速是43英里。随着行人和车辆越来越接近,自动驾驶系统不断改变其判断「结果」:
碰撞发生前5.2秒,系统将Herzberg划归为「未知物体」;
碰撞发生前4.2秒,系统又将Herzberg重新归类为「车辆」;
碰撞发生前3.8-2.7秒的时间段中,软件的分类功能在「车辆」与「未知物体」的分类结果中跳动了好多次;
碰撞发生前2.6秒,系统又变了,将Herzberg和她的自行车识别为「自行车」;
碰撞发生前1.5秒,Herzberg被识别为「未知物体」;
碰撞发生前1.2秒,Herzberg又被识别成了「自行车」;
碰撞前1.2秒时,Herzberg进入了测试车的行车路线,自动系统才反应过来需要进行紧急制动。
但在这关键的1.2秒时间里,因为Uber方面为系统设置了一个紧急情况动作抑制程序,需要花费1秒钟时间来执行,所以车辆最后虽然进行了制动但已于事无补,Herzberg被撞时车辆速度是每小时39英里。
Uber后来解释,在系统中加入动作抑制程序是因为担心在车辆进行测试时会系统频繁误报,给车辆带来一些不必要的紧急制动。
致死事故发生后,Uber叫停了在美国坦佩、匹兹堡、旧金山和多伦多等城市的自动驾驶汽车测试。
7月底,Uber宣布终止开发自动驾驶卡车,从而把精力更加聚焦到自动驾驶乘用车上。
8月份,Uber重新开启自动驾驶乘用车路测,但在一段时间内车辆必须由人工驾驶,主要是为算法训练和地图收集信息数据。
而且,为了让这项技术重回公众视野,Uber在前美国国家交通安全局主席及交通专家的指导下,展开了大规模的「安全检查」。
这起事故对于Uber自动驾驶来说,无疑是沉重的打击。但是人命关天,Uber的教训也为全世界范围来所进行的自动驾驶研发和测试敲响了警钟。
诸多企业甚至因此调整了开发策略,叫停了自动驾驶路测转而更专心于打磨技术,丰田便是其中之一。
事故五
时间:2018年3月23日
地点:美国加州山景城101高速
事故车辆:2017款蓝色特斯拉ModelXP100D
罹难者:黄伟伦(38岁)
当人们还未从Uber自动驾驶致死案中缓过神来,特斯拉Autopilot又出事了。
3月23日周五上午9时27分,38岁的苹果工程师黄伟伦(WalterHuang)驾驶着他的2017款特斯拉ModelXP100D行驶在加州山景城的101号高速上,正往南开。
加州101号高速山景城段有6条向南的车道,其中最左侧的多乘员车道(HOV)正好连着85号州际公路。
两条公路的分流处有建好的混凝土隔离带进行分隔,隔离带上装有碰撞减速装置(CrashAttenuator),目的就是为了减小车辆撞上隔离带的冲击力,避免更大的伤害。
但就在3月12日,该隔离带发生了一次车祸,当时是一辆丰田普锐斯以时速75英里的速度撞上隔离带。
所幸,车上的安全带和安全气囊以及隔离带的碰撞减速装置同时发挥作用,普锐斯车主幸免于难。该事故发生后,隔离带上的碰撞减速装置因为各种原因迟迟没有修复好。
当黄伟伦驾驶着特斯拉在101号高速左起第二车道上行驶时,根据车上的行车数据显示,黄伟伦当时开启了Autopilot系统,车辆正在进行自适应巡航,速度设定为每小时75英里。
美国NTSB在2018年6月发布的一份初步调查报告中称:
黄伟伦的特斯拉在事故发生前8秒,以每小时65英里的速度跟在另一辆车后面;1秒钟后,特斯拉开始向左行驶,同时仍然跟在那辆车后面。
但在事故发生前的4秒钟,特斯拉已经不再跟随前方车辆,在撞击前3秒,车辆加速到大约71英里每小时,最终撞上了碰撞减速装置破损的隔离带。根据NTSB对该车记录的性能数据的总结,没有检测到碰撞前的刹车或规避转向动作。
因撞击力太大,特斯拉车身发生了逆时针旋转,致使前车身结构和与车辆后部分离。
车辆在撞击后因电池承压过大而起火,黄伟伦被困在车内,一旁的群众将他从起火的车中转移出来并联系救护车将其送到最近的医院。
不幸的是,黄伟伦因伤势过重而不治身亡。
事故还导致了后续两辆车的追尾,马自达车主轻微受伤、奥迪车主无大碍。
事故后,特斯拉发布声明称,发生碰撞前6秒没有检测到驾驶员的手有触碰过方向盘,驾驶员约有5秒时间、距离150米的无遮挡视野,可以看到混凝土隔离带和坏掉的碰撞减速装置。
特斯拉的言下之意就是,事故与己无关,是驾驶员黄伟伦没有专心看路,未能及时接管车辆踩下刹车才酿成了致命事故。
特斯拉方面还认为,破损的碰撞减速装置加重了撞击的严重性。
黄伟伦家属对特斯拉发起了诉讼,原告律师在声明中表示,事发时特斯拉的系统误读了车道线,未能发现混凝土隔离带,未能及时刹车。
原告律师声称,特斯拉利用客户真实驾驶来对其系统进行测试,导致妻子失去了丈夫,两个孩子失去了父亲。遇难者家人希望通过诉讼,防止这种悲剧再次发生在其他特斯拉车主的身上。
黄伟伦于2017年11月入职苹果,而后购买了特斯拉ModelX庆祝。按照特斯拉Autopilot硬件的装车时间,这款车上至少是Autopilot2.0版本硬件,甚至有可能是Autopilot2.5版本硬件,其软件能力也已进化至V8版本。
按理说,从硬件和软件的配置来看,车辆不应该出现偏离车道的情形,而且车上配备的AEB系统,也应该在碰撞前进行紧急制动,但最终的结果是这些主动安全系统没有发挥作用。
为了验证这起车祸是否为偶然,另一名特斯拉车主以身试险,进行了一次还原测试。这位特斯拉车主在芝加哥一条高速公路上找到了和事故路段几乎完全相同的路况。
他在开启自动驾驶模式后,车速保持在每小时59英里,而当接近一处岔口时汽车仪表盘开始预警,提示司机将双手放到方向盘上,车辆随后径直驶向了分岔路中央的隔离带。
好在司机注意力集中,及时人为完成刹车制动,汽车勉强停在隔离带前。
从这次还原测试来看,特斯拉Autopilot系统在面对这样的驾驶场景时,确实会出现偏离车道的问题,这无疑是系统致命的缺陷。
这也暴露出特斯拉在算法层面针对这样的场景的测试并不够完善。
对于这样不够完善的系统,黄伟伦和之前多位特斯拉车主一样,太过于信任它,最终酿成了悲剧。
无人驾驶汽车的相关技术,无人驾驶相关技术知识
无人驾驶涉及哪些技术无人驾驶汽车依靠人工智能、视觉计算、雷达、监控装置和全球定位系统协同合作,通过电脑实现无人驾驶,可以在没有任何人类主动的操作下,自动安全地操作机动车辆。
无人驾驶依赖几种先进技术,这些互为补充的技术感知周围环境、进行自我导航。究竟这些技术如何协同工作?
除了Waymo等知名的领头羊之外,又有哪些公司在推动这个行业发展感知能力,无人驾驶汽车必须要能够识别交通信号和标志,以及其他汽车、自行车和行人。它们还必须能感知前方物体的距离和速度,以便作出对应反应。
摄像头和计算机视觉,摄像头普遍用于无人驾驶车辆和配备先进驾驶辅助系统(ADAS)的车辆,是无人驾驶环境下一种重要的感知设备。
摄像头可以识别颜色和字体,帮助检测道路标志、交通信号灯和街道标记——这是其相对于雷达和激光雷达的一个优点。不过,在检测深度和距离上,摄像头远远不及激光雷达。
无人驾驶感知系统基于计算机视觉技术来检测物体和信号,以此处理从摄像头提取的数据。
计算机视觉软件需要能够识别车道边界的具体细节(比如,线条颜色和图案等),还需要能评估适当的交通规则,在复杂交通场景下实现安全的、与人类驾驶行为类似的自主驾驶。
无人驾驶需要实现什么样的技术?阶段一:辅助驾驶阶段。车道保持、自适应巡航等辅助驾驶功能,均属于这个阶段的技术,不过驾驶员仍旧是操作主体。阶段二:半自动驾驶。
在这个阶段中,电脑操纵下的自动驾驶已经可以完成前往目的地的过程,其可作为备用系统完成行驶,但受限于法律法规等因素,其仍旧不能作为整个驾驶行为的主体存在。阶段三:全自动驾驶。
技术、成本、法衡去规等因素都不再成为影响普及的因素,电脑控制的系统已经作为驾驶主体而存在,驾驶员也可以随时接管操作系统。由于技术和法规等的限制,目前的无人驾骆气车大多处于第=阶段。
当前主流的无人驾驶汽车技术有激光雷达式和摄像头+;%距雷达式两种。
自动驾驶汽车涉及哪些技术1、传感器技术:自动驾驶汽车上,前后左右装有认识周围环境、道路、交通状况的各种传感器。
光学摄像头包括单摄像头、多摄像头,多普勒雷达包括短距离雷达、远距离雷达,还有激光雷达就是车顶上那个旋转的机器,GPS定位装置,等等,构成汽车认识环境的眼睛。
2、芯片技术:也就是能够处理多个传感器采集的数据,并能整合的类似小计算机的超级芯片,使汽车的“总计算机”体积、成本大为减小,并能应用于汽车成为可能。
否则汽车里将没有人坐的地方、老百姓也买不起这些庞大计算机群的汽车。3、操作系统:计算机控制系统将处理结果与操作硬件结合起来,实现加速减速、刹车停车、变向避让,以及人机对话等等。
无人驾驶汽车具备了替代人工操纵的能力。
4、网络技术:无人驾驶汽车要能上路,必须具备与互联网、局域网联络和识别功能,包括车与车的联络对话、车与卫星通讯、车与天气预报的联络、车与交通指挥网的联络,才能正确识别和选择道路、正确服从交通警察的指挥、正确决定通过交叉路口、正确避让危险和安全行车。
自动驾驶级别L0:车辆完全由驾驶员掌控,驾驶员拥有绝对控制权,且车上不存在任何的自动驾驶技术,L1:驾驶员依然需要去驾驶车辆,只不过出现了像ACC自适应巡航等安全系统,对驾驶员的驾驶起到一个辅助的作用,手不得离开方向盘,眼不得离开周围路况。
L2:来到L2这个级别,自动驾驶技术就可短暂接管一些驾驶任务,眼和手可短暂获得休息,但是仍需做好随时接管驾驶任务的准备,时刻准备着,因为还不足以应对变化的交通路况。
L3:来到L3这个级别,在某种意义上就可以算作自动驾驶,也可以把这个级别称为真正自动驾驶的开端。驾驶员可以将手离开方向盘,脚离开踏板。
L4:第4等级可以说是真正意义上的自动驾驶,不需要驾驶员随时接管,也不需要驾驶员的干预,你只需要坐在驾驶席上做自己想做的事,剩下的一切交给技术就好了。
汽车无人驾驶技术是啥?无人驾驶汽车是智能汽车的一种,也称为轮式移动机器人,主要依靠车内的以计算机系统为主的智能驾驶仪来实现无人驾驶的目的。
它是利用车载传感器来感知车辆周围环境,并根据感知所获得的道路、车辆位置和障碍物信息,控制车辆的转向和速度。
无人驾驶核心技术不包括以下哪个包括了:车联网、激光雷达、精确定位、人机交互、规划决策。
车联网,由人工智能和“电动化、智能化、网联化、共享化”为代表的新四化变革驱动,正在引领车联网由第一阶段向第二阶段演进,车联网从汽车内部互联、车与人的交互,慢慢延伸到车与车、车与电信设施、车与路边单元之间的信息交互。
激光雷达,作为自动驾驶汽车的“眼睛”,激光雷达是重要的传感器之一,对于保证自动驾驶汽车行车安全具有重要意义。
激光雷达应用主要分为两个部分:一是落地到自动驾驶测试的无人车上,二是落地到汽车厂商推出的具有辅助驾驶功能的量产车上。精确定位,自动驾驶汽车需要非常精确的定位。
除了基于雷达,激光雷达,GNSS和摄像头的普通传感器之外,对于在城市环境中进行自动导航所需的车道级定位来说,轨迹估计也是必不可少的。当前,用于自动驾驶的高精度定位技术主要有以下三种。
人机交互,人机交互技术,尤其是触摸屏、语音控制、手势识别技术,在全球未来汽车市场上有较大可能得到广泛采用。
自动驾驶汽车人机界面应集成功能设定、车辆控制、信息娱乐、导航系统、车载电话等多项功能,方便驾驶员快捷地从中设置、查询、切换车辆系统的各种信息,从面使车辆达到理想的运行和操纵状态。
规划决策,决策是无人驾驶体现智能性的核心的技术,相当于自动驾驶汽车的大脑,涉及汽车的安全行驶、车与路的综合管理等多个方面。
通过综合分析环境感知系统提供的信息,及从高精度地图路由寻址的结果,规划决策者可以对当前车辆进行速度、朝向等规划,并产生相应的停车、跟车、换道等决策。
无人驾驶技术目前发展到什么阶段了?这一技术未来的趋势如何?一般而言自动驾驶可以分为6个等级,从完全人类驾驶到完全自动驾驶这一过程的实现需要高度智能的技术支持,同时也需要法律法规的不断完善。
从目前的情况来看,在肉眼可见的未来,自动驾驶很可能只会处于辅助状态而无法完全达到不需要驾驶员的完全自动驾驶状态。
技术的飞速发展一直以来自动驾驶技术都是影视作品、科幻作品中的基础操作,无论是国内还是国外,只要涉及到对未来生活的畅想,势必会牵扯到未来汽车的无人驾驶。
这些年来,随着时代的不断发展,处于初级阶段的驾驶技术已经得以实现,比如很多汽车都能实现驾驶员在特定情况下获得技术辅助的功能,无论是紧急情况下的自动制动或是偏离车道时的智能修正等,其实都属于无人驾驶中最低级的技术。
不过,目前科学技术的发展还是要求车辆在行驶时需要驾驶员的监管,在特殊情况下可能提供辅助功能,但驾驶员还是需要随时准备接管车辆。
近些年来,有部分汽车声称其技术能够达到有条件的自动驾驶,不过这终归还是属于畅想规划阶段,具体成熟的技术也确实尚未实现落地。
质疑声的不停如果哪一天在大街上真的能看到无需驾驶员的汽车行驶,也就意味着当下我们的社会能够实现完全自动驾驶技术,那个时候的科技水平也就达到了高度智能的状态。
车辆可能会在任何情况下都能承担全部驾驶任务,而这个时候无人驾驶技术就实现了人的全面解放。其实在上个世纪也很难有人想象无人驾驶技术的如此发展。
坦白说单纯从技术层面上而言,无人驾驶在未来势必会有很大的前景,毕竟科技的发展确实蒸蒸日上。但从伦理道德以及法律法规层面上而言,这一技术的发斩势必会伴随着反对之声。
即便能够实现人的全面解放,从本质上而言也无法打消人们对于技术问题所存在的顾虑。在涉及生命安全的问题上人类还是比较理性的。
人工智能在无人驾驶的应用人工智能在无人驾驶中的具体应用人工智能技术是无人驾驶发展的基础,并且在系统上有着大量的应用,可以说是密不可分。这其中主要分为三大部分:环境感知模块、决策规划模块以及控制执行模块。
(1)环境感知模块作为无人驾驶中最重要的一环,它的发展往往决定了无人驾驶的应用程度。
无人驾驶最重要的就是实时感知周围环境信息,以便及时获取数据信息,这些都是由传感器完成的,比如摄像头、激光雷达、毫米波雷达、超声波传感器[4],无论是在熟悉的环境还是新环境,汽车可根据这些传感器数据做聚类处理,并利用各种算法对周围进行车道线或标志物检测,并通过系统内的分析模块来分析。
唯一的不足就是已有的自身感知技术无法达到较高精度,只能通过GPS获取车身状态信息,位置来进行导航。
(2)决策规划模块根据传感器传回的实时路网信息、交通环境信息和自身驾驶状态等信息,无人驾驶系统通过分析来产生决策,比如遵守交通规则(包括突发异常状况)的安全快速的自动驾驶决策[5]。
这与最近刚出现的5G技术有关,由于无人驾驶技术在道路上会有巨量的实时数据进行传输和获取,原本的网络技术已经满足不了这种需求,5G就合理的应用起来,既更加保证了行驶的安全,也加速了该技术的发展。
(3)控制执行模块根据规划的行驶轨迹,以及当前行驶的位置、姿态和速度,产生对油门、刹车、方向盘和变速杆等的控制命令。传统控制方法有PID控制、滑模控制、模糊控制、模型预测控制等[6]。
如较低等级的汽车定速巡航到现在的无人驾驶都是这一模块控制的具体体现。
无人驾驶未来真的可以实现吗?想学这方面的技术应该选什么专业?学习无人驾驶汽车需要了解哪方面技术?。
自动驾驶技术首先离不开硬件支持,还有控制器、定位系统、惯性测量单元、感知传感器、软件、信息采集技术、坐标转换、决策规划等,涉及到的技术比较多,建议你去清华大学孵化的汽车学堂在线学习平台,上面的课程比较专业,建议你去试试哦!
国产无人驾驶出租车上的机械式激光雷达,这一技术在全球属于什么水平?我们的国产激光雷达现在在世界上处于非常领先的水平。去年全球对激光雷达的融资为138亿元,其中中国在该领域的投资已达50.89亿元。而且近年来,很多中国企业打破了美国公司在这一领域的垄断。
今年,市场上有近20种配备激光雷达的型号。2019年,北京将允许自动驾驶汽车在延崇高速公路和服务区进行道路测试。当很多人认为自动驾驶的冬天已经到来的时候,也许真正的战斗才刚刚开始。
在这一点上,先进自动驾驶汽车的“眼睛”激光雷达也是自动驾驶汽车中最关键的传感器部件,这必然会导致更加激烈的产业竞争。目前,世界各国都在积极制定自动驾驶普及路线图。
作为自动驾驶汽车的关键技术,车载激光雷达将获得巨大发展。在激光行业,光库技术口碑很好,大功率保偏器件很专业。是全球MOPA光纤激光器核心光学器件的主要供应商,曾助力“嫦娥三号”登月。
这么高端的无人驾驶技术,应该是有强势品牌来实现的。激光雷达具有高精度、高分辨率的优点,具有在其周围建立三维模型的前景。但其缺点在于对隔离带等静止物体的探测能力较弱,且现有技术成本较高。
领先的激光公司威力登的64线产品供货价格高达8万美元,相对便宜的32线和16线激光雷达也分别为3万美元和8000美元。价格是激光雷达普及的最大障碍。
有趣的是,今年年初,谷歌宣布其自动驾驶公司Waymo将独立开发无人驾驶组件,包括激光雷达,其成本将下降90%,至7500美元。
其他供应商也相当清楚,激光雷达的高价将不利于产品的普及,预计量产后成本会大幅下降。威力登认为,2018年后可能会大规模采购激光雷达,届时可能会实现50万台的销量,成本会快速下降。
这是一个潜力巨大的增量市场。目前降低激光雷达成本的方法主要有两种:使用低线雷达配合其他传感器,以及使用固态激光雷达代替传统激光雷达。
激光雷达最基本的扫描原理是飞行时间测量——激光雷达中的这个激光器首先发射一个激光脉冲,投射到目标物体上然后漫反射,然后传感器接收漫反射的激光。
激光雷达通过激光束在空气中的飞行时间来计算目标物体和传感器之间的距离。
AI黑科技,无人驾驶中都用到了哪些机器学习算法
前言声明:以下是博主精心整理的机器学习和AI系列文章,博主后续会不断更新该领域的知识:
人工智能AI实战系列代码全解析
手把手教你ML机器学习算法源码全解析
有需要的小伙伴赶紧订阅吧。
机器学习算法已经被广泛应用于自动驾驶各种解决方案,电控单元中的传感器数据处理大大提高了机器学习的利用率,也有一些潜在的应用,比如利用不同外部和内部的传感器的数据融合(如激光雷达、雷达、摄像头或物联网),评估驾驶员状况或为驾驶场景分类等。
将汽车内外传感器的数据进行融合,借此评估驾驶员情况、进行驾驶场景分类,都要用到机器学习。
自动驾驶中机器学习算法主要分为四类,即决策矩阵算法、聚类算法、模式识别算法和回归算法。我们一起来看看,这些算法都是怎样应用的。
算法概览
我们先设想这样一个自动驾驶场景——汽车的信息娱乐系统接收传感器数据融合系统的信息,如果系统发现司机身体有恙,会指导无人车开往附近的医院。
这项应用以机器学习为基础,能识别司机的语音、行为,进行语言翻译等。所有这些算法可以分为两类:监督学习和无监督学习,二者的区别在它们学习的方法。
监督学习算法利用训练数据集学习,并会坚持学到达到所要求的置信度(误差的最小概率)。监督学习算法可分为回归、分类和异常检测或维度缩减问题。
无监督学习算法会在可用数据中获取价值。这意味着算法能找到数据的内部联系、找到模式,或者根据数据间的相似程度将数据集划分出子集。无监督算法可以被粗略分类为关联规则学习和聚类。
强化学习算法是另一类机器学习算法,这种学习方法介于监督学习和无监督学习之间。
监督学习会给每个训练样例目标标签,无监督学习从来不会设立标签——而强化学习就是它们的平衡点,它有时间延迟的稀疏标签——也就是未来的奖励。每个agent会根据环境奖励学习自身行为。了解算法的优点和局限性,并开发高效的学习算法是强化学习的目标。
在自动驾驶汽车上,机器学习算法的主要任务之一是持续感应周围环境,并预测可能出现的变化。
我们不妨分成四个子任务:
检测对象
物体识别及分类
物体定位
运动预测
机器学习算法也可以被宽松地分为四类:
决策矩阵算法
聚类算法
模式识别算法
回归算法
机器学习算法和任务分类并不是一一对应的,比如说,回归算法既可以用于物体定位,也可以用于对象检测和运动预测。
决策矩阵算法
决策矩阵算法能系统分析、识别和评估一组信息集和值之间关系的表现,这些算法主要是用户决策。车辆的制动或转向是有依据的,它依赖算法对下一个运动的物体的识别、分类、预测的置信水平。
决策矩阵算法是由独立训练的各种决策模型组合起来的模型,某种程度上说,这些预测组合在一起构成整体的预测,同时降低决策的错误率。AdaBoosting是最常用的算法。
AdaBoost
AdaptiveBoosting算法也简称为AdaBoost,它是多种学习算法的结合,可应用于回归和分类问题。
与其他机器学习算法相比,它克服了过拟合问题,并且对异常值和噪声数据非常敏感。它需要经过多次迭代才能创造出强学习器,它具有自适应性。学习器将重点关注被分类错误的样本,最后再通过加权将弱学习器组合成强学习器。
AdaBoost帮助弱阈值分类器提升为强分类器。上面的图像描绘了如何在一个可以理解性代码的单个文件中实现AdaBoost算法。该函数包含一个弱分类器和boosting组件。
弱分类器尝试在数据维数中找到理想阈值,并将数据分为2类。分类器迭代时调用数据,并在每个分类步骤后,改变分类样本的权重。因此,它实际创建了级联的弱分类器,但性能像强分类器一样好。
聚类算法
有时,系统获取的图像不清楚,难以定位和检测对象,分类算法有可能丢失对象。在这种情况下,它们无法对问题分类并将其报告给系统。
造成这种现象可能的原因包括不连续数据、极少的数据点或低分辨率图像。K-means是一种常见的聚类算法。
K-means
K-means是著名的聚类算法,它从数据对象中选择任意k个对象作为初始聚类中心,再根据每个聚类对象的均值(中心对象)计算出每个对象与中心对象的距离,然后根据最小距离重新划分对象,最后重新计算调整后的聚类的均值。
下图形象描述了K-means算法。其中:
(a)表示原始数据集。(b)表示随机初始聚类中心。(c-f)表示运行2次k-means迭代演示。
模式识别算法(分类)
通过高级驾驶辅助系统(ADAS)中的传感器获得的图像由各种环境数据组成,图像过滤可以用来决定物体分类样例,排除无关的数据点。在对物体分类前,模式识别是一项重要步骤,这种算法被定义为数据简化算法。数据简化算法可以减少数据集的边缘和折线(拟合线段)。
PCA(原理分量分析)和HOG(定向梯度直方图),支持向量机(SupportVectorMachines,SVM)是ADAS中常用的识别算法。我们也经常用到K最近邻(KNN,K-NearestNeighbor)分类算法和贝叶斯决策规则。
支持向量机(SVM)
SVM依赖于定义决策边界的决策层概念。决策平面分隔由不同的类成员组成的对象集。下面是一个示意图,在这里,物体要么属于红色类要么绿色类,分隔线将彼此分隔开。落在左边的新物体会被标记为红色,落在右边就被标记为绿色。
回归算法
这种算法的专长是预测事件,回归分析会对两个或更多变量之间的关联性进行评估,并对不同规模上的变量效果进行对照。
回归算法通常由三种度量标准驱动:
回归线的形状
因变量的类型
因变量的数量
在无人车的驱动和定位方面,图像在ADAS系统中扮演着关键角色。对于任何算法来说,最大的挑战都是如何开发一种用于进行特征选取和预测的、基于图像的模型。
回归算法利用环境的可重复性来创造一个概率模型,这个模型揭示了图像中给定物体位置与该图像本身间的关系。
通过图形采样,此概率模型能够提供迅速的在线检测,同时也可以在线下进行学习。模型还可以在不需要大量人类建模的前提下被进一步扩展到其他物体上。
算法会将某一物体的位置以一种在线状态下的输出和一种对物体存在的信任而返回。回归算法同样可以被应用到短期预测和长期学习中,在自动驾驶上,则尤其多用于决策森林回归、神经网络回归以及贝叶斯回归。
回归神经网络
神经网络可以被用在回归、分类或非监督学习上。它们将未标记的数据分组并归类,或者监督训练后预测连续值。神经网络的最后一层通常通过逻辑回归将连续值变为变量0或1。
在上面的图表中,x代表输入,特征从网络中的前一层传递到下一层。许多x将输入到最后一个隐藏层的每个节点,并且每一个x将乘以相关权重w。
乘积之和将被移动到一个激活函数中,在实际应用中我们经常用到ReLu激活函数。它不像Sigmoid函数那样在处理浅层梯度问题时容易饱和。