博舍

2018人工智能十大“失败案例”盘点 人工智能失控事件有哪些类型的

2018人工智能十大“失败案例”盘点

Synced最近对全年的人工智能十大“失败案例”进行了首次总结 

AI人脸识别闯红灯董明珠躺枪

董明珠在宁波“闯红灯”被抓?原来是在过马路时公交广告上董小姐的“大头照”太明显,一下子被闯红灯人脸识别系统捕捉到,竟然误以为是真人!董小姐人在家中,却在社交媒体上不幸躺枪成了“jaywalker”。

那辆巴士刚好被投放了印有董明珠头像的广告。当这辆巴士行驶在宁波中山东路,经过江夏桥东一带时,恰好从中间垂直方向穿过了一条亮着红灯的斑马线,而车身广告上董明珠的照片正脸刚好对准了一侧的红灯,如果是个真人的话,TA的确是在闯红灯。高大上的AI检测系统顿时变成“人工智障”,把照片当成了真人,直接把这辆公交车拍了下来,还锁定了车身上董明珠的照片,判定此人闯红灯。该系统还从数据库里搜索,把董明珠的车身广告照片和一行「***,在江夏桥东违法闯红灯」曝光到了大屏幕上。宁波交警事后回应称,技术人员已经对该系统进行了全面升级。

Uber自动驾驶汽车杀死一名行人

在公共道路上第一个已知的与车辆相关的自动驾驶行人死亡事件中,优步的自动驾驶SUV于3月28日在亚利桑那州的Tempe市撞倒了一名女性行人,致其当场死亡。

Uber发现其自动驾驶软件决定在汽车传感器检测到行人后却没有采取任何行动。根据美国国家运输安全委员会关于事故的初步报告,这是因为Uber的自动模式禁用了沃尔沃工厂安装的自动紧急制动系统。

在悲剧发生之后,Uber在北美城市暂停了自驾驾驶测试,而Nvidia和丰田也在美国停止了自驾车道路测试。事故发生8个月后,Uber宣布计划在匹兹堡恢复自驾车路试,尽管该公司的自驾车未来仍然不明朗。

IBMWatson医疗保健出现重大漏洞

BM最初是一个问答机器,一直在广泛的应用程序和流程(包括医疗保健)中探索Watson的AI功能。2013年,IBM开发了Watson首个针对癌症治疗推荐的商业应用程序,该公司在过去五年中与医院和研究中心建立了许多重要的合作伙伴关系。但WatsonAIHealth并没有给医生留下深刻印象。一些人抱怨它对癌症治疗提出了错误的建议,可能会导致严重甚至致命的后果。

据报道,在没有显著进步的项目上花费数年后,IBM正在缩小WatsonHealth的规模并裁掉该部门员工的一半以上。

亚马逊AI招聘工具性别歧视

据报道,亚马逊人力资源部门在2014年至2017年期间使用了支持AI的招聘软件来帮助审核简历并提出建议。然而,该软件对男性申请人更有利,因为其模型是在过去十年中提交给亚马逊的简历上接受培训的,当时雇用了更多的男性候选人。

据报道,该软件降级了包含“女性”一词的简历,或暗示申请人是女性,例如因为他们曾就读过女子大学。亚马逊此后放弃了该软件。该公司并未否认使用该工具提出建议,但表示从未用于评估候选人。

DeepFakes将色情主角错认成《星战》DaisyRidley

去年12月,Reddit网上出现了一些国际顶级女星——25岁《星战》女星黛丝烈尼(DaisyRidley)的色情视频,原因竟然是是“DeepFakes”采用生成对抗网络,将明星的脸与色情视频中女性的脸进行了交换。

虽然面部交换技术已经开发多年,但DeepFakes的方法显示,任何拥有足够面部图像的人现在都可以制作他们自己非常有说服力的假视频。色请视频的创作者,就是将《星球大战》知名演员DaisyRidley的脸与上面的色情女星交换了。

2018年,逼真的名人假视频依旧充斥着互联网。虽然这种方法在技术上并非“失败”,但其潜在的危险是严重而深远的:如果视频证据不再可信,这可能会进一步鼓励流传假新闻。

GooglePhoto出现了bug

Google相册包含一个相对未知的AI功能,可以自动检测具有相同背景/场景的图像,并将它们合并为单个全景图片。1月份,Reddit用户“MalletsDarker”在滑雪场拍摄了三张照片:两张是风景照,另一张是他朋友的照片。当谷歌照片合并这三个时,发生了一件奇怪的事情,因为他的朋友的脑袋被渲染成一个从森林中窥视出来的尖峰巨人。尴尬作死瞬间如图:

这张照片使得r/funnysubreddit排名前十,并获得了202k的赞成票。社交媒体称赞谷歌算法巧妙地混合了图像,同时嘲笑它在构图基础方面的愚蠢。

LG机器人Cloi在揭幕仪式上“傻掉”

1月8日应该是LG的IoTAI助手Cloi在拉斯维加斯举行的2018年国际消费电子展上首次亮相的那一天。Cloi被呈现为一个简单而愉快的界面,能够识别控制家用电器的语音命令。然而,当可爱的机器人走上舞台进行现场演示时,观众正在观看和等待,一直等待……因为它未能回应LG市场营销主管的命令,只产生尴尬的沉默。

波士顿动力学机器人blooper

SoftBank拥有的机器人制造商波士顿动力公司今年不止一次为互联网赢得了惊喜:它的机器人SpotMini可以灵巧地用头戴式抓手臂打开门;它的人形机器人阿特拉斯现在可以做“跑酷”了——顺利跳过原木,跳跃一系列40厘米的步骤而不会停下步伐。

但即使是波士顿动力公司也有其不小心“哎呀”的时刻:在未来科学家和技术专家大会上首次亮相时,阿特拉斯在一个完美的演示中举起了盒子等。但正当表演结束准备离开时,这个可怜的机器人绊倒在窗帘上,笨拙地从舞台上摔下来。不过,它摔倒的样子倒也挺像人类的。

2018年AI对世界杯的预测几乎都错

2018年世界杯是一年中最重要的体育赛事,高盛、德国多特蒙德技术大学、ElectronicArts、彼尔姆国立研究大学和其他机构的人工智能研究人员运行了机器学习模型,来预测多阶段比赛的结果。然而大多数都是完全错误的,只有EA——使用其视频游戏FIFA18的新评级进行模拟——正确地支持了胜利者法国。EA游戏引擎以众多机器学习技术为后盾,旨在使玩家的表现尽可能逼真。

SQL服务数据科学家NickBurns提供了一个解释:“无论你的模型有多好,它们都只是和你的数据一样好……最近的足球数据还不足以预测世界杯的表现。缺少信息和未定义的影响太多了。”

Startup声称可以从面部扫描预测智商

以色列机器学习初创公司Faception提出了有争议的说法,即其人工智能技术可以分析面部图像和骨骼结构,以揭示人们的智商,个性,甚至是暴力倾向。数据科学家BenSnyder在Twitter上斥责该公司的技术:“那是颅相学。你只是把ML当作一个种族主义的背锅侠。“这条推文收到了超过6,500次转推送和近17,000个点赞。

盘点人工智能发展史上的8个历史性事件

原标题:盘点人工智能发展史上的8个历史性事件

人工智能被广大人民群众所熟知大概是从2016年阿尔法围棋(AlphaGo)与围棋世界冠军、职业九段选手李世石进行人机大战那次,并以4:1的总比分获胜。

不少职业围棋手认为,阿尔法围棋的棋力已经达到甚至超过围棋职业九段水平,在世界职业围棋排名中,其等级分曾经超过排名人类第一的棋手柯洁。此次人机大战,引起了全球前所未有的关注,开启了人工智能的新纪元。

实际上,早在上世纪40年代,人工智能的概念就已诞生。在那个时期的一些科幻小说、科幻电影里,就经常有关于人工智能的描述,如超级机器人、超级计算机、光脑等。

在人工智能的发展历程中,还经历了以下七个历史性事件:

一)1943年,WarrenMcCulloch和WalterPitts两位科学家提出了“神经网络”的概念,正式开启了AI的大门。虽然在当时仅是一个数学理论,但是这个理论让人们了解到计算机可以如人类大脑一样进行“深度学习”,描述了如何让人造神经元网络实现逻辑功能。

二)1955年8月31日,JohnMcCarthy、MarvinMinsky、NathanielRochester和ClaudeShannon四位科学家联名提交了一份《人工智能研究》的提案,首次提出了人工智能(AI)的概念,其中的JohnMcCarthy被后人尊称为“人工智能之父”。

三)1969年人类首次提出了反向传播算法(Backpropagation),这是80年代的主流算法,同时也是机器学习历史上最重要的算法之一,奠定了人工智能的基础。

这种算法的独特之处在于映射、非线性化,具有很强的函数复现能力,可以更好地训练人工智能的学习能力。

四)20世纪60年代,麻省理工学院的一名研究人员发明了一个名为ELIZA的计算机心理治疗师,可以帮助用户和机器对话,缓解压力和抑郁,这是语音助手最早的雏形。

语音助手可以识别用户的语言,并进行简单的系统操作,比如苹果的Siri,某种程度上来说,语音助手赋予了人工智能“说话”和“交流”的能力。

展开全文

五)1993年作家兼计算机科学家VernorVinge发表了一篇文章,在这篇文章中首次提到了人工智能的“奇点理论”。他认为未来某一天人工智能会超越人类,并且终结人类社会,主宰人类世界,被其称为“即将到来的技术奇点”。

VernorVinge是最早的人工智能威胁论提出者,后来者还有霍金和特斯拉CEO马斯克。

六)1997年,IBM的超级计算机“深蓝”战胜了当时的国际象棋冠军GarryKasparov,引起了世界的轰动。虽然它还不能证明人工智能可以像人一样思考,但它证明了人工智能在推算及信息处理上要比人类更快。这是AI发展史上,人工智能首次战胜人类。

七)2012年6月,谷歌研究人员JeffDean和吴恩达从YouTube视频中提取了1000万个未标记的图像,训练一个由16,000个电脑处理器组成的庞大神经网络。在没有给出任何识别信息的情况下,人工智能通过深度学习算法准确的从中识别出了猫科动物的照片。

这是人工智能深度学习的首次案例,它意味着人工智能开始有了一定程度的“思考”能力。

人工智能未来的发展:

AI行业的六大发展趋势

·更聪明的机器人

·更快的分析

·更自然的互动

·更微妙的恐惧

·更智能的学习

·知识共享

人工智能的近期研究目标在于建造智能计算机,用以代替人类去从事各种复杂的脑力劳动。正是根据这一近期研究目标,人们才把人工智能理解为计算机科学的一个分支。当然,人工智能还有它的远期研究目标,即探究人类智能和机器智能的基本原理,研究用自动机模拟人类的思维过程和智能行为。这个长期目标远远超出计算机科学的范畴,几乎涉及自然科学和社会科学的所有学科。如今,人工智能已经进入21世纪,其必将为发展国民经济和改善人类生活做出更大的贡献。

来源:人工智能返回搜狐,查看更多

责任编辑:

浅谈人工智能时代下的工程伦理问题

浅谈人工智能时代下的工程伦理问题一、引言

近年来,随着大数据基础设施建设以及人工智能技术的发展,社会中涌现出许多新技术,给人们带来更便捷的生活。但与其共生的道德风险问题也日益显著。人工智能道德风险即人工智能技术带来的伦理结果的不确定性,其既有主观因素也有客观因素,具体表现有道德算法风险、道德决策风险、隐私数据泄露风险等。风险主要成因有技术主体、政治、经济、文化等社会因素。结合当下大数据驱动的人工智能算法特点,如何运用风险治理思想分析其背后的工程伦理问题对人工智能领域发展具有重要意义。

二、人工智能时代的当下

在1956年达特茅会议中AI这个概念被提出,经历数次低谷与发展浪潮,人工智能再次活跃在大众的视野中,并且以更完备的生态以及更强的活力积极改变我们的生活。在如今的人工智能浪潮中,深度学习因为其能够胜任更复杂、更庞大的场景而成为主流。

在AI的应用层面,随着大数据基础设施建设的日趋完备,人工智能孕育出许多产业,如:数据挖掘、人脸识别、语音识别、自动驾驶等。同时医疗卫生、交通运输、仓储物流、游戏等行业都已经或正在接受人工智能的优化。

2019年11月11日24时整,“双11”全天的物流订单量达到创纪录的12.92亿元,物流订单量迎来了“爆炸式”的增长。“双11”全天各邮政、快递企业共处理5.35亿快件,是二季度以来日常处理量的3倍,同比增长28.6%,再创历史新高。而在其背后做支撑的是一套完整的基于大数据的人工智能系统。

目前,百度、阿里、腾讯、谷歌等主流互联网公司正在大力投资人工智能相关产业与技术,而与此同时全球正有上千家公司全力押注人工智能,并且这个趋势依旧保持稳定增长的速度。

三、人工智能伦理问题日益凸显

显然,在当下这个人工智能技术飞速发展的时代,人工智能技术的广泛应用为人类带来了显而易见的好处。但技术的进步不但扩大了人类对于技术的恐慌,同时也放大了由于某些技术缺陷和忽略道德伦理问题而带来的负面影响。

3.1忽略伦理问题下产生的算法歧视问题

外卖作为当下快节奏生活的必需品,在其背后做支撑的是数以百万的外卖员和强大的人工智能系统。2020年9月8日,一篇名为《外卖骑手,困在系统里》的文章在互联网上被热议,文章指出:2016至2019年间,美团多次向配送站站长发送加速通知,3公里的送餐距离最长时限一再被缩短至38分钟;而根据相关数据显示,2019年中国全行业外卖订单单均配送时间较3年前减少了10分钟。外卖骑手在系统算法与数据的驱动下疲于奔命,逐渐变成高危职业——骑手为在算法规定的最长送餐时限内完成送餐任务无视交通规则,不断提高车速。

许多伦理问题都是由于实践主体缺乏必要的伦理意识造成的,而外卖平台算法使得外卖骑手被“困在系统里”显然是工程的决策者以及管理者没有考虑相关的伦理问题所导致的。外卖平台作为一项服务消费者、向社会提供就业岗位的工程,其目的与其他类型的工程类似,均为满足人类在某方面的需求,但工程在向社会提供服务的同时不应当忽略工程风险问题。

3.2从风险与安全角度分析外卖平台

工程风险的防范与安全分为工程的质量监理与安全、意外风险控制与安全和事故应急处置与安全三个方面,分析外卖平台的工程风险主要从意外风险控制和事故应急处置两方面展开。

3.2.1意外风险控制维度的工程风险

外卖平台作为服务大众的工程项目,其受众人数巨大——外卖市场规模超6500亿元,覆盖4.6亿消费者,工程一旦出现意外风险控制不当的情况则对其受众造成无法估量的损失。在基于大数据的人工智能算法的训练过程中,算法训练结果会随着数据重心的整体偏移,从而导致外卖骑手不得不加快派送的速度进而风险增加。因此,为避免人工智能系统追求极致地无限制缩短派送最长时限,工程师和程序设计者在程序设计之初应当添加阈值以保证外卖平台背后的外卖骑手能够在遵守交通规则的前提下及时、安全地完成任务。

3.2.2事故应急处置维度的工程风险

事故应急处理体现着工程负责人、相关利益反对工程的理解程度。应对工程事故,应当事先准备一套完整的事故应急预案,保证迅速、有序地开展应急与救援行动,降低人员伤亡和经济损失。外卖骑手因忽视交通规则造成伤亡的事件并非最近才发生——2017年上半年,上海市公安局交警总队数据显示,在上海,平均每2.5天就有1名外卖骑手伤亡。同年,深圳3个月内外卖骑手伤亡12人。2018年,成都交警7个月间查处骑手违法近万次,事故196件,伤亡155人次,平均每天就有1个骑手因违法伤亡。2018年9月,广州交警查处外卖骑手交通违法近2000宗,美团占一半,饿了么排第二。而外卖平台除口头告诫骑手之外并没有推出从根本处解决问题的措施,直到《人物》发表《外卖骑手,困在系统里》一文后外卖平台才相继推出多等5分钟的政策。

3.3从工程四要素角度分析外卖平台

工程包括技术要素、利益要素、责任要素、环境要素以及伦理要素,接下来将从工程四要素中的技术、利益与责任这三个方面来展开。

3.3.1技术维度的道德风险

基于算法和大数据的人工智能技术背后隐藏着风险。算法体现着工程师和程序设计者的思想,其政治立场和社会偏见都会不可避免的嵌入程序中。从大数据中诞生的人工智能系统通常会存在基于数据采样偏差带来的问题,而这类问题在后续的训练中不会被消除甚至可能被放大。因此,为消除算法与数据采用带来的偏见,工程师以及程序设计者在程序设计之初就应当消除主观偏见;同时在数据的处理方法中,应当极尽全力保证数据的准确,降低数据偏差带来的风险。

3.3.2利益维度的道德问题

人工智能存在威胁、侵犯人类利益的风险。从安全角度来说,人工智能应当对人类来说是安全的、可靠的、不作恶的。以外卖平台派单系统为例,外卖骑手在系统的算法歧视下被迫忽视交通规则,对骑手、对行人已经构成严重的安全隐患。因此,如何通过人工智能系统,在权衡各方利益、兼顾效率、保证安全的前提下实现利益最大化是人工智能系统需要解决的核心问题。

3.3.3责任维度的道德风险

人工智能在价值选择困境与责任承担困境中存在风险。外卖平台派单系统在消费者对于外卖的时间要求与外卖骑手在派送过程中的风险问题之间面临抉择,系统应当尽量满足消费者的需求而忽视外卖骑手的安全,还是应当在尽量保护骑手的安全的前提下提高派送效率?在人工智能系统作为自主行为主体的情况下,系统会逐渐压缩骑手的安全空间。而在发生事故之后的责任鉴定中,系统并没有能力为自己的决策承担其相应的责任。

四、总结

为避免人工智能出现无节制的追求极致从而导致技术、利益、责任等方面的道德风险,实现人类社会可持续发展的目标,人工智能的设计应当秉承着将人类健康、安全和福祉放在首位的原则。由外卖平台人工智能系统这一例所引发出来的思考,进一步提出以下建议:

1、工程设计之初应当强化工程负责人、管理者、工程师以及程序设计者的伦理意识。由于算法、工程体现着设计人员的思想,而相关人员对伦理方面的意识缺失必将导致缺乏伦理思想的工程存在缺陷。

2、强化工程相关人员的风险与安全意识。风险与安全始终是工程无法逃避的问题,针对风险可接受性进行完备分析与评估,并对一系列不可控意外风险制定相关预警机制与应急机制是控制风险、规避风险、妥当处理事故的唯一途径。

3、强化人类主导和监督能力。人类主导以及人为监督有助于人工智能系统不会走向极端,从而出现逻辑上无比正确却存在人类伦理问题的缺陷。

4、明确人工智能系统的责任归属。程序设计之初应当对程序设计者针对不同模块的设计明确责任归属,当下人工智能的发展远远没有达到成熟阶段,相应的人工智能系统也没有能力对其发展的不良后果负责,这个责任很自然的需要其背后的软件工程师、程序设计者、工程负责人以及管理者共同承担;人工智能系统在设计阶段明确责任归属有利于工程事故发生之后的责任归属划分;有利于在程序设计阶段强化工程师们的工程伦理意识。

从技术发展的角度来看,人工智能系统因其发展历史较短、技术成熟度低等原因远未达到可以完全信赖的地步。人工智能系统在设计中应考虑预防性安全措施来防范风险,减少不可接受的伤害。

版权声明:本文内容由互联网用户自发贡献,该文观点仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌抄袭侵权/违法违规的内容,一经查实,本站将立刻删除。

上一篇

下一篇