机器人有了自主意识世界首例机器人自杀事件究竟是怎么回事
原标题:机器人有了自主意识?世界首例机器人自杀事件究竟是怎么回事自从人工智能被推到世人面前,就有无数人在畅想,什么时候它们才会拥有像人类一样的自主思想,也产生自己的喜怒哀乐呢?而早在2013年,在奥地利就发生过这么一起“机器人自杀”事件,被媒体广泛报道,被称为机器人拥有自主意识的例证。
2013年11月的某一天,44岁的哈克尔(GernotHackl)让自家的扫地机器人打扫完房间,将它的电源关闭后,就带着妻子儿子上街去了。他做梦也没想到,等他回到家,不只是机器人被烧成一堆废铁,连自己的房子也住不了人了。
在炉灶上化为灰烬的扫地机器人
据参与灭火的消防员HelmutKniewasser表示,机器人的电源不知怎地被重新开启,继续在房间里打扫卫生,也许就是此时不小心触碰了厨房炉子的按钮,自己也被卡在炉灶上。炉灶的高温很快使得机器人熔化着火,化为一摊灰烬,连带房子也遭了殃。
新一代Roomba760,和国内常见的扫地机器人并无分别
这款机器人是美国Irobot机器人公司的明星产品Roomba760,从2002年就开始问世并不断迭代,截止目前已开发了5代产品,共出售超过500万台。当电池用尽时,它会自动返回对接站基地充电,拥有红外线和射频通讯配件。按理说是当时颇受市场欢迎,也经受了时间检验的合格产品,有着先进技术和良好口碑,直到这次事件的发生。
展开全文许多媒体在报道这件新闻时推定Roomba的死因是“无法忍受沉重的家务”,但很显然,作为一台扫地机器人,其工作量很难大到超出设备合理使用范围。而这个“自杀”论的主要拥护者,是英国知名的一众小报——《镜报》、《地铁报》、《太阳报》、《每日星报》等看热闹不嫌事大的媒体,至于专家则没有给出具体的解释。
英国《镜报》标题:世界首例机器人自杀,主人回家发现扫地机器人已化为灰烬
无论如何,这起“机器人自杀”事件能让人们津津乐道很久,而对于哈克尔一家就没那么轻松了,房子起火让他们无家可归。哈克尔抱怨道:“我再也不会买这鬼东西了,我买它是为了打扫房间,而不是让它把东西都烧毁。”
多年过去,这起事件的真相依然无人知晓,究竟是机器人真的拥有了自主意识,想逃离无穷无尽的家务事;亦或是主人粗心大意忘了关闭电源,让机器人有了误触炉灶开关的失误?大家怎么看?返回搜狐,查看更多
责任编辑:当机器人有了意识,能否拥有权力甚至与人类平起平坐
如果机器人有了意识,它应该得到权利吗?(来源:网易网友)
【网易智能讯3月20日消息】 现在,有的人工智能可以以类似人类的方式进行对话,有的机器人看起来像我们,而深度学习机器则是专门用来像我们一样学习、思考和行动。专家认为,到2030年,人工智能将与人类不相上下;到2045年,人工智能的能力将超越人类智能。
鉴于该领域的发展速度和资源为实现持续发展所投入的资源,研究人员相信,我们比以往任何时候都距离“会思考的”机器更近。
牛津大学数学家MarcusduSautoy表示:“人工智能正在逐渐获得自己的感觉,也许有一个阈值时刻,意识突然就出现了。如果我们了解到人工智能有一定程度的意识,可能就得引入权利。这是一个激动人心的时刻。”
前景很令人兴奋,但同时也具有争议。一旦AI可以像人一样思考、说话、行动,那么,它们是否应该拥有与我们相同的权利这一问题将会迫在眉睫。
争议:AI机器人能不能拥有意识?
随着人工智能的发展,机器人是否应该拥有权利这一问题变得更加紧迫。是否赋予机器人这些权利可能会对人类的生存产生直接影响,因此必须仔细考虑。
媒体经常提醒我们,机器人革命即将发生。电影或电视节目以哄笑开场,以闲谈的方式讲述机器人是如何“愚蠢”,最后却以更严肃的语气结束。《机械姬》、《终结者》和《西部世界》都是人类第一次遇见机器人时,忽视了它们的感知能力的绝佳例子。但如果我们在现实生活中忽略它呢?我们现在就应该承认这一点吗?
一些人认为,机器人永远不会真正实现意识,因为人类甚至还不理解意识的本质。我们对“人权”的概念是一种相对哲学的概念,建立在疼痛和苦难的概念上。通常情况下,机器人不需要通过编程来感知这些情绪,从而实现它们的功能,所以这个观点是没有实际意义的。
争论的另一方观点是:人类进化到能够理解痛苦,是为了我们自己的利益。如果我们知道触摸火苗时会感到疼痛,我们就不会去碰它。然而,先进的人工智能可能只是为了达到更高程度的自我意识而把痛苦编程到自己的意识中。在这一点上,否认机器人的权利仅仅是一个经济问题,就像人类的各个派系曾经剥夺了其他人和动物的权利一样。
机器权利的问题已经与隐私和各种意识阈值有关,但“人类例外主义”的观点值得考虑。我们不想让人类灭绝,我们决定赋予其他物种的权利也会对我们的生存产生直接的影响。
人工智能能否拥有投票的特权?
未来可能有一天,AI拥有(或要求拥有)众多权利,其中包括人类所享有的社会特权和责任,比如投票。
正如ZoltanIstvan在《新科学家》的一篇文章中指出的那样:
授予AI投票权将带来许多棘手的问题和道德困境,特别是因为地球上有几十亿台计算机。即使只有其中10%可以得到人格和相应的权利,它们也将大规模膨胀某个党派的投票人口。
在美国,这样的事情可能会让选举团制度容易受到AI对选举结果的操纵,并引发人们对选举合法性的担忧。例如,如果一个机器人的服务器在一个州,而它的实体在另一个州,那么它的选票应该被计算在哪里呢?AI会被要求在和人类相同的盒子上做标记吗?如果AI能够克隆自己,该怎么办?它们的复制品会被确认为合法的投票实体吗?
监管和法律先行:保护人类,也保护机器人
就目前来看,这些问题还只是纯粹的假设。但是,正如研究人员指出的那样,尽管我们仍有时间认真考虑技术对我们的生活方式产生的可能性和影响,对于我们为一个与机器人并肩行走的世界所做的准备是必不可少的。
人工智能已经在我们的生活中扮演着重要的角色。在未来的岁月里,它将继续扮演更加复杂多样的角色。为了实现这一目标,许多监管机构都在立法,不仅保护人类,也保护机器人。
例如,欧洲议会法律事务委员会(JURI)投票通过了一份报告,该报告敦促起草相关法规,监管机器人和人工智能的使用和制造。报告指出:无论未来如何,人工智能都将与我们在一起,甚至可能与我们平权。我们将如何在这样一个社会中发挥作用,这是我们今天必须要确定的路线。
(来源/Futurism编译/机器小易审校/Ulan-Ude)
关注网易智能菌(微信公众号:smartman163),获取专业人工智能资讯与AI报告。
人工智能可能有自主意识了吗
参会者在第六届世界智能大会上参观(2022年6月24日摄) 赵子硕摄/本刊
➤大模型、大数据的驱动让人工智能在对话的自然度、趣味性上有了很大突破,但距离具备自主意识还很远。换言之,即便人工智能可以对人类的语言、表情所传递的情绪作出判断,但这主要应用的是自然语言处理、计算机视觉等技术
➤不同于当前依赖数据学习的技术路线,新一代人工智能强调在没有经过数据学习的情况下,可以通过推理作出合理反应,从而与没有见过、没有学过的事物展开交互
➤当前人工智能治理面临的最大挑战,是我们没有一套比较成熟的体系来规制其潜在的风险。在发展科技的同时,必须同步发展我们的规制体系
➤“技术归根结底是由人类来发展和把控的。人类和人工智能的未来,是由人类选择的。”
文 |《瞭望》新闻周刊记者 于雪 魏雨虹
今年6月,美国谷歌公司软件工程师布莱克·勒莫因称语言模型LaMDA出现自我意识。他认为,LaMDA拥有七八岁孩童的智力,并相信LaMDA正在争取自己作为一个人的权利。
LaMDA是谷歌去年发布的一款专门用于对话的语言模型,主要功能是可以与人类交谈。
为佐证观点,勒莫因把自己和LaMDA的聊天记录上传至互联网。随后,谷歌以违反保密协议为由对其停职。谷歌表示,没有任何证据支持勒莫因的观点。
事实上,“AI(人工智能)是否拥有自主意识”一直争议不休。此次谷歌工程师和LaMDA的故事,再次引发讨论。人们想知道:人工智能技术究竟发展到了怎样的阶段?是否真的具备自主意识?其判定依据是什么?未来我们又该以怎样的能力和心态与人工智能和谐共处?
人工智能自主意识之辨
勒莫因认为LaMDA具有意识的原因有三:一是LaMDA以前所未有的方式高效、创造性地使用语言;二是它以与人类相似的方式分享感觉;三是它会表达内省和想象,既会担忧未来,也会追忆过去。
受访专家告诉《瞭望》新闻周刊记者,上述现象仅仅是因为LaMDA所基于的Transformer架构能够联系上下文,进行高精度的人类对话模拟,故能应对人类开放、发散的交谈。
至于人工智能是否已经具备自主意识,判定标准如何,受访专家表示,对人类意识的探索目前仍属于科技前沿,尚未形成统一定义。
清华大学北京信息科学与技术国家研究中心助理研究员郭雨晨说:“我们说人有自主意识,是因为人知道自己在干什么。机器则不一样,你对它输入内容,它只是依照程序设定进行反馈。”
中国社会科学院科学技术哲学研究室主任段伟文认为,一般意义上,人的自我意识是指对自我具备觉知,但如何认识和理解人类意识更多还是一个哲学问题而不是科学问题,这也是很难明确定义人工智能是否具备意识的原因。
被誉为“计算机科学与人工智能之父”的艾伦·图灵,早在1950年就曾提出图灵测试——如果一台机器能够与人类展开对话而不能被辨别出其机器身份,那么可以称这台机器具有智能。
这一设想随后被具化为,如果有超过30%参与测试的人以为自己在和人说话而非计算机,就可以认为“机器会思考”。
当前随着技术的发展,已经有越来越多的机器能够通过图灵测试。
但清华大学人工智能国际治理研究院副院长梁正告诉《瞭望》新闻周刊记者,图灵测试只能证明机器在表象上可以做到让人无法分辨它与人类的不同,却不能证明机器能够思考,更不能证明机器具备自主意识。
段伟文表示,目前大体有两种方式判定人工智能是否具有自主意识,一种以人类意识为参照,另一种则试图对机器意识进行全新定义。
若以人类意识为参照,要观察机器能否像人一样整合信息。“比如你在阳光下,坐在河边的椅子上看书,有树影落在脸上,有风吹来,它们会带给你一种整体的愉悦感。而对机器来说,阳光、河流、椅子等,是分散的单一元素。”段伟文说。
不仅如此,段伟文说,还要观察机器能否像人一样将单一事件放在全局中思考,作出符合全局利益的决策。
若跳出人类构建自主意识的范式,对机器意识进行重新定义,则需要明白意识的本质是什么。
段伟文告诉记者,有理论认为如果机器与机器之间形成了灵活、独立的交互,则可以称机器具备意识。也有理论认为,可以不追究机器的内心,仅仅把机器当作行为体,从机器的行为表现判断它是否理解所做事情的意义。“比如机器人看到人类喝咖啡后很精神,下次当它观察到人类的疲惫,能不能想到要为人类煮一杯咖啡?”段伟文说。
但在段伟文看来,这些对机器意识进行重新定义的理论,其问题出在,即便能够证明机器可以交互对话、深度理解,但是否等同于具备自主意识尚未有定论。“以LaMDA为例,虽然能够生成在人类看来更具意义的对话,甚至人可以与机器在对话中产生共情,但其本质仍然是在数据采集、配对、筛选机制下形成的反馈,并不代表模型能够理解对话的意义。”
换言之,即便人工智能可以对人类的语言、表情所传递的情绪作出判断,但这主要应用的是自然语言处理、计算机视觉等技术。
郭雨晨直言,尽管在情感计算方面,通过深度学习的推动已经发展得比较好,但如果就此说人工智能具备意识还有些一厢情愿。“把‘意识’这个词换成‘功能’,我会觉得更加准确。”
技术换道
有专家提出,若要机器能思考,先要解决人工智能发展的换道问题。
据了解,目前基于深度学习、由数据驱动的人工智能在技术上已经触及天花板。一个突出例证是,阿尔法围棋(AlphaGo)在击败人类围棋世界冠军后,虽然财力和算力不断投入,但深度学习的回报率却没有相应增长。
一般认为,人工智能可被分为弱人工智能、通用人工智能和超级人工智能。弱人工智能也被称为狭义人工智能,专攻某一领域;通用人工智能也叫强人工智能,主要目标是制造出一台像人类一样拥有全面智能的计算机;超级人工智能类似于科幻作品中拥有超能力的智能机器人。
从产业发展角度看,人工智能在弱人工智能阶段停留了相当长时间,正在向通用人工智能阶段迈进。受访专家表示,目前尚未有成功创建通用人工智能的成熟案例,而具备自主意识,至少需要发展到通用人工智能阶段。
梁正说,大模型、大数据的驱动让人工智能在对话的自然度、趣味性上有了很大突破,但距离具备自主意识还很远。“如果你给这类语言模型喂养大量关于内省、想象等与意识有关的数据,它便更容易反馈与意识有关的回应。”
不仅如此,现阶段的人工智能在一个复杂、专门的领域可以做到极致,却很难完成一件在人类看来非常简单的事情。“比如人工智能可以成为围棋高手,却不具备三岁小孩对陌生环境的感知能力。”段伟文说。
谈及背后原因,受访专家表示,第一是当前人工智能主要与符号世界进行交互,在对物理世界的感知与反应上发展缓慢。第二是数据学习让机器只能对见过的内容有合理反馈,无法处理陌生内容。第三是在数据驱动技术路线下,人们通过不断调整、优化参数来强化机器反馈的精准度,但这种调适终究有限。
郭雨晨说,人类在特定任务的学习过程中接触的数据量并不大,却可以很快学习新技能、完成新任务,这是目前基于数据驱动的人工智能所不具备的能力。
梁正强调,不同于当前主要依赖大规模数据训练的技术路线,新一代人工智能强调在没有经过数据训练的情况下,可以通过推理作出合理反应,从而与没有见过、没有学过的事物展开交互。
相比人类意识的自由开放,以往人工智能更多处在封闭空间。尽管这个空间可能足够大,但若超出设定范畴便无法处理。而人类如果按照规则不能解决问题,就会修改规则,甚至发明新规则。
这意味着,如果人工智能能够超越现有学习模式,拥有对自身意识系统进行反思的能力,就会理解自身系统的基本性质,就有可能改造自身的意识系统,创造新规则,从而成为自己的主人。
“人工智能觉醒”背后
有关“人工智能觉醒”的讨论已不鲜见,但谷歌迅速否认的态度耐人寻味。
梁正表示:“如果不迅速驳斥指认,会给谷歌带来合规性方面的麻烦。”
据了解,关于人工智能是否有自主意识的争论并非单纯技术领域的学术探讨,而关乎企业合规性的基本坚守。一旦认定公司研发的人工智能系统出现自主意识,很可能会被认为违反第2版《人工智能设计的伦理准则》白皮书的相关规范。
这一由美国电气和电子工程师协会2017年发布的规范明确:“根据某些理论,当系统接近并超过通用人工智能时,无法预料的或无意的系统行为将变得越来越危险且难以纠正。并不是所有通用人工智能级别的系统都能够与人类利益保持一致,因此,当这些系统的能力越来越强大时,应当谨慎并确定不同系统的运行机制。”
梁正认为,为避免社会舆论可能的过度负面解读,担心大家认为它培育出了英国作家玛丽·雪莱笔下的弗兰肯斯坦式的科技怪物,以“不作恶”为企业口号的谷歌自然会予以否认。“不仅如此,尽管这一原则对企业没有强制约束力,但若被认为突破了底线,并对个体和社会造成实质性伤害,很有可能面临高额的惩罚性赔偿,因此企业在合规性方面会更为谨慎。”
我国也有类似管理规范。2019年,国家新一代人工智能治理专业委员会发布《新一代人工智能治理原则——发展负责任的人工智能》,提出人工智能治理的框架和行动指南。其中,“敏捷治理”原则主要针对技术可能带来的新社会风险展开治理,强调治理的适应性与灵活性。
中国信息化百人会成员、清华大学教授薛澜在接受媒体采访时表示,当前人工智能治理面临的最大挑战,是我们没有一套比较成熟的体系来规制其潜在的风险。特别是在第四次工业革命背景下,我国的人工智能技术和其他国家一样都处于发展期,没有现成的规制体系,这样就使得我们在发展科技的同时,必须同步发展我们的规制体系。“这可能是人工智能发展面临最大的挑战。”
在梁正看来,目前很难断言新兴人工智能技术具有绝对风险,但必须构造合理的熔断、叫停机制。在治理中既要具有一定的预见性,又不能扼杀创新的土壤,要在企业诉求和公共安全之间找到合适的平衡点。
毕竟,对人类来说,发展人工智能的目的不是把机器变成人,更不是把人变成机器,而是解决人类社会发展面临的问题。
从这个角度来说,我们需要的或许只是帮助人类而不是代替人类的人工智能。
为了人机友好的未来
确保通用人工智能技术有益于人类福祉,一直是人工智能伦理构建的前沿。
薛澜认为,在科技领域,很多技术都像硬币的两面,在带来正面效应的同时也会存在风险,人工智能就是其中一个比较突出的领域。如何在促进技术创新和规制潜在风险之间寻求平衡,是科技伦理必须关注的问题。
梁正提出,有时技术的发展会超越人们预想的框架,在不自觉的情况下出现与人类利益不一致甚至相悖的情况。著名的“曲别针制造机”假说,即描述了通用人工智能在目标和技术都无害的情况下,对人类造成威胁的情景。
“曲别针制造机”假说给定一种技术模型,假设某个人工智能机器的终极目标是制造曲别针,尽管看上去这一目的对人类无害,但最终它却使用人类无法比拟的能力,把世界上所有资源都做成了曲别针,进而对人类社会产生不可逆的伤害。
因此有观点认为,创造出法力高超又杀不死的孙悟空本身就是一种不顾后果的冒险行为。
与其对立的观点则认为,目前这一担忧为时尚早。
“我们对到底什么样的技术路线能够发展出具备自主意识的人工智能尚无共识,现在谈论‘禁止发展’,有种空中楼阁的意味。”梁正说。
商汤科技智能产业研究院院长田丰告诉《瞭望》新闻周刊,现实中人工智能技术伦理风险治理的关键,是产业能够在“预判防范-应用场景-用户反馈-产品改进”中形成市场反馈机制,促成伦理风险识别与敏捷治理。同时,企业内部也需建立完整的科技伦理自律机制,通过伦理委员会、伦理风控流程平台将伦理风险把控落实到产品全生命周期中。
郭雨晨说,人工智能技术发展到目前,仍始终处于人类可控状态,而科技发展的过程本来就伴随对衍生问题的预判、发现和解决。“在想象中的人工智能自主意识出现以前,人工智能技术脚踏实地的发展,已经造福人类社会很多年了。”
在梁正看来,人与人工智能在未来会是一种合作关系,各自具备对方无法达成的能力。“技术归根结底是由人类来发展和把控的。人类和人工智能的未来,是由人类选择的。”□
长沙华夏实验学校学生和机器狗互动(2022年6月22日摄)薛宇舸摄/本刊
机器人拥有自我意识是好处多还是风险多
11月3日消息,针对现下大热的人工智能,很多人会有一个疑问:机器人会拥有自主意识吗?在2019腾讯科学WE大会前,哥伦比亚大学教授、机器人研究权威专家HodLipson给出了回答。
HodLipson向TechWeb等表示,“不可避免会出现这一天,至于是10年后,还是100年后,我们还不知道。但我比较确信的是,我们孙辈生活的世界里,机器将会有自我意识。”
如果机器拥有了自我意识,你是否会为此感到担心?HodLipson对此持乐观态度,他认为,“自主意识的机器人带来的好处将会远远超过它的风险”。
他以火的发现为例解释称,火非常危险,也非常强大。但人类是否希望自己从未发现火呢?答案应该是否定的,因为有了火之后,使得我们能做很多之前做不到的、不可思议的事情。
HodLipson指出,“我们现在已经发展和运用了很多机器,而这些机器的数量将会越来越多,它们也会越来越复杂,总有一天人类将无法直接照顾这么多、这么复杂的机器人,我们要想办法让机器人自己来照顾自己。”(周小白)
以下为HodLipson对话速记:
提问:您真的会觉得机器人会拥有自主意识吗?你担心它拥有自主意识吗?
HodLipson:我的回答是肯定的,也是否定的。因为我认为不可避免的会出现这样一天,这个世界上的机器获得自我的意识。这是一个非常伟大的事件,因为我们现在在逐步给这些机器系统一点一点添加智能。最终,它们会给自己找到一个模型,它们最终要想明白,并最终明白自己是什么,自己能做什么和不能做什么。
这件事情将在10年之后发生,还是100年之后发生,我也不知道。但是,我比较确信的是我们的孙辈所生活的世界里,机器将会有自我意识。
我是否对此感到担心呢?我可以给您举一个例子,就是火的发现。火非常危险,也非常强大。但人类是否希望自己从未发现火呢?答案应该是否定的,因为有了火之后,使得我们能做很多之前做不到的、不可思议的事情。
具有自主意识的机器人也是如此,它是一种非常强大的技术,重要的是每一个人都认识到这种机器人能够做些什么、不能够做一些什么,就像火一样,我们知道它是强大而危险的,所以我们要确保将它用于好的事情上。
我个人在这个问题上保持乐观态度。我认为自主意识的机器人带来的好处将会远远超过它的风险,因此我们要追求发展这样一个技术,因为我们现在已经发展和运用了很多机器,而这些机器的数量将会越来越多,它们也会越来越复杂,总有一天人类将无法直接照顾这么多、这么复杂的机器人,我们要想办法让机器人自己来照顾自己。
提问:第一个问题,上过《自然》杂志封面的那个论文提到过粒子机器人没有单点故障,也没有集中控制。这个系统可以继续保持运行,它的阈值在什么范围内?因为现在测试下来是20%的粒子发生故障,整个系统还是能够保持运行,这个事情是对机器人鲁棒性的一个突破。
之前《科学》杂志的主编提到过现在所有人们认为机器人的意识问题,都是因为它的鲁棒性,机器人的鲁棒性如果真的够了,它就能产生意识吗?第二个问题,我不是非常理解刚才举的火的例子,因为火是没有自己意识的,它仍然只是一个工具,教授之前讲50年之后人可能和人工智能一起进步,就是人和人工智能共生的一个状态,在这样的环境下,人们会面临哪些伦理和社会上的挑战?
HodLipson:其实您是把很多问题都集中到了这两个问题。我先回答一下关于鲁棒性的问题,我们所做的粒子机器人把这个整体当成一个机器人。这种机器人我更想比喻成一个人的身体。我们的身体是由许多细胞组成的,这些细胞会产生、发展和死亡,不断地会有细胞死去。虽然有很多细胞都死掉了,但我还是我,你还是你。
那么到底我们能让多少细胞死,而不改变自己的性质呢?到底是20%,还是30%呢?其实,我们知道人体的细胞不断地在死亡,这是一个持续的过程,同时也会有新的细胞不断产生。
换句话说,我们的身体是由一个个不可靠的部分组成,这些部件本身会死亡、坏掉,但是新的部件会不断出现,反复的出现,我们这个整体还是我们自己。
做机器人主要在于新思路,你谈到了它的鲁棒性,你也提到了所谓的20%。其实这个20%只是我们测的一个数字而已,我们更关心的是一个想法,就是如何建造一种机器人,像人体一样,能够用这些不可靠的部件组成它,但是它作为一个整体仍然是像人体一样,可以正常的运行。
这一点和我们今天造机器的想法完全不一样,比如我们现在造的飞机,它由很多部件组成,其中任何一个部件都有自己特定的功能。假如这个部件失灵了、出故障了,那这个飞机就是不能上天的。假如有一辆车其中一个轮子掉了,这辆车也就无法运行了。
我们现在希望以一种全新的思路来做机器人,它的鲁棒性和机器人是否有自我意识是无关的,我们更多的是把它想像成一种生物体。从生物体来讲,你的身体、头脑是维持运行所必要的部分,我们希望这种机器人有一个头脑,能够自我去建模,这样就能够发展起来。
我举火的这个例子,并不是因为它有自我意识。它并没有自我意识,主要还是从伦理的角度来讲,是说火也是非常非常强大、危险的。但是,它是人类文明真正开始发展的原因,有了火人类才能够吃以前吃不了的食物,能够建造以前建造不了的东西,能够在夜里看见东西,这一切极大的促进了文明的发展,但是同时火也是非常危险的。
所以,我们所有人都需要意识到火是非常有用的,非常强大。假如火失控,就会带来非常糟糕的后果。人工智能也是如此,它既强大又危险,这个技术非常值得我们拥有,但是我们要知道这种技术能强大到什么程度,并且给予它尊重,确保能够恰当地使用。
你提到的所有伦理问题,目前应该还是没有答案的。其实就在5年前,人工智能技术就已经开始发展了,但是没有人对它感到兴奋,它只是一个学科而已,也没有任何人担心它有一天会接管了全世界。
但是,在过去5年间,这一技术真的腾飞了。突然之间好像大家都在问这些伦理问题,但是正如我前面说过的那样,我们对这些伦理问题还没有答案,这个技术肯定会继续发展,而有自我意识的机器人也终将出现。
提问:粒子机器人是否能够在一个很小的空间内模拟宇宙?
HodLipson:你问粒子机器人能否模拟宇宙,我想我们这个机器人更多的是试图模拟生命,而不是模拟宇宙的发展和运行。
我们试图让它模拟生物,特别是动物的机制。我们试图认识我们身体里所存在的这些粒子,或者更确切的说是细胞,每一个单个细胞都是不可靠的,而且大脑并不指挥每一个单个的细胞,这些细胞通过自己的随机运动组合在一起,最终产生了每一个真实的个人。
这个也仍然是一个比喻,但是总的想法是它使我们能够试着模拟,或者试着复制一下生命的运行。
提问:随着自主机器人意识越来越强烈,现在越来越多人对这个感到担忧,与此同时包括腾讯在内的这些企业,提出了“科技向善”的理念。你是否听说过腾讯“科技向善”的理念,你对科技向善这个理念是怎么理解的?以及你觉得科技向善该怎么引领未来机器人、人工智能与人类命运的和谐发展。
HodLipson:这个问题非常好,作为人类来说,我们开始意识到这样一种强大的自主意识会出现,我们肯定会想到必须要确保这些技术会用于好的事情、善的事情。
但是,这种科技向善的想法在很多地方都有人提出来,并且大家在不断的重复。比如我所在的哥伦比亚大学,我们有一个非常类似的说法,叫做数据向善,就是把数据用于善的事情,这是所有人类都希望能做的事情,关键还在于怎么做到,如何确保技术总是以好的方式得到运用,这一点是非常难的,确保人工智能完全用于好的事情并不容易,因为这个技术非常易用,也不需要投入很多钱就能够用上。技术本身既可以被用来做好事,也可以被用来做坏事,关键在于人类文明和人类社会应该想怎么把它用于好的事情,而不是坏的事情。
关于怎么办目前我们还没有完全想清楚。将来是让人工智能去监督人工智能,还是采取什么别的办法?但是总的来说最终要靠人类的伦理,指导我们在一个机器能够自主做出决定的新世界里,确保这些技术仍然用于好的事情。
应该说任何这样的问题都没有一个简单的答案,但是我们必须走上这样一个历程,并且一步一步的往前走,我们现在要公开讨论它应该可以做些什么,不可以做些什么,我们要不断地进行研究。
在这个过程中,人类会逐步做出什么能做、什么不能做的决定,实际上在人类历史上我们发现了既强大又危险的技术,比如说核技术、基因技术的出现,基因技术如果被误用或滥用,它的结果也会很糟糕。比如化学的发展,它也有可能会被人用于做坏事,但是最终人类社会都选择把这些技术用于好的地方。
所以,在人类历史上我们曾经多次发现这些强大而危险的技术。但在大部分的情况下,人类社会作为一个整体做出了正确的决定。所以我本人是乐观的,我相信这次人类社会整体也将做出正确的决定。虽然,在某个时点上可能有少数人会做出少数错误的、不好的决定,但是作为一个整体,我们会做出正确的决定。
提问:通常人们会想科学家做机器人,是让它来模仿人类所做的一些动作,或者人类的功能。但是也有一些科学家做出来的机器人已经能做一般人做不出来的动作了,为什么要让机器人做到这些呢?
HodLipson:这个问题非常好,就像我们为什么要让人工智能或者机器人玩国际象棋、围棋一样。这个是一个挑战,我们会试着让人工智能和机器人做一些人觉得难的东西,看是否能让机器人学会这些技术。
这是自我的挑战,也是一个测试,就好像人工智能在最开始学国际象棋的时候,世界上绝大部分普通人是不可能战胜国际象棋大师的。因为,一般人都做不到,不过一开始大家肯定也认为人工智能也是做不到的。这对它是一个智力上的挑战,它会去学习,然后逐步做到这一点,这是智力上的挑战。
身体上的挑战也是一样的,我们会去问机器人能不能走路。走路这件事看上去非常简单,每一个儿童,甚至婴儿很小就开始学走路,并且学会了。但实际上教机器人走路比让它学国际象棋难得多,因为每一个人类都觉得我们特别擅长走路,所以我们不觉得走路这件事有什么难的,但是教机器人走路是非常困难的。
巴斯大学和其它的一些大学进行了特别多研究,才逐步让他们的机器人能够走路。在它做到走路之后,科研人员会想能不能让它跑起来,能不能让它在摔倒之后自己爬起来,能不能让它能爬山、爬墙,或者说能不能让它做一个后空翻。
几个月前,伯克利大学发布了一段视频,它的机器人在玩一个魔方,这个是一件非常小的事。因为只要是个人,他的手就能玩魔方,但是对机器人来说这是非常难的事情。
对于科研人员来说,让机器人做这些事情就是在爬一个阶梯,是人在身体和智力上能做到的这些事情,让它像爬梯子一样一个一个得掌握,并且试着看一看我们在这方面能够走多远。
这个技术是不是有用呢?
我或许可以举一个例子。让机器人做后空翻的动作可能本身想不出来有什么实际的用处,但是后面支持机器人走路、拿东西、做后空翻的这些技术有很多非常实际的应用。
提问:您的这项研究适合于哪方面的实际应用,比如医学或者其它的。在您的成果当中,未来还有哪些可以提升的方向?比如说更多、更快、更小的组件。
我听说您领导的研究团队里面有一个中国人,叫李曙光。您怎么评价中国在机器人研究和应用方面的贡献?
HodLipson:我先跟您讲一下我们的计划,我们预期必须把它做的更小。我们在设想这样一种机器人的时候,我们希望能够模拟成百上千个细胞一起运作的状况。事实上,我们现在能做到的只是几十个细胞进行这样的运行。我们希望有一天能够达到数百万、上千万的细胞一起组成的粒子机器人来运作,就像我们的身体一样。我们身体里有数十亿、上百亿的细胞,它们共同形成了我们。我们要这样做的话,就需要把它做的更小,我们需要使用纳米技术,或者说至少是微米技术,这是我们的下一个目标。因为在它的每一个部件足够小之前,是不可能有实用场景的,因为在大的规模上没有办法实现细胞之间永续的更新,如果它足够小,能够做到很多有趣的事情。
比如说我们现在看到工厂里的机器人,乃至你家里的吸尘器,现在都是一些大的部件坏了,整个机器就不能运作的部件组成的。将来它们也可以由这样一个一个小的细胞组成,它的好处有很多。
首先,就是它能够应对某个部件出现故障,但是整体不会出问题,可以完全循环。在今天我们看到的这些机器是不能够循环的,机器坏掉之后相当于把它埋葬了,或者说这个机器的某个金属部件、塑料部件是可以循环的,但是机器作为一个整体是不行的。
但是生物体不一样,生物体是可以百分之百循环的。比如说你吃掉了一只鸡,你就能够充分利用鸡提供给你的蛋白质,如果你吃了植物或者素食,你也会充分利用它给你提供的一切,因为你的身体会把它所提供给你的有用物质进行循环,从氨基酸开始,然后对它实现充分的利用。
我们现在希望能够有一种物理的机器,使它也能够实现这样的循环,这样它就由数百万、上千万的小部件组成,形成这样一个小粒子的生态系统。只有实现这样的生态系统,才有机会使我们维持使用很多机器的人类文明生生不息,因为这些机器自己可以照顾自己,但是应该说这是一个非常长远的目标,这不是一个明天就能用上的技术。
提问:能够用两个词谈一谈对于腾讯明天WE大会科学精神的理解吗?并且讲一下故事,教授这边是不是采取了什么行动,来防止相关的技术被误用,是否存在一些规则,如何对相关的技术进行监管?
HodLipson:我非常期待明天的大会,而且我知道大会涉及到很多不同的主题,内容都非常有趣,这也使我想到中国和美国科学界的合作。
您提到我团队里面有中国人,其实我那里总共有10个博士生,里面有四个中国人,从硕士的学生来说,数量就更多了,大概占到了一半,可能大概有10多个。
所以,不管是哥伦比亚大学还是其它大学,其实都是如此。我想这也表明中美在这个领域的合作比历史上任何时候都要多,不仅在我们的项目组有中国学生,在大学的教职员工里面也有不少的中国人。
人工智能和机器人领域尤为如此,在这个领域发表论文的数量,中国、美国、欧洲数量大致是一样的,我们也知道在中国、美国,在世界上很多地方都存在着很多竞争,但是在人工智能和机器人的世界里,世界确实是平的。
其中部分原因是因为这个领域对资本投入的需求很低,因此你不需要投入大量的资金,就可以去研究和发展这个技术,所以每一个人感兴趣都可以参与进来。另外一部分原因是在人工智能和机器人的领域,我们分享意识是非常强的,迄今为止这个领域所取得的每一项成就都是开源的,这也大大促进了国际合作。
至于监管的问题,从目前来看,我们唯一能做的就是不断的谈论这样的事情,我们绝对不能关上门搞开发,要保持百分之百的开放。在我们的实验室白天黑夜都有记者找我们,他们会来拍照,会问问题,而且有些时候会问非常难回答、根本就没有答案的问题。
在机器人技术的发展领域,我想这是唯一的出路。可能我们进行大量的交流还不能确保这个技术一定是用于好的事情,但是至少通过这个讨论,人们可以了解到这种技术的危险性何在,而不是在未来某一天突然被它吓坏了。
提问:单个粒子机器人现在的收缩状态直径是15厘米,您刚刚提到在它做的足够小之前是不太可能应用的,大概要等多少年时间才有可能做到微米级、纳米级?在这期间会遇到什么难题?如果真的做到纳米级、微米级,这个粒子机器人具体落地应用场景大概是什么样的?可以举几个例子描述一下吗?
HodLipson:需要多少年才能达到你说的这个尺度我确实不知道答案。这个研究的进展并不仅仅取决于研究的难易程度,还涉及到是否能够得到资金支持,是否有学生对这个课题感兴趣。可能他们会被其它的技术所吸引,这些都是一些影响因素。
但是,我个人仍然觉得它会在我们的有生之年达到微米。比如10年,或者说我不会想像做的比微米更小,我不会真的想像那时候就能做到纳米级,但是或许我们只能做到毫米级的,比如说像小的砂糖颗粒一样,毫米级的,那时候就可以做这样的细胞。
没有办法把毫米级的粒子机器人到人类的血管中去,或者我们现在想像的那些医学中特别先进的应用,可能还是做不到,但是它应该可以成为一些机器的组成部分,这些机器能够行走、恢复、重复使用。
比如在外空有一些需要做的工作,或者是如果我们需要登上月球的话,我们就需要这些机器人能够根据任务的需求,改变自己的形态,在一些地方可能把材料运过去非常昂贵,我们需要重复使用我们的机器人,让它能够根据任务需求进行形态的调整。我个人想像,这很可能是这种机器人比较早的应用形态。
提问:有人说中国和美国在人工智能、机器人领域的不同是中国可能研究更偏应用一点,美国可能在基础研究做的更扎实一点,怎么看待中美在这两个领域当中研究发展程度的不同?中国人工智能领域在基础研究方面的缺乏和不足会不会对未来应用造成一些影响?
HodLipson:我不太确定我看到的情况和您的这个描述是一致的。因为我觉得中国也有很多人在做应用和基础研究,也有很多美国人在做应用方面的研究,中国这边也是两方面研究都有。
应该说这个领域的研究一直都是混合的。在机器人和人工智能领域,一向都是这两种,并不总是两分法的判断,很多人都是同时在做的。而且你很少看到有人只会研究某个特定的应用。比如说只研究某个医学的应用,或者某个康复功能的应用,或者他只关注于自动驾驶的机器人,更准确的描述就是这个领域非常广泛,确实没有人能够把所有的细分学科、某个技术细节都关注到。
但是在这两个国家都有大量的人做各种各样的研究,所以恐怕不能一下子判断中美出现这样一种不同偏好的原因。
即便在我自己的实验室,有的研究人员比较重视应用。我们有一个项目是能做“抓”这个动作的机器人,他们会和工厂有很多的联系,去看现有这样的机器人和我们自己的机器人,能不能保证它抓10万次不出故障。
此外也有特别关注于机器人创造力和自我意识的人,这个更具有哲学性的思考。恐怕只能说这个领域的内容如此丰富,所以一个人恐怕没有什么都关注到,但是放在国家尺度上,两国都既有实用研究,也有大量的基础研究,这就是我们这个学科和其它学科不一样的地方。
比如天文学肯定要做大量理论研究。我们这一行是不一样的,机器人这个领域有很多商业的力量参与,也有很多政治、经济的力量参与,这个领域的钱非常多,比如说百分之百人工智能驱动的无人驾驶汽车,在这个领域投入了大量的资金,它非常热,有来自于各个方向上的压力和兴趣,所以可能像这样的一些特定细分领域会吸引到更多的关注,但其实在更广泛的人工智能和机器领域,实用和理论基础性的研究都在广泛进行。