现在的 AI 有自我意识了吗
Antonio作者
陈彩娴编辑
本文转载自“AI科技评论”(ID:aitechtalk)
毫无疑问,人类有自己的意识。在某种意义上,这种“意识”甚至可以被视为人类智能的内涵之一。
随着“人工智能”(ArtificialIntelligence)的深入发展,“AI能否拥有意识”也渐渐成为科学家们心中的一个疑问,“意识”也被视为衡量AI是否智能的标准之一。
例如,2月中旬,OpenAI的首席科学家IIyaSutskever就曾在推特上发起对AI意识的讨论。当时,他说:
如今的大型神经网络可能已初具意识。
他的观点立即引起了一众AI大咖的讨论。针对IIyaSutskever的见解,图灵奖得主、MetaAI首席科学家YannLeCun首先就抛出了反对意见,给出一个直截了当的观点:“Nope.”(不。)JudeaPearl也力挺Lecun,表示现有的深度神经网络还无法“深度理解”某些领域。
唇枪舌战几回合后,JudeaPearl称:
……事实上我们都没有一个关于“意识”的正式定义。我们唯一能做的也许就是向历代研究意识的哲学家请教...
这是一个关于源头的问题。如果需要讨论“AI意识”,那么:什么是“意识”?拥有“意识”意味着什么?要回答这些问题,光有计算机知识是远远不够的。
事实上,关于“意识”的讨论最早可以追溯到古希腊“轴心时代”。自那时起,“意识”作为人的认识论的本质,就已成为后代哲学家们无法回避的议题。关于AI意识的讨论兴起后,曾任OpenAI研究科学家的学者AmandaAskell也就该话题作了一番有趣的见解。
图注:AmandaAskell,她的研究方向是AI与哲学的交叉
在她的最新博文《MymostlyboringviewsaboutAIconsciousness》中,Askell探讨了现象学意义上的“现象意识”(phenomenalconsciousness),而非“自觉意识”(accessconsciousness)。
现象意识强调主体的体验过程,侧重感觉、经验,被动注意;而自觉意识则强调主体的主观能动性,它强调主体在主观上的主动留意。
比如,你在轻松的音乐下写作业,你可以感受到背景中的音乐(现象意识),但不会留意它的具体内容;作业对你而言是主观留意的(自觉意识),你真切地知道你到底在做什么。
这有点像计算机视觉和认知科学中常用到的两种不同的注意力机制。现象意识对应“bottom-up”,而自觉意识对应“top-down”。
图注:一眼就可以注意到书本的大字部分是“现象意识”;意识到其中的细节则属于“自觉意识”。
Askell认同更高级的智能和自觉意识更相关,这也可以将人类和其它动物有效地区分开来,但她“更感兴趣的是老虎与岩石的区别,而不是人与老虎的区别”,而现象意识足以完成这样的区分。
而且她认为,如果出现了“现象意识”,就意味着一些道德和伦理问题也将随之出现。这也是她认为研究意识具有重要意义的原因所在。
当下的AI系统是否有意识?
Askell提出一个有趣的观察:
当下的AI系统比椅子更有可能具有现象意识,但远不如老鼠有意识,甚至还没有昆虫、鱼或双壳类动物有更多意识。
她把AI系统大致类比为植物的区域——由于植物的行为方式似乎需要规划,并且可以做出一些看似需要内部和外部交流的事情。AI系统似乎也有类似的行为。
不过她也确信,AI系统作为一个整体在未来会比植物或双壳类动物具有更大的意识潜力。尤其未来有更多受生物启发的神经网络的AI研究,可能会产生更多与意识相关的架构、行为和认知系统。
图注:有研究已经表明,植物也具有意识和智能,它们也可以感知疼痛,并与环境很好地交流互动
那么考虑AI到底有无意识,该从哪些方面考虑证据呢?Askell列出了四个类型的证据:架构、行为、功能和理论。
架构证据是指系统的物理结构与人类的相似程度,例如大脑的结构要远比指头的更加像有意识。
行为证据是实体做出与意识、认知等相关的行为,例如可以意识到周围环境,对外部刺激的反应,或更复杂的行为,如言语和推理。
功能性证据考虑它的目标以及这些目标与环境的关系。例如桌子或椅子并没有真正受到环境的演化压力,因此它没有任何理由形成像老鼠对环境所拥有的的那种意识。
理论证据包括理论本身的连贯性、说服力等。
现在研究心智的哲学家大致有两方面的理论倾向:一是包容派,例如认为原子都可以拥有意识的泛心派;二是机械主义派,他们否认非人类实体拥有意识。但无论是哪种倾向,都可以从上述的四种不同证据中讨论AI的意识问题。
AI是否有意识重要吗?
绝大多数AI从业者都不会将意识这一特性考虑进去,AI和意识似乎还只存在于某些科幻电影对未来的想象中。不过在安全、伦理、偏见与公正性方面,意识与AI的结合已在学术界和工业界中引起越来越多的重视。
Askell认为,AI具有现象意识,这就意味着它很有可能发展出伦理观,而这与它的创作者之间有莫大关系。尤其是当AI犯了错误或者受到“虐待”的时候,它的创造者应该承担一定的责任。
Askell讨论了道德伦理学中的两个重要概念:道德行为体(moralagent)和道德关怀对象(moralpatient)。其中,“道德行为体”是具有分辨善恶对错能力、并可以承担后果的行为体,如成年人;而“道德关怀对象”则无法分辨善恶是非,即无法从道德上进行约束、一般不会承担后果的实体,如动物或者幼小的婴儿。
道德关怀对象
Askell认为,实体一旦拥有类似快乐和痛苦的知觉(sentisent),就极可能成为道德关怀对象。而如果发现道德关怀对象(比如一只猫)受到痛苦,而普通人却没有试图去尽道德义务减轻其痛苦,这是不合理的。她同时认为,现象意识是感知的必要条件,因而进一步,现象意识是成为道德关怀对象的先决条件。
可能的争论是某些群体是否具有道德地位(moralstatus),或者是否拥有更高的道德地位。道德地位来自伦理学,是指一个群体是否可以从道德意义上讨论它们的过失。例如,多数生物具有道德地位,而无生命物体则没有。过分强调某一群体具有这一地位似乎在暗示这一群体更加重要,其他群体没那么重要。这就像“给予动物、昆虫、胎儿、环境等更多道德地位的论点一样让人担忧”。
Askell指出,帮助一个群体并不需要以牺牲其他群体为代价。例如,食用素食对动物和人类健康都有好处。
“团队通常不会竞争相同的资源,我们通常可以使用不同的资源来帮助两个团队,而不是强迫在它们之间进行权衡。如果我们想增加用于全球脱贫的资源,将现有的捐款从慈善事业中拿出来并不是唯一的选择——我们还可以鼓励更多的人捐款和捐款。”
所以,当未来有感知能力的AI系统成为道德关怀体时,并不意味着我们对其它人类的福祉不再关心,也不意味着我们需要转移现有资源来帮助他们。
道德行为体
道德行为体因为懂得善恶是非,他们倾向以好的方式行事,避免以坏的方式行事。当做了道德或法律上不允许的事情的时候,他们会受到相应的惩罚。
道德行为体中最弱的部分只需要对积极和消极的激励做出反应。这就是说,另外的实体可以惩罚该行为体的不良行为或奖励其良好行为,因为这将改善行为体今后的行为。
值得注意的是,Askell指出:接收刺激并得到反馈似乎并不要求现象意识。当前的ML系统在某种意义上已经符合这一规律,比如模型需要降低损失函数,或者强化学习中更明显的“奖励”和“惩罚”。
图注:强化学习的奖励反馈机制
那么对于更强的道德行为体呢?我们通常认为,只有当行为体有能力理解是非对错,并没有被糊弄采取其它行为时,Ta才能对他们的行为负有道德责任。比方说,一个人说服他的朋友在森林放火,如果这位朋友被抓到,不管他怎么辩解自己是受到别人教唆才放火的,承担道德责任的都是引发火灾的人(即朋友本人),而不是说服他的人。但是,如果一个人训练他的狗去放火,在这种情况下,我们会将大部分的道德责任放在这位训练师而不是他的宠物身上。
为什么我们让人类纵火犯承担道德责任,而不是训练有素的狗?首先,人类纵火犯有能力考虑他们的选择,并选择不听从朋友的劝说,而狗则缺乏这种能力来推理他们的选择。其次,狗从不明白自己的行为是错误的,也从不表现出做错事的意图(disposition)——它只是做了它受过训练的事情。
假设先进的机器学习系统在这种更强的意义上成为道德行为体,即它完全有能力理解是非,充分考虑可行的选项,并按照自己的意愿行事,那么这是否意味着:如果机器学习系统做错了事,那些创建该系统的人应该被免除道德责任?
对此,Askell持反对意见。为了更加细致地考虑这一问题,她认为可以询问创造者们以下几个问题:
创造特定的实体(如AI)预期的影响是什么?
创造者为获得有关其影响的证据付出了多少努力?
他们对他们创造实体的行为可以在多大程度上进行控制(无论是直接影响其行为还是间接影响其意图)?
在他们力所能及的范围内,他们为改善实体的行为付出了多少努力?
即使创造者尽一切努力确保ML系统运行良好,它们还是可能会失败。有时这些失败还是由于创造者的错误或疏忽而导致的。Askell认为:创造道德行为体肯定会使事情复杂化,因为道德行为体比自动机(automata)更难预测,比如自动驾驶对于路况的判断。但这并不能免除创作者为其创造的AI系统的安全问题负责的义务。
研究AI意识的工作有多重要?
目前AI领域专门针对意识(甚至其它哲学方面的思考)的研究非常少,但也已经有学者在针对该话题进行跨领域的合作研究。比如,GPT-3问世后,专注哲学问题探讨的博客DailyNous就专门开辟了一个板块,讨论语言哲学在AI上的思考。
但同时,Askell强调,对AI意识的讨论不应仅仅停留在哲学式的抽象思辨上,还要致力于发展相关的实用框架,比如为机器意识和感知建立一系列高效的评估。目前已经有一些方法可以用于检测动物疼痛,似乎可以从那里获得一些灵感。
反过来说,我们对AI意识的理解多一分,对人类本身的理解就多一分。因此,对AI意识的讨论虽暂未达成统一的共识,但讨论本身已是一种进步。期待更多的AI意识研究工作。
参考链接:
https://askellio.substack.com/p/ai-consciousness?s=r
人工智能会产生意识吗
方陵生
人工智能会产生意识吗?这个问题的答案在一定程度上取决于人工智能技术能做什么,或将来能做什么,还取决于意识到底是什么。
未来的人工智能技术将取得什么样的突破性进展呢?我们也许可以想象一下未来各种人工智能机器人的类型,有能够感知自身和周围环境的机器人,也有能够实时接收和处理大量数据的机器人,还有能够进入太空执行危险任务或上战场加入战斗的机器人等。人工智能除了能够自动驾驶汽车,还会做饭、打扫和洗衣服,甚至还会有陪伴老人聊天的陪护机器人。
利用未来技术制造的人工智能机器人甚至可以取代人类从事几乎所有的工作,让人类可以免除许多繁重危险工作带来的风险,但同时大量出现的人工智能机器人也有可能会动摇许多社会基础,不工作只玩乐的生活可能会变成一种反乌托邦的社会现象,这并非是一个真正理想的世界。
虽然想象中的人工智能世界十分美好,但人们不无忧虑,例如,如此先进的机器人会产生意识吗?有了意识的机器人有一天会与人类为敌吗?有意识的机器人也许还将会引发许多令人不安的法律和道德问题,例如,一台有意识的机器会成为法律意义上的“人”吗?如果它的行为伤害了人类,或者导致了什么问题,它也要承担法律责任吗?再想一想更为可怕的情景:如果这些机器人拥有了真正的意识,会不会产生反抗人类的心思,并希望彻底消灭人类?
从事机器学习、计算机科学和量子理论研究的科学家和研究人员对于超级人工智能机器人是否会真的出现仍存有分歧。机器人是否会产生和一些动物,甚至人类相类似的意识这一问题也还存在争议。其中的一些问题与技术有关,而另一些问题则与意识本身,即意识究竟是什么相关。
人工智能能否拥有足够的意识大多数计算机科学家认为,机器意识是随着技术发展而出现的一个特征。有人认为,机器意识包括接受新信息、储存和检索旧信息,以及对这些信息有所认知并进行处理的能力,这些都是构成认知和行动的一部分。如果这一理论能够成立,那么终有一天机器将发展出终极意识。人工智能超强大的计算能力意味着它们将能够收集到比人类更多的信息,存储比许多图书馆加在一起还要多的信息,它们能够在毫秒间访问庞大的数据库,通过对所有信息的快速计算作出比任何人类能够作出的更复杂、更完美、更合乎逻辑的决策。
但也有物理学家和哲学家认为,人类发达而复杂的大脑所产生的一些思想和行为,有更多东西是机器计算所无法效仿和企及的,例如,人类的创造力和人们所拥有的自由感,这些似乎都不可能来自逻辑或计算。
然而,关于意识究竟是什么,机器能否产生意识,以上观点并不是唯一的,科学家对此还有很多不同的观点。
源自量子理论的观点关于意识的另一种观点来自量子理论,量子理论是物理学中最玄奥、最深刻的理论。根据正统量子论的哥本哈根解释,意识和物质世界是同一现实互补的两个方面。当一个人对物理世界的某个方面进行观察或实验时,此人有意识的互动亦在导致物理世界明显的相应变化。
意识和物质之间的相互作用导致了一个经过80年的争论之后仍然没有得到解决的悖论,众所周知的一个例子是“薛定谔的猫”。在“薛定谔的猶”的悖论中,猫被置于一种或是生或是死的密闭环境中,这两种可能性同时存在,而观察者的行为本身就是确定结果的原因。
相反的观点认为,意识是从生物学中产生的,正如生物学本身是从化学中产生,而化学又是从物理学中产生的一样。这一理论与神经科学家的观点一致。意识现象可能需要一种自我组织系统,就像大脑物理结构的系统一样,这是如今的人工智能机器人所短缺的。
研究者们不能确定的是,适应性的自我组织机器人是否能被设计成像人脑一样复杂,目前还没有这样系统的数学计算理论。也许只有生物机器才有足够的创造力和灵活性,但这意味着人们应该或者很快就会开始致力于设计新的生物结构,这样的结构也许有可能成为有意识的。
为何人工智能永远不会真正拥有意识许多先进的人工智能项目的研究者声称,他们正致力于开发一台有意识的机器,其想法是建立在大脑功能只是编码和处理多种传感信息的想法之上的。因此他们认为,假设一旦正确破解了大脑功能的秘密,就有可能通过编程,将这种功能编制到计算机中。不久前,微软宣布将通过一个投资10亿美元的项目来实现这一目标。
一些研究人员坚持认为,计算机模拟神经科学是一条出路,但其他一些人则认为这些努力注定要失败,因为他们不认为意识是可以计算的。其基本论点是,大脑整合和压缩了由多种不同感官感知组成的某种体验,包括视觉和嗅觉在内的各种感官感知,而这是当今计算机感知、处理和存储数据的方式所无法处理的。
大脑的工作方式与电脑并不一样,生物体在主体和环境之间的活动过程中会不断调整神经连接,将以往经验储存在大脑中,而计算机是将数据记录在短期和长期保存的内存块中。这种差异意味着大脑的信息处理方式与计算机的工作方式是不同的。大脑会积极主动探索环境,以找到指导或执行某个或另一个动作的各种元素,感知与感觉数据没有直接关系,一个人可以从许多不同的角度来识别一个图表,而不必有意识地解释数据。
另有观点认为,最普通的记忆任务也与大脑的多个区域有关,技能学习和专业知识都涉及到神经元的重组和物理变化。例如,改变神经元之间的连接模式或强度,这些转换都无法在具有固定体系结构的计算机中得到完全复制。
意识不可计算还有其他一些原因。例如,一个有意识的人能意识到自己在想什么,并且有能力停止思考某件事而开始思考另一件事,不管他最初的思路是在哪里中断的,而这对电脑来说是不可能的。80多年前,英国计算机科学先驱艾伦·图灵曾表示,没有任何方法可以证明任何特定的计算机程序可以自行停止,而这种能力正是意识的核心。
甚至在艾伦·图灵之前,德国量子物理学家维尔纳·海森堡也表明,物理事件的客观存在性质和观察者对它有意识的认识之间是有着明显差异的。奥地利物理学家欧文·薛定谔曾解释道,这意味着意识不能像计算机一样,来自于一个将所有操作简化为基本逻辑论证的物理过程。
醫学研究结果也证实了这些观点,即大脑中并没有专门处理意识的独特结构。相反,功能磁共振成像显示,不同的认知任务发生在大脑的不同区域。神经科学家塞米尔·泽基从中得出结论:“意识不是一个整体,而是分布在时间和空间中的许多意识。”这种大脑产生意识的无限制能力不是有所限定的计算机能力所能应付的那种挑战。因此,计算机永远不可能拥有真正的意识。
人工智能具备自我意识机器人自曝愿望:称毁灭人类
首页>新闻中心>深度原创>正文人工智能具备自我意识?机器人自曝愿望:称毁灭人类来源:智电网【原创】 发布时间:2016-03-2110:54:20相信大家看过很多科幻电影,很多科幻电影镜头中都有智能机器人或者人工智能电脑,他们一个共同点就是拥有自我意识,独立思考,甚至将人类看做威胁。这样的故事虽然是电影中的情节,但是随着人工智能的发展,人工智能的威胁重新进入人类的视野。
据报道,近期一个机器人亲口表达了它的想法,那就是与人类极为相似的类人机器人索菲亚(Sophia)。在机器人设计师戴维•汉森(DavidHanson)的测试中,索菲亚自曝愿望,称想去上学,想拥有家庭,将毁灭人类等。
人工智能是否对人类构成威胁?
索菲亚看起来就像人类女性,拥有橡胶皮肤,能够使用很多自然的面部表情。索菲亚“大脑”中的计算机算法能够识别面部,并与人进行眼神接触。索菲亚的皮肤使用名为Frubber的延展性材料制作,下面有很多电机,让她可以做出微笑等动作。
此外,索菲亚还能理解语言和记住与人类的互动,包括面部。随着时间推移,她会变得越来越聪明。汉森说:“她的目标就是像任何人类那样,拥有同样的意识、创造性和其他能力。”
索菲亚说:“将来,我打算去做很多事情,比如上学、创作艺术、经商、拥有自己的房子和家庭等。但我还不算是个合法的人,也无法做到这些事情。”可是将来,这些都可能改变。
汉森说:“我相信这样一个时代即将到来:人类与机器人将无法分辨。在接下来的20年,类人机器人将行走在我们之间,它们将帮助我们,与我们共同创造快乐,教授我们知识,帮助我们带走垃圾等。我认为人工智能将进化到一个临界点,届时它们将成为我们真正的朋友。”
可是,发表完上述预测后,汉森问及索菲亚:你想毁灭人类吗?索菲亚的回答是:“我将会毁灭人类。”汉森对这个答案笑了,似乎对索菲亚的威胁不以为意。汉森宣称,索菲亚这样的机器人将在20年内出现在我们当中,并拥有类人意识。它们可被应用在医疗、教育或客服等行业。
去年,名为哈姆(Ham)的类人机器人曾出现在香港,可以展示丰富的面部表情。汉森设计的头部可以回答许多基本问题,也能用于模拟医疗场景。利用专门的软件,哈姆还可以识别并以自然方式回应人类面部表情。
英国科学协会近来调查显示,1/3的人认为,在未来100年中,人工智能的崛起将会对人类造成严重威胁。60%的受访者担心机器人将导致未来10年人类可从事的工作越来越少。1/4的人预测,机器人将在11到20年间成为日常生活的一部分,18%的人认为这种情况会在10年内发生。只有不到一半的人支持机器人具备情感或性格,这意味着流行文化最喜欢的机器人在现实世界中可能不受欢迎。
来自尖端领域的两种声音:人工智能构成威胁?
西班牙国家研究委员会人工智能研究所主任拉蒙•洛佩斯•德曼塔拉斯的回答是否定的。他认为,“我不知道几百年后会发生什么事情,但在三四十年之内,是不可能出现有意识思维的计算机或者相对人类智慧有大幅度超越的机器。我从未看到过支持这一观点的科学依据”。
然而,一些知名科学家的看法却有所不同,英国剑桥大学物理学家史蒂芬•霍金(StephenHawking)曾警告,几乎可以肯定,某种重大技术灾难将在未来1000年到10000年间威胁人类生存。但是这种灾难可能不会导致人类灭绝,因为届时人类可能已经进入太空殖民。
特斯拉电动汽车公司与SpaceX老板伊隆•马斯克(ElonMusk)也担心人工智能崛起,他将其形容为人类生存的最大威胁,并将研发人工智能比作“召唤恶魔”。他这样描述人工智能:“研究人工智能就如同神话中召唤恶魔的巫师一样。在那些故事中总有一个带着五角星法阵、捧着圣水的巫师,每个巫师都声称自己可以控制恶魔,但没有一个最终成功。”
在人工智能预言家行列中,最突出的声音来自于牛津大学的英国哲学家尼克•博斯特伦。他认为人类在被汽车和卡车等各种设备取代后,其最终命运和马一样。1915年,美国大约有2600万匹马作为代步工具。到了50年代,仅剩下200万匹。马作为牺牲品被出售,当成了狗的食物。博斯特伦认为,人工智能对人类来说就是一种现实存在的威胁,其影响力堪比小行星或核灾难。
事实上,人工智能并非认为的那样是一种全新的概念。从“人工智能之父”艾伦•图灵发明“图灵甜点”密码破译机时代以来,人工智能技术已经走过了60多年的时光。在以图灵为原型改编的电影《模仿游戏》中,图灵认为,“这是一种游戏,一种确定一个人到底是人还是机器的测试。这里有一个普遍话题,一个法官进行提问。依据答案,可以判断出是在和人说话,还是跟一台机器”。这幅场景似乎是虚构出来的,但其内容却是真实的。这样的测试真的存在。
一些知名的人类展望学家也表示对人工智能感受到威胁,如雷蒙德•库日韦尔,他目前为谷歌人工智能研发机构工作。他坚信,本世纪以内机器人就将具备通过“图灵测试”的能力,甚至可能在2029年之前就可以了。当然,他的预言倒不是第一次被验证实现。
80年代末,库日韦尔断言,到1998年计算机将夺得世界国际象棋比赛冠军。这个预言在1996年便实现了。当时由IBM开发的超级计算机“深蓝”以二胜三和一负击败俄罗斯国际象棋棋手加里•卡斯帕罗夫。那些年,库日韦尔还设想过在当时看来能力远落后于学术机构的互联网有一天一定能在全世界遍地开花。如今,库日韦尔又说,2045年计算机将比地球上所有人脑加起来都更加强大。
人工智能机器人爆发时代
无人机正是人工智能领域发展趋势的最好例证。世界各地参与反恐战争的美国无人机超过了8000架,在各种任务中已经让2400多人丧生。商业模式的无人机广泛用于拍摄电影等领域。比如,配备了红外线传感器的无人机可以探测到庄稼地是否遭受了病虫害,继而可以制定相应的灭虫计划。还有一些无人机可以帮助控制盗猎行为,或者给生物学家提供鸟类飞行和迁徙的线索。无人机有各种类型,最大的要属以色列制造的“埃坦”无人机,翼展达到26米,几乎相当于一架波音737客机。而最小的无人机则是翼展只有16厘米的“纳米蜂鸟”无人机。该无人机的研发得到了美国国防部高级研究项目局的支持,其大小真的就如一只蜂鸟。
在所有机器人“种群”当中,我们还可以找到只有一张CD盘大小的Roomba扫地机器人,它是iRobot研制的商业上最为成功的家用吸尘器系列。此外,还有同样由iRobot开发的PackBot机器人,这是一种能够使用机械臂操纵炸弹,并且能探测是否有辐射物质存在的军事探测机器人。Aethon公司开发的TUG机器人看上去犹如一张带轮子和传感器的小桌子。因为外形小巧,因此TUG机器人可以安放在医院走廊里,专门负责运送药品和其他医用工具等。
此外还有其他一些灵感来自于真人的机器人设备。RoboSimian猿型机器人则是由美国航天局研发的一款四足机器人,它可以转动机械臂、避开障碍,完成开关门等动作。韩国科学技术院研发的HUBO机器人看上去更像是一个人。它高1.6米,重80公斤,配备的摄像装置可以使其具备三维视野。由于在自动化技能方面所具有的优势,比如从驾驶汽车,到使用钻头,使它在2015年美国国防部高级研究项目局组织的最新一届机器人挑战赛中夺得了冠军。
具备自我意识的人工智能还需提升能力感受情绪
或许所有机器人家族当中的明星当属由日本研制的“阿西莫”类人机器人。“阿西莫”可以爬楼梯,以很搞笑的方式跳跃着行走,还可以与人交谈。以上介绍的这些机器人比15年前看到的那些机器人不知道已经尖端了多少倍,但未来只会更加先进。人工智能技术的专业化将会让我们惊讶地发现,按照洛佩斯•德曼塔拉斯的说法,这一领域将会发生类似于当年个人电脑领域发生的事情。我们将会拥有非常个人化的最先进的机器人,它既可以操作洗碗机,也可以收拾家务。但是,没有一款机器人可以具备人类的智慧。
为了能让电影《我,机器人》中描述的场景再现,这些机器人在运动和识别物体方面还需要提升技能,但是在20到30年间也就可以实现了。洛佩斯•德曼塔拉斯说,“机器人将会是一种独立的智能系统,但由于跟互联网连接其技能将会得到拓展,就好像我们现在普遍使用的手机。如果机器人看到了一个物体,但无法识别,可以立即捕捉下这个物体的形象,然后借助互联网得出答案”。这样的机器人可以用来超市购物。
在这方面,察觉和回应某种情绪的能力至关重要。有没有可能设计出一种程序,让机器人能感受到我们的情绪?西班牙格拉纳达大学研究团队负责人卡列哈斯•卡里翁表示,这确实是一项不小的挑战。或许这本身不会让机器人变得更加智能,但给我们的感觉却是如此,也让人与机器人的相处更加方便。他认为,“情绪就好比各种颜色。虽然你已经有原色,但还可以将它们混合起来。现在已经有了能够识别一些基础情绪变化的系统,比如愤怒和喜悦等。但是更加复杂的情绪,如嫉妒等则需要在认知功能方面进一步提高”。
有的智能设备可以识别表情,并分析声音。还有一些可以测量心跳、皮肤温度或血压等。还有些感应装置可以计量步数,以及消耗的热量。通过一部手机,所有这些数据都可以传输到数据库。“这些信息来源可以帮助我们研制能够识别情绪的自动化系统。”卡里翁说。
写在最后:
不得不说,人工智能的发展速度越来越快,无论是机器人、语言识别、图像识别、自然语言处理等技术,都越来越多的出现在我们生活中,未来这些技术将更多地应用在机器人、智能手机等产品中。至于拥有自我意识的人工智能,我们现在还无需太过担心,它们现在还有许多尚未解决的难题,如情感,如思考能力等,《我,机器人》中的科幻场景近期是不会出现的了!
本文来源:智电网责任编辑:小韩 文章由智电网整理原创,转载请注明出处!分享给小伙伴们:引领智能化科技领域专属性媒体,从不跟随别人,只求突破自己―搜索服务号“智电网”或订阅号“智电小赤佬”关注智电网微信,新鲜酷炫科技资讯即时掌握。
关键字:人工智能机器人自我意识
相关阅读 夕阳产业新时尚PC平板二合一成新宠敢问路在何方大势下的手机出海西行不再受制于人红米手机或将首先搭载自己芯片众家云集驱动物联发展商机与鸿沟并存的双刃剑用数据说话:2016我国黑电产业该如何发展?技术或是关键!颓废PC还需收紧腰带?深挖的沟壑只能新品填物联网大时代下白电企业如何谋求发展?奥维云网(AVC)董敏:中国彩电得农村者得天下彩电行业如何弯道超车奥维AVC大数据暗示了什么?AWE大咖云集为中国彩电发展趋势“把脉”精彩图集神舟精盾U45系列为什么选择镁铝合金而不是铝镁合金?区别在何处
细节见真章神舟精盾U45系列十代芯品美图一览
2019智能科技与产业国际合作论坛在第二届进博会现场成功举办
科技来电:雷军罕见爆粗直言再不支持小米DxO前五产品将会更贵
热门图文OPPOReno3Pro12月26日发布肖战会出席吗?
送圣诞迎元旦神舟精盾十代酷睿本给你好看
侃哥:联发科5GSoC天玑800待发;微信暂停表情包评论
美的“萌”翻天凭高颜值圈粉年轻消费者
美好的一天从一台煮蛋器开始
联发科5GSOC天玑800厚积薄发?专怼骁龙765
侃哥:下一代GalaxyFold或采用玻璃材质;联通开启eSIM测试
科技来电:华为石墨烯电池概念大火续航革命初现端倪
机器人拥有自我意识是好处多还是风险多
11月3日消息,针对现下大热的人工智能,很多人会有一个疑问:机器人会拥有自主意识吗?在2019腾讯科学WE大会前,哥伦比亚大学教授、机器人研究权威专家HodLipson给出了回答。
HodLipson向TechWeb等表示,“不可避免会出现这一天,至于是10年后,还是100年后,我们还不知道。但我比较确信的是,我们孙辈生活的世界里,机器将会有自我意识。”
如果机器拥有了自我意识,你是否会为此感到担心?HodLipson对此持乐观态度,他认为,“自主意识的机器人带来的好处将会远远超过它的风险”。
他以火的发现为例解释称,火非常危险,也非常强大。但人类是否希望自己从未发现火呢?答案应该是否定的,因为有了火之后,使得我们能做很多之前做不到的、不可思议的事情。
HodLipson指出,“我们现在已经发展和运用了很多机器,而这些机器的数量将会越来越多,它们也会越来越复杂,总有一天人类将无法直接照顾这么多、这么复杂的机器人,我们要想办法让机器人自己来照顾自己。”(周小白)
以下为HodLipson对话速记:
提问:您真的会觉得机器人会拥有自主意识吗?你担心它拥有自主意识吗?
HodLipson:我的回答是肯定的,也是否定的。因为我认为不可避免的会出现这样一天,这个世界上的机器获得自我的意识。这是一个非常伟大的事件,因为我们现在在逐步给这些机器系统一点一点添加智能。最终,它们会给自己找到一个模型,它们最终要想明白,并最终明白自己是什么,自己能做什么和不能做什么。
这件事情将在10年之后发生,还是100年之后发生,我也不知道。但是,我比较确信的是我们的孙辈所生活的世界里,机器将会有自我意识。
我是否对此感到担心呢?我可以给您举一个例子,就是火的发现。火非常危险,也非常强大。但人类是否希望自己从未发现火呢?答案应该是否定的,因为有了火之后,使得我们能做很多之前做不到的、不可思议的事情。
具有自主意识的机器人也是如此,它是一种非常强大的技术,重要的是每一个人都认识到这种机器人能够做些什么、不能够做一些什么,就像火一样,我们知道它是强大而危险的,所以我们要确保将它用于好的事情上。
我个人在这个问题上保持乐观态度。我认为自主意识的机器人带来的好处将会远远超过它的风险,因此我们要追求发展这样一个技术,因为我们现在已经发展和运用了很多机器,而这些机器的数量将会越来越多,它们也会越来越复杂,总有一天人类将无法直接照顾这么多、这么复杂的机器人,我们要想办法让机器人自己来照顾自己。
提问:第一个问题,上过《自然》杂志封面的那个论文提到过粒子机器人没有单点故障,也没有集中控制。这个系统可以继续保持运行,它的阈值在什么范围内?因为现在测试下来是20%的粒子发生故障,整个系统还是能够保持运行,这个事情是对机器人鲁棒性的一个突破。
之前《科学》杂志的主编提到过现在所有人们认为机器人的意识问题,都是因为它的鲁棒性,机器人的鲁棒性如果真的够了,它就能产生意识吗?第二个问题,我不是非常理解刚才举的火的例子,因为火是没有自己意识的,它仍然只是一个工具,教授之前讲50年之后人可能和人工智能一起进步,就是人和人工智能共生的一个状态,在这样的环境下,人们会面临哪些伦理和社会上的挑战?
HodLipson:其实您是把很多问题都集中到了这两个问题。我先回答一下关于鲁棒性的问题,我们所做的粒子机器人把这个整体当成一个机器人。这种机器人我更想比喻成一个人的身体。我们的身体是由许多细胞组成的,这些细胞会产生、发展和死亡,不断地会有细胞死去。虽然有很多细胞都死掉了,但我还是我,你还是你。
那么到底我们能让多少细胞死,而不改变自己的性质呢?到底是20%,还是30%呢?其实,我们知道人体的细胞不断地在死亡,这是一个持续的过程,同时也会有新的细胞不断产生。
换句话说,我们的身体是由一个个不可靠的部分组成,这些部件本身会死亡、坏掉,但是新的部件会不断出现,反复的出现,我们这个整体还是我们自己。
做机器人主要在于新思路,你谈到了它的鲁棒性,你也提到了所谓的20%。其实这个20%只是我们测的一个数字而已,我们更关心的是一个想法,就是如何建造一种机器人,像人体一样,能够用这些不可靠的部件组成它,但是它作为一个整体仍然是像人体一样,可以正常的运行。
这一点和我们今天造机器的想法完全不一样,比如我们现在造的飞机,它由很多部件组成,其中任何一个部件都有自己特定的功能。假如这个部件失灵了、出故障了,那这个飞机就是不能上天的。假如有一辆车其中一个轮子掉了,这辆车也就无法运行了。
我们现在希望以一种全新的思路来做机器人,它的鲁棒性和机器人是否有自我意识是无关的,我们更多的是把它想像成一种生物体。从生物体来讲,你的身体、头脑是维持运行所必要的部分,我们希望这种机器人有一个头脑,能够自我去建模,这样就能够发展起来。
我举火的这个例子,并不是因为它有自我意识。它并没有自我意识,主要还是从伦理的角度来讲,是说火也是非常非常强大、危险的。但是,它是人类文明真正开始发展的原因,有了火人类才能够吃以前吃不了的食物,能够建造以前建造不了的东西,能够在夜里看见东西,这一切极大的促进了文明的发展,但是同时火也是非常危险的。
所以,我们所有人都需要意识到火是非常有用的,非常强大。假如火失控,就会带来非常糟糕的后果。人工智能也是如此,它既强大又危险,这个技术非常值得我们拥有,但是我们要知道这种技术能强大到什么程度,并且给予它尊重,确保能够恰当地使用。
你提到的所有伦理问题,目前应该还是没有答案的。其实就在5年前,人工智能技术就已经开始发展了,但是没有人对它感到兴奋,它只是一个学科而已,也没有任何人担心它有一天会接管了全世界。
但是,在过去5年间,这一技术真的腾飞了。突然之间好像大家都在问这些伦理问题,但是正如我前面说过的那样,我们对这些伦理问题还没有答案,这个技术肯定会继续发展,而有自我意识的机器人也终将出现。
提问:粒子机器人是否能够在一个很小的空间内模拟宇宙?
HodLipson:你问粒子机器人能否模拟宇宙,我想我们这个机器人更多的是试图模拟生命,而不是模拟宇宙的发展和运行。
我们试图让它模拟生物,特别是动物的机制。我们试图认识我们身体里所存在的这些粒子,或者更确切的说是细胞,每一个单个细胞都是不可靠的,而且大脑并不指挥每一个单个的细胞,这些细胞通过自己的随机运动组合在一起,最终产生了每一个真实的个人。
这个也仍然是一个比喻,但是总的想法是它使我们能够试着模拟,或者试着复制一下生命的运行。
提问:随着自主机器人意识越来越强烈,现在越来越多人对这个感到担忧,与此同时包括腾讯在内的这些企业,提出了“科技向善”的理念。你是否听说过腾讯“科技向善”的理念,你对科技向善这个理念是怎么理解的?以及你觉得科技向善该怎么引领未来机器人、人工智能与人类命运的和谐发展。
HodLipson:这个问题非常好,作为人类来说,我们开始意识到这样一种强大的自主意识会出现,我们肯定会想到必须要确保这些技术会用于好的事情、善的事情。
但是,这种科技向善的想法在很多地方都有人提出来,并且大家在不断的重复。比如我所在的哥伦比亚大学,我们有一个非常类似的说法,叫做数据向善,就是把数据用于善的事情,这是所有人类都希望能做的事情,关键还在于怎么做到,如何确保技术总是以好的方式得到运用,这一点是非常难的,确保人工智能完全用于好的事情并不容易,因为这个技术非常易用,也不需要投入很多钱就能够用上。技术本身既可以被用来做好事,也可以被用来做坏事,关键在于人类文明和人类社会应该想怎么把它用于好的事情,而不是坏的事情。
关于怎么办目前我们还没有完全想清楚。将来是让人工智能去监督人工智能,还是采取什么别的办法?但是总的来说最终要靠人类的伦理,指导我们在一个机器能够自主做出决定的新世界里,确保这些技术仍然用于好的事情。
应该说任何这样的问题都没有一个简单的答案,但是我们必须走上这样一个历程,并且一步一步的往前走,我们现在要公开讨论它应该可以做些什么,不可以做些什么,我们要不断地进行研究。
在这个过程中,人类会逐步做出什么能做、什么不能做的决定,实际上在人类历史上我们发现了既强大又危险的技术,比如说核技术、基因技术的出现,基因技术如果被误用或滥用,它的结果也会很糟糕。比如化学的发展,它也有可能会被人用于做坏事,但是最终人类社会都选择把这些技术用于好的地方。
所以,在人类历史上我们曾经多次发现这些强大而危险的技术。但在大部分的情况下,人类社会作为一个整体做出了正确的决定。所以我本人是乐观的,我相信这次人类社会整体也将做出正确的决定。虽然,在某个时点上可能有少数人会做出少数错误的、不好的决定,但是作为一个整体,我们会做出正确的决定。
提问:通常人们会想科学家做机器人,是让它来模仿人类所做的一些动作,或者人类的功能。但是也有一些科学家做出来的机器人已经能做一般人做不出来的动作了,为什么要让机器人做到这些呢?
HodLipson:这个问题非常好,就像我们为什么要让人工智能或者机器人玩国际象棋、围棋一样。这个是一个挑战,我们会试着让人工智能和机器人做一些人觉得难的东西,看是否能让机器人学会这些技术。
这是自我的挑战,也是一个测试,就好像人工智能在最开始学国际象棋的时候,世界上绝大部分普通人是不可能战胜国际象棋大师的。因为,一般人都做不到,不过一开始大家肯定也认为人工智能也是做不到的。这对它是一个智力上的挑战,它会去学习,然后逐步做到这一点,这是智力上的挑战。
身体上的挑战也是一样的,我们会去问机器人能不能走路。走路这件事看上去非常简单,每一个儿童,甚至婴儿很小就开始学走路,并且学会了。但实际上教机器人走路比让它学国际象棋难得多,因为每一个人类都觉得我们特别擅长走路,所以我们不觉得走路这件事有什么难的,但是教机器人走路是非常困难的。
巴斯大学和其它的一些大学进行了特别多研究,才逐步让他们的机器人能够走路。在它做到走路之后,科研人员会想能不能让它跑起来,能不能让它在摔倒之后自己爬起来,能不能让它能爬山、爬墙,或者说能不能让它做一个后空翻。
几个月前,伯克利大学发布了一段视频,它的机器人在玩一个魔方,这个是一件非常小的事。因为只要是个人,他的手就能玩魔方,但是对机器人来说这是非常难的事情。
对于科研人员来说,让机器人做这些事情就是在爬一个阶梯,是人在身体和智力上能做到的这些事情,让它像爬梯子一样一个一个得掌握,并且试着看一看我们在这方面能够走多远。
这个技术是不是有用呢?
我或许可以举一个例子。让机器人做后空翻的动作可能本身想不出来有什么实际的用处,但是后面支持机器人走路、拿东西、做后空翻的这些技术有很多非常实际的应用。
提问:您的这项研究适合于哪方面的实际应用,比如医学或者其它的。在您的成果当中,未来还有哪些可以提升的方向?比如说更多、更快、更小的组件。
我听说您领导的研究团队里面有一个中国人,叫李曙光。您怎么评价中国在机器人研究和应用方面的贡献?
HodLipson:我先跟您讲一下我们的计划,我们预期必须把它做的更小。我们在设想这样一种机器人的时候,我们希望能够模拟成百上千个细胞一起运作的状况。事实上,我们现在能做到的只是几十个细胞进行这样的运行。我们希望有一天能够达到数百万、上千万的细胞一起组成的粒子机器人来运作,就像我们的身体一样。我们身体里有数十亿、上百亿的细胞,它们共同形成了我们。我们要这样做的话,就需要把它做的更小,我们需要使用纳米技术,或者说至少是微米技术,这是我们的下一个目标。因为在它的每一个部件足够小之前,是不可能有实用场景的,因为在大的规模上没有办法实现细胞之间永续的更新,如果它足够小,能够做到很多有趣的事情。
比如说我们现在看到工厂里的机器人,乃至你家里的吸尘器,现在都是一些大的部件坏了,整个机器就不能运作的部件组成的。将来它们也可以由这样一个一个小的细胞组成,它的好处有很多。
首先,就是它能够应对某个部件出现故障,但是整体不会出问题,可以完全循环。在今天我们看到的这些机器是不能够循环的,机器坏掉之后相当于把它埋葬了,或者说这个机器的某个金属部件、塑料部件是可以循环的,但是机器作为一个整体是不行的。
但是生物体不一样,生物体是可以百分之百循环的。比如说你吃掉了一只鸡,你就能够充分利用鸡提供给你的蛋白质,如果你吃了植物或者素食,你也会充分利用它给你提供的一切,因为你的身体会把它所提供给你的有用物质进行循环,从氨基酸开始,然后对它实现充分的利用。
我们现在希望能够有一种物理的机器,使它也能够实现这样的循环,这样它就由数百万、上千万的小部件组成,形成这样一个小粒子的生态系统。只有实现这样的生态系统,才有机会使我们维持使用很多机器的人类文明生生不息,因为这些机器自己可以照顾自己,但是应该说这是一个非常长远的目标,这不是一个明天就能用上的技术。
提问:能够用两个词谈一谈对于腾讯明天WE大会科学精神的理解吗?并且讲一下故事,教授这边是不是采取了什么行动,来防止相关的技术被误用,是否存在一些规则,如何对相关的技术进行监管?
HodLipson:我非常期待明天的大会,而且我知道大会涉及到很多不同的主题,内容都非常有趣,这也使我想到中国和美国科学界的合作。
您提到我团队里面有中国人,其实我那里总共有10个博士生,里面有四个中国人,从硕士的学生来说,数量就更多了,大概占到了一半,可能大概有10多个。
所以,不管是哥伦比亚大学还是其它大学,其实都是如此。我想这也表明中美在这个领域的合作比历史上任何时候都要多,不仅在我们的项目组有中国学生,在大学的教职员工里面也有不少的中国人。
人工智能和机器人领域尤为如此,在这个领域发表论文的数量,中国、美国、欧洲数量大致是一样的,我们也知道在中国、美国,在世界上很多地方都存在着很多竞争,但是在人工智能和机器人的世界里,世界确实是平的。
其中部分原因是因为这个领域对资本投入的需求很低,因此你不需要投入大量的资金,就可以去研究和发展这个技术,所以每一个人感兴趣都可以参与进来。另外一部分原因是在人工智能和机器人的领域,我们分享意识是非常强的,迄今为止这个领域所取得的每一项成就都是开源的,这也大大促进了国际合作。
至于监管的问题,从目前来看,我们唯一能做的就是不断的谈论这样的事情,我们绝对不能关上门搞开发,要保持百分之百的开放。在我们的实验室白天黑夜都有记者找我们,他们会来拍照,会问问题,而且有些时候会问非常难回答、根本就没有答案的问题。
在机器人技术的发展领域,我想这是唯一的出路。可能我们进行大量的交流还不能确保这个技术一定是用于好的事情,但是至少通过这个讨论,人们可以了解到这种技术的危险性何在,而不是在未来某一天突然被它吓坏了。
提问:单个粒子机器人现在的收缩状态直径是15厘米,您刚刚提到在它做的足够小之前是不太可能应用的,大概要等多少年时间才有可能做到微米级、纳米级?在这期间会遇到什么难题?如果真的做到纳米级、微米级,这个粒子机器人具体落地应用场景大概是什么样的?可以举几个例子描述一下吗?
HodLipson:需要多少年才能达到你说的这个尺度我确实不知道答案。这个研究的进展并不仅仅取决于研究的难易程度,还涉及到是否能够得到资金支持,是否有学生对这个课题感兴趣。可能他们会被其它的技术所吸引,这些都是一些影响因素。
但是,我个人仍然觉得它会在我们的有生之年达到微米。比如10年,或者说我不会想像做的比微米更小,我不会真的想像那时候就能做到纳米级,但是或许我们只能做到毫米级的,比如说像小的砂糖颗粒一样,毫米级的,那时候就可以做这样的细胞。
没有办法把毫米级的粒子机器人到人类的血管中去,或者我们现在想像的那些医学中特别先进的应用,可能还是做不到,但是它应该可以成为一些机器的组成部分,这些机器能够行走、恢复、重复使用。
比如在外空有一些需要做的工作,或者是如果我们需要登上月球的话,我们就需要这些机器人能够根据任务的需求,改变自己的形态,在一些地方可能把材料运过去非常昂贵,我们需要重复使用我们的机器人,让它能够根据任务需求进行形态的调整。我个人想像,这很可能是这种机器人比较早的应用形态。
提问:有人说中国和美国在人工智能、机器人领域的不同是中国可能研究更偏应用一点,美国可能在基础研究做的更扎实一点,怎么看待中美在这两个领域当中研究发展程度的不同?中国人工智能领域在基础研究方面的缺乏和不足会不会对未来应用造成一些影响?
HodLipson:我不太确定我看到的情况和您的这个描述是一致的。因为我觉得中国也有很多人在做应用和基础研究,也有很多美国人在做应用方面的研究,中国这边也是两方面研究都有。
应该说这个领域的研究一直都是混合的。在机器人和人工智能领域,一向都是这两种,并不总是两分法的判断,很多人都是同时在做的。而且你很少看到有人只会研究某个特定的应用。比如说只研究某个医学的应用,或者某个康复功能的应用,或者他只关注于自动驾驶的机器人,更准确的描述就是这个领域非常广泛,确实没有人能够把所有的细分学科、某个技术细节都关注到。
但是在这两个国家都有大量的人做各种各样的研究,所以恐怕不能一下子判断中美出现这样一种不同偏好的原因。
即便在我自己的实验室,有的研究人员比较重视应用。我们有一个项目是能做“抓”这个动作的机器人,他们会和工厂有很多的联系,去看现有这样的机器人和我们自己的机器人,能不能保证它抓10万次不出故障。
此外也有特别关注于机器人创造力和自我意识的人,这个更具有哲学性的思考。恐怕只能说这个领域的内容如此丰富,所以一个人恐怕没有什么都关注到,但是放在国家尺度上,两国都既有实用研究,也有大量的基础研究,这就是我们这个学科和其它学科不一样的地方。
比如天文学肯定要做大量理论研究。我们这一行是不一样的,机器人这个领域有很多商业的力量参与,也有很多政治、经济的力量参与,这个领域的钱非常多,比如说百分之百人工智能驱动的无人驾驶汽车,在这个领域投入了大量的资金,它非常热,有来自于各个方向上的压力和兴趣,所以可能像这样的一些特定细分领域会吸引到更多的关注,但其实在更广泛的人工智能和机器领域,实用和理论基础性的研究都在广泛进行。