“人工智能,有必要像人类一样吗”
原创学术头条学术头条
机器会思考吗?人工智能可以像人类一样聪明吗?
一项最新研究表明,人工智能或许可以做到了。
在一项非语言图灵测试中,意大利技术研究院AgnieszkaWykowska教授领衔的研究团队发现,类人行为变异性(Behavioralvariability)可以模糊人与机器之间的区别,即可以帮助机器人看起来更像人类。
具体来说,他们的人工智能程序在与人类队友玩有关形状和颜色匹配的游戏时,模拟了人类反应时间的行为变异性,通过了非语言图灵测试。
相关研究论文以“Human-likebehavioralvariabilityblursthedistinctionbetweenahumanandamachineinanonverbalTuringtest”为题,已发表在科学期刊ScienceRobotics上。
研究团队表示,这一工作可以为未来的机器人设计提供指导,赋予机器人具有人类可以感知的类似人类的行为。
对于这一研究,林雪平大学认知系统教授TomZiemke和博士后研究员SamThellman认为,研究结果“模糊了人与机器之间的区别”,为人们对人类社会认知的科学理解等方面做出了非常有价值的贡献。
但是,“人类相似性不一定是人工智能和机器人技术发展的理想目标,让人工智能不那么像人类可能是一种更加明智的做法。”
通过图灵测试
1950年,“计算机科学与人工智能之父”艾伦·图灵(AlanTuring)提出了一种用于判定机器是否具有智能的测试方法,即图灵测试。
图灵测试的关键思想是,有关机器思维和智能可能性的复杂问题,可以通过测试人类是否能够分辨出他们是在与另一个人还是与一台机器在交互来验证。
如今,图灵测试被科学家用来评估应该在人工智能体上实现什么样的行为特征,才能使人类不可能将计算机程序和人类行为区分开。
人工智能先驱司马贺(HerbertSimon)就曾表示:“如果程序表现出的行为类似于人类表现出来的,那我们就称它们是智能的。”类似地,ElaineRich将人工智能定义为“研究如何让计算机去做目前人做得更好的事情”。
而非语言图灵测试,是图灵测试的一种形式。对于人工智能来说,通过非语言图灵测试并不容易,因为它们在检测和区分其他人(物体)的微妙行为特征方面,表现得并不像人类那样熟练。
那么,一个类人机器人是否能够通过非语言图灵测试,在其物理行为中体现人类特征呢?
在非语言图灵测试中,研究团队试图搞清楚能否通过编程让人工智能在类似于人类行为变异的范围内改变反应时间,从而被视为人类。为了做到这一点,他们将人类和机器人安排在一个屏幕上有不同颜色、形状的房间里。
图|机器人与人类共同执行任务。(来源:该论文)
当形状或颜色改变时,参与者就会按下按钮,而机器人则通过点击屏幕上显示的相反颜色或形状来响应这一信号。
图|通过按下按钮来响应(来源:该论文)
在测试过程中,机器人有时由人类远程控制,有时由被训练模仿行为变异性的人工智能控制。
图|参与者被要求判断机器人行为是预先编程的还是由人类控制的。(来源:该论文)
结果表明,参与者可以很容易地分辨出机器人何时是被另一个人操作的。
但是,当机器人被人工智能操作时,参与者猜错的概率却超过了50%。
图|图灵测试的平均准确率。(来源:该论文)
这就意味着,他们的人工智能通过了非语言图灵测试。
但是,研究人员也表示,类人行为的可变性可能只是通过实体人工智能的非语言图灵测试的一个必要不充分条件,因为它在人类环境中也可以表现出来。
人工智能,有必要像人类一样吗?
长期以来,人工智能研究一直将人类相似性作为目标和衡量标准,Wykowska团队的研究证明,行为变异性或许可以用来让机器人更像人类。
Ziemke等人却认为让人工智能不那么像人类可能是一种更加明智的做法,并以自动驾驶汽车和聊天机器人两个案例做了阐述。
比如,当你在马路上准备穿过人行横道时,看到一辆汽车正在接近你,从远处看,你可能无法判断它是否是一辆自动驾驶汽车,所以你只能根据汽车的行为来判断。
(来源:Pixabay)
但是,即使你看到有人坐在方向盘前面,你也不能确定这个人是在主动控制车辆,还是仅仅在监控车辆的行驶操作。
“这对交通安全有着非常重要的影响,如果自动驾驶汽车不能向其他人表明它是否处于自动驾驶模式,可能就会导致不安全的人机互动。”
也许有些人会说,理想情况下,你并不需要知道一辆车是不是自动驾驶,因为从长远来看,自动驾驶汽车可能比人类更擅长驾驶。但是,目前而言,人们对自动驾驶汽车的信任还远远不够。
聊天机器人,则是更接近图灵最初测试的现实场景。许多公司在他们的在线客户服务中使用聊天机器人,其中的对话话题和互动方式相对有限。在这种情况下,聊天机器人通常或多或少与人类没有区别。
(来源:Pixabay)
那么,问题就来了,企业是否应该将聊天机器人的非人类身份告诉客户呢?一旦告诉了,往往会导致消费者产生负面反应,比如信任下降。
正如上述案例所说明的那样,虽然从工程学的角度来看,类人行为可能是一项令人印象深刻的成就,但人机的不可区分性却带来了明显的心理、伦理和法律问题。
一方面,与这些系统交互的人必须知道他们所交互的内容的性质,以避免欺骗。以聊天机器人为例,美国加州自2018年起就制定了聊天机器人信息披露法,明确披露是一项严格的要求。
另一方面,还有比聊天机器人和人类客服更无法区分的例子。例如,当涉及到自动驾驶时,自动驾驶汽车和其他道路用户之间的交互并没有同样明确的起点和终点,它们通常不是一对一的,而且它们有一定的实时约束。
因此,问题在于,关于自动驾驶汽车的身份和能力,应该在何时、以何种方式来传达。
此外,完全自动化的汽车可能还需要几十年的时间才能出现。因此,在可预见的未来,混合交通和不同程度的部分自动化可能会成为现实。
关于自动驾驶汽车可能需要以什么样的外部接口来与人交流,已有很多研究。然而,人们对于儿童、残疾人等弱势道路使用者实际上能够和愿意应对的复杂性,还知之甚少。
因此,上述的一般规则,即“与这样的系统交互的人必须被告知交互对象的性质”,可能只有在更明确的情况下才有可能遵循。
同样,这一矛盾心理也反映在社交机器人研究的讨论中:鉴于人类倾向于将精神状态拟人化并赋予其类似人类的属性,许多研究人员旨在让机器人在外观和行为上更像人类,这样它们就可以或多或少地以类似人类的方式进行互动。
然而,也有人认为,机器人应该很容易被识别为机器,以避免过度拟人化的属性和不切实际的期望。
“因此,更明智的做法可能是利用这些发现让机器人变得不那么像人类。”
在人工智能的早期,模仿人类可能是一个业内的共同目标,“但在人工智能已经成为人们日常生活的一部分的今天,我们至少需要思考,在什么方向努力实现类似人类的人工智能才真正有意义”。
参考链接:
https://www.science.org/doi/10.1126/scirobotics.abo1241
https://www.science.org/doi/10.1126/scirobotics.add0641
原标题:《“人工智能,有必要像人类一样吗?”》
阅读原文
科学家正开发像人类一样会“思考”的人工智能
创造类似人类的人工智能不仅仅是模仿人类的行为--技术也必须能够像人类一样处理信息,或"思考",如果它要被完全依赖的话。由格拉斯哥大学心理学和神经科学学院领导的发表在《模式》杂志上的新研究,使用3D建模来分析深度神经网络处理信息的方式,也就是更广泛的机器学习家族的一部分,以可视化它们的信息处理如何与人类相匹配。
人们希望这项新工作将为创造更可靠的人工智能技术铺平道路,这种技术将像人类一样处理信息,并出现我们可以理解和预测的错误。人工智能发展仍然面临的挑战之一是如何更好地理解机器的思维过程,以及它是否与人类处理信息的方式相匹配,以确保准确性。深度神经网络经常被认为是目前人类决策行为的最佳模型,在一些任务中达到甚至超过人类的表现。然而,即使是欺骗性的简单视觉辨别任务,与人类相比,人工智能模型也会显示出明显的不一致和错误。
目前,深度神经网络技术被用于人脸识别等应用,虽然它在这些领域非常成功,但科学家们仍然没有完全理解这些网络是如何处理信息的,因此何时可能出现错误。
在这项新的研究中,研究小组通过对深度神经网络得到的视觉刺激进行建模,以多种方式进行转换,从而解决了这一问题,他们可以通过处理人类和人工智能模型之间类似的信息来证明识别的相似性。
该研究的资深作者、格拉斯哥大学神经科学与技术研究所所长PhilippeSchyns教授说。"在建立行为"像"人类的人工智能模型时,例如,只要看到一个人的脸,就能像人类一样识别出来,我们必须确保人工智能模型使用与另一个人相同的信息来识别它。如果人工智能不这样做,我们可能会有这样的错觉,即该系统的工作方式与人类一样,但随后发现它在一些新的或未经测试的情况下会出错。"
研究人员使用了一系列可修改的3D面孔,并要求人类对这些随机生成的面孔与四个熟悉身份的相似性进行评分。然后他们用这些信息来测试深度神经网络是否出于同样的原因做出了同样的评价--不仅测试人类和人工智能是否做出了同样的决定,而且还测试它是否基于同样的信息。研究人员希望这项工作将为更可靠的人工智能技术铺平道路,使其行为更像人类,并减少不可预知的错误。
能不能让机器像人类一样思考
©果壳网·京ICP备09043258号·京网文[2018]6282-492号·新出发京零字第朝200003号·京公网安备11010502007133号违法和不良信息举报邮箱:jubao@guokr.com·举报电话:17310593603·网上有害信息举报专区·未成年人专项举报邮箱未成年人专项举报热线:15313123670
未来人工智能是否会像人类一样,会思考、会学习
但不同的时代、不同的人对这种“复杂工作”的理解是不同的。
2017年12月,人工智能入选“2017年度中国媒体十大流行语”。
从目前的人工智能的发展来看,我们可以把当下的人工智能分成三个流派来进行介绍。
01符号学派(计算机学派)
这个学派把“智能”理解为“会思考”,所以符号学派通过计算机程序,把推理的原则,思考的逻辑通过编程语言告诉计算机,最终让机器按原则与逻辑进行计算,得到行动的指南。
机器与人的对弈
02联接学派(生理学派)
这个学派把“智能”理解为“会学习”,所在他们认为要让机器模仿人的学习,但目前看来,想让机器真正能学起来,学好太难了。
神经控制系统
03控制学派
控制论是人工智能的另一个学派,他们认为“反馈”和“前馈”都是通过接受信息进行调整的。所以,他们认为,如果机器能把感知、决策和执行统一起来,就不用人来管了。
控制理论采用了信号=信息,感知=认知的函数与逻辑。
当下第一代人工智能打开了感性知识进入符号推理系统的大门。
虽然感性知识很难用语言来表达,但在大数据背景下,我们还是取得了很大的突破。
从图像到语义的感知
所以,当下的人工智能跟大数据紧密相关联。
04未来的第四条路
但这个世界是变化的,大数据也不是万能的。
而且在某种意义上来看,大数据未来就是个伪命题,因为不管你是什么样的数据,都只是统计分析出来的结论,而这个世界是万变的。许多时候统计数据也仅仅只能是参考,未来的变化与统计结论不会完全相符,不确定性才是未来的真实可能。
只有抛开当下的大数据,而能自感知世界的时候,人工智能才能真正成为会思考,会学习,能决策的智能。
所以未来的人工智能,应该是在虚拟现实,仿生仿真系统等方面取得突破,才有可能真正能让人工智能“会思考”“会学习”“能决策”,变成真正的人工智能。
关于职场的任何问题,欢迎在评论区留言提问,作为三十年的职场老兵,都会分享给您!
尚德说管理,传播职场正能量,分享职场故事、职场技能、职场应对,您的关注是我们的动力,您的问题是我们的方向!原创不容易,请点个赞,加个关注!返回搜狐,查看更多
人工智能是否会像人类一样思考你希望是怎么样的
同时,我认为过分的担忧是没有必要,原因有两点。
一是具备人性化思维的人工智能依旧不能代替人类。现有的技术水平下,智能机器没有自主目的、不会反思、无法进行因果性思考,显然不具备人类心灵的能力。人工智能的升级是由人类工程师不断研发改进完成的,其表现出色是基于人类背后的研究与智慧。就例如自动驾驶实现确实依赖于人工智能,但是面对复杂路面和事故,人工智能往往存在缺陷,比如近年来谷歌自动驾驶汽车频频发生交通事故,而人类会发挥应急应变能力来应对。
二是人工智能虽然具有人性化思维,但是其发展总体而言是可控的。随着人工智能人性化思维的发展,我们也已经意识到要重视其管理。近期国家发布了人工智能的管理原则,要求人工智能研发者,也有使用者、管理者具有高度的社会责任感,严格遵守法律法规、伦理道德。在这个基础上建立人工智能问责机制,明确责任,防范利用人工智能进行非法活动。
人工智能产业应用型人才的摇篮
(智达人工智能学院--您身边的AI专家)因此,对于人工智能我们不妨以一种更加开放的态度去看待它。要加快人工智能的技术革新,鼓励跨学科、跨领域的交流合作,推动科研机构、社会组织、公众在人工智能发展与治理中的协调互动。另一方面,加大对于具备人性化思维人工智能的管理,充分保障个人的知情权和选择权的同时,在个人信息的收集、存储、处理、使用等各环节应设置边界,建立规范,禁止滥用、恶用。
免责声明:
1、本搜狐号所发表内容均来源于网络搜集,版权归原出处所有。如有侵权,请与后台联系,做删除处理。返回搜狐,查看更多