又一次,人工智能战胜人类……
美国麻省理工学院科研团队19日宣布,其开发的人工智能程序“深度角色”(DeepRole)在一个类似“杀人游戏”或“狼人杀”的在线游戏中胜过人类,成为首个在玩家角色和动机不明的的多玩家游戏中战胜人类玩家的人工智能程序。
研究人员让“深度角色”参与了超过4000轮在线桌游“抵抗组织:阿瓦隆”。在这个游戏中,玩家通过游戏进程推测出其他玩家的身份,同时掩藏自己的身份。结果,不论作为“好人”还是“坏人”,“深度角色”都比人类玩家表现更加出色。
研究显示,通过在算法中使用“演绎推理”,“深度角色”根据观察到的部分行为,推断某一玩家是敌是友,快速学习应该与谁结盟从而获得胜利。
这不是人工智能第一次在游戏中战胜人类。
早在2016年3月,谷歌旗下公司“深层思维”公司开发的人工智能程序“阿尔法围棋”就与围棋世界冠军李世石对弈,并以4比1战胜李世石。
去年12月至今年1月,“深层思维”的另一个人工智能程序“阿尔法星”在经典即时战略电脑游戏《星际争霸2》中,与高水平人类职业选手先后举行了11场比赛,以10比1击败人类选手。
只有在1月24日举行的现场比赛中,“阿尔法星”由于游戏视角受限,人类选手才勉强赢下一场。
与围棋棋盘上所有棋子都对双方可见不同,《星际争霸2》中有“战争迷雾”,一方需要猜测和侦察对方的行动,属于“不完美信息博弈”,并且要求人工智能必须实时做出反应。
“深层思维”公司表示,“阿尔法星”获胜,一个重要基础是它使用了深度神经网络,研究人员通过监督学习和强化学习的方式,直接利用游戏的原始数据来训练,以模仿学习的思路,让模型快速学到高水平人类玩家在游戏中使用的策略和操作。
今年7月,美国卡内基-梅隆大学宣布,该校和脸书公司合作开发的人工智能Pluribus在六人桌德州扑克比赛中击败多名世界顶尖选手,突破了人工智能仅能在国际象棋和围棋等二人游戏中战胜人类的局限。
当时,Pluribus与13名德州扑克高手进行了1万手不限注对局的六人桌比赛,每次比赛中由机器对5名人类选手,结果机器取得胜利。
在比赛中,Pluribus会让自己变得难以预测。例如常规打法是在牌最好的时候押注,但这很快会被对手识破,因此它会“耍点心眼”,不按常理出牌。分析显示,它会做出一些多数人类玩家都认为不好的决策,这在客观上也迷惑了对手。
不过,以前的这些游戏中,人工智能从一开始就知道“谁是敌人、谁是朋友”。相比之下,“深度角色”所面对的情况更为复杂,需要根据观察作出自己的判断。
目前,人工智能的技能仍有提升空间,语言能力将是下一个前沿。在游戏中,人类玩家会说谎,这需要更复杂的交流技巧。只有掌握表达技巧后,人工智能才能参与那些需要对其他玩家进行劝说的复杂社交推理游戏。
下赢围棋、打赢游戏,能给人工智能的发展带来什么呢?
研究人员说,在游戏中训练人工智能,有助于人类积累更多经验,最终设计出能够应对现实生活中复杂问题的程序,从而帮助机器人更好理解人类、向人类学习并与人类共事。
-END-
当AI在辩论场上战胜人类时,我们应该感到悲哀
当AI在辩论场上战胜人类,我们应该感到悲哀。首先我们要明白,AI原意指的是人工智能(ArtificialIntelligence),它是研究、开发用于模拟、延伸和扩展人的智能的理论、方法、技术及应用系统的一门新的技术科学。在本题中特指人工智能领域的应用成果。
下面我们需要明确两个前提,首先,能在辩论场上战胜人类的AI是怎样一个概念的AI,如果AI具备辩论场上的利用语言,观点,思想,逻辑,情怀进行与人类的交锋,这已经超出了单纯的利用大量数据进行整合分析以及根属性切割的基础语言处理范畴。
这已经上升到理解诸如爱恨情仇,公平正义,人生苦旅,文化共鸣之类的东西,AI能做到如此,就证明他可以开始走“心”了。
而一旦他有“心”,它不仅能比较利弊,权衡好坏,同时能理解辩论的价值不在于争对错,分高下,而能在常识的边境上更进一步,在于能否打动人心,在这一程度上,我们可以认为这个时候的AI已经能区别于野蛮人,是一个现代的文明人,也就是说,人类通过生殖以外的方式,创造了一个新的意义上的物种。
其次,人类研制AI的初心是利用这一智能化的工具,使人类从部分复杂、重复的工作中解放出来,所以,对于人类而言,AI从根源到发展目标都离不开工具性质。
电动汽车公司特斯拉、商业太空飞行公司SpaceX首席执行官埃隆·马斯克(ElonMusk)不是人工智能的坚定拥护者,相反他称后者为“人类生存的最大威胁。”马斯克警告人工智能存在的巨大威胁,呼吁对人工智能加强监管,以确保“我们不会做蠢事”。参加麻省理工学院航空与航天学院百年研讨会时表示:“如果让我猜人类最大生存威胁,我认为可能是人工智能。因此我们需要对人工智能保持万分警惕,研究人工智能如同在召唤恶魔。”霍金在接受英国广播公司采访时表示:“我们已经拥有原始形式的人工智能,而且已经证明非常有用。但我认为人工智能的完全发展会导致人类的终结”“一旦经过人类的开发,人工智能将会自行发展,以加速度重新设计自己。”当AI在辩论场上战胜人类时,我们应该感到悲哀的理由是,当人类在辩论场上被AI击败,这说明人类制造出了一个能力与智慧甚高于自己的物种。
而这个物种一开始创造的初心仅仅是工具化利用,这时,我们自身种群的前途与未来陷于不确定的泥淖之中,因为这时候的AI作为一种高级智能体,他也有生存和发展的需求。
人类与其在同一空间中生存,资源是一定的,因而到最终不可避免地会产生不可调和的资源争夺矛盾,面对智慧及能力远高于我们的AI,人类将有可能将失去还手之力。
正如试爆原子弹成功后,原子弹之父奥本海默懊悔的叹息一般;“人类制造出一种毁灭性的武器,这无疑打开了一个潘多拉魔盒”他后悔不该制造楚原子弹,而当人类在辩论场上被AI击败时我们已经打开了潘多拉魔盒,人类的前途与命运将从此陷入不确定之中,更大的可能时“AI为刀俎,我为鱼肉”的场面。
"Aggressive,Greedy"Google用这些词来形容AI。GoogleDeepmind的一项实验或许能够为各执一词的双方都带来些新的思考,Google创建了一个简单的名为“摘苹果”的游戏:参与游戏的两个AI玩家拥有激光武器,且接受的指令为“尽可能多地采摘苹果”,研究者的目的是想知道为了完成任务,游戏中的AI是会协作,还是会互相攻击;游戏中两位AI玩家都可以使用激光武器干扰对手的任务进程;研究发现,当苹果数量充足时,AI玩家不屑于使用激光武器,但是,当苹果数量骤减时,它们会频繁地使用激光武器;最终发现不论苹果多寡,执行复杂策略能力越强的AI玩家倾向于更多地使用武器攻击对方而不是合作(博弈论:囚徒困境)。Google发现,更高级的人工智能更富侵略性或者更好斗。亲手将自身以及种群的未来推向深渊,而我们本来早就意识到这一点,而却放任其发展,难道这样的视而不见,不作为,且无法承担后果的行为,我们难道不应该感到悲哀吗?
这也是本文判断应该悲哀与否的标准是,我们对可预知的风险有无进行干预和作为或者对后果有无干预的能力。
但是我们并不是在反对发展人工智能,我们不可否认AI是这一时代的标志性科技成就,但发展与否不能光看利,还要时刻思考以后可能存在的风险。我们要时刻强调当AI在辩论场上战胜人类时,我们应该感到悲哀,是来告诉大家,要时刻了解你做做的事情可能会带来的最严重的后果,这样我们才能在过程中时刻保持警惕,谨防错漏的发生。
人工智能的成就像达摩克利斯之剑一样悬在人类头上,我们可以对所取得的成果感到开心,但更应时刻感到悲哀,因为这种悲哀的情绪使我们在发展时更冷静、更谨慎,更在意去把握那个度,在每一个阶段每一个过程都给自己或者说人类,留一条后路,留一个后手,这也就是我们今天所说的我们应该感到悲哀的最终的意义与价值!
人类和机器人打了一场辩论赛,结果IBM的AI完胜人类
▲图左为NoaOvadia,图右为DanZafrir
在比赛中,ProjectDebater参与了两个辩论主题,即“政府是否应该资助太空探索”和“远程医疗是否应该在医疗保健中发挥更大作用”。IBM公司希望确保人工智能系统能在不知道将研究什么的情况下进行辩论,因此ProjectDebater在辩论前并不知道论题。
就“政府是否应资助太空探索”的论题,ProjectDebater持正方,NoaOvadia持反方。双方随后发布了四分钟开幕词、四分钟反驳和两分钟论证总结。在每个部分之间,ProjectDebater听取了人类对手的四分钟开场白,解析了这些数据,并创建了一个突出显示并试图驳斥人类对手所提出的信息的论据。这令人难以置信,因为它不仅要理解单词,还要理解这些单词的背景。鹦鹉学舌般复述维基百科条目很容易做到,但获取数据并创建一个不仅基于原始数据而且还考虑到刚才听到的叙述的内容,却十分困难。
ProjectDebater提出一个开放性观点,即空间探索有益于人类,因为空间探索不仅有助于推动科学发现,还能激励年轻人突破思考的壁垒。NoaOvadia则认为诸如地球科学研究之类的项目有更值得获得政府补贴。在听取了Noa的论点后,ProjectDebater发表了反驳言论,认为太空探索带来的潜在技术和经济利益超过其他政府支出。
在双方总结陈词后,一项快速调查显示,大多数观众认为ProjectDebater比人类的论述更能丰富他们的知识。
在这次辩论过程中,AI系统确实也出了些差错,并做出了一些疯狂的断言,比如它认为太空探索“比更好的道路、更好的学校或更好的医疗保健更重要”,或者在辩论过程中随机地说出“ScottPelley画外音”,这似乎是参考了哥伦比亚广播公司(CBS)新闻和60分钟(60Minutes)记者的言论。
ChrisReed是论证技术中心(CenterforArgumentTechnology)的主任,负责的是一个探索会话式人工智能的学术团队,并没有参与ProjectDebater项目。应IBM的邀请,Reed在周一的第一次演出中观看了ProjectDebater的表现,并表示就像在看“如此多的难题聚集在一起”,包括坚持自己论点的能力、语法错误的欠缺以及在做出决定之前能够预测和反驳其反对者的论点等问题。
“争论和辩论,本质上是驱动科学进程的引擎,描述了大多数政治论坛发生的事情,甚至描绘了现代宗教的大多数概念。”Reed说,“论证是人类的一个决定性特征,如果我们的机器能够传达其中的一部分,那么我认为这意味着一件非常重要的事情正在发生改变。”从文化上来看,辩论的起源不在于冲突和竞争,而在于民主和讨论。辩论丰富了决策制定过程,帮助人们权衡新思想和新理念的利弊。它处于文明社会的核心。我们辩论的不仅是为了让别人相信我们自己的观点,而且也是为了理解和学习彼此的观点。
试想一下,一个与专业人类辩论家交流的AI系统听取了他的观点,并以令人信服的方式提出了自己的无脚本推论,说服听众思考其在有争议的话题上的立场,这说明AI系统可以像人类一样去理解意见并有针对性地给予自己的观点。未来,相信机器能够通过帮助人类做出许多重要决定。
之后,ProjectDebater与另一名以色列辩论专家DanZafrir之间进行了第二次辩论,对“应该增加对远程医疗的使用”的论题持反对意见。
此次辩论有四十名成员参与投票,ProjectDebater比DanZafrir多得9票,成功赢得比赛。
在辩论中,ProjectDebater能够引用阿拉伯联合酋长国的一系列资料以及德国经济事务部长的报告,获得太空探索所能提供的就业数量等有效数据。但是,为了避免犯引用和语言逻辑方面的错误,ProjectDebater没有直接引用其对手的论述。
“无偏见”的辩论机器
根据IBM研究人员NoamSlonim和RanitAharonov的说法,尽管人类辩论机器是对该技术的有趣展示,但ProjectDebater的真正力量将是其展现无偏见论述的能力。
▲图左为RanitAharonov,图右为NoamSlonim
我们生活在一个被情绪和偏见染上色彩的世界中,难免看问题的角度不够真实与客观。IBM表示,世界充满了错误的信息和肤浅的想法,片面的、被篡改的叙事的兴起正在挑战社会和互联网平台。AI在语言和推理的新发展可以帮助提供多样的、消息灵通的观点,而ProjectDebater推动AI的前沿发展,促进智慧辩论,帮助人们建立充分知情的论点并做出更好的决策。
ProjectDebater可以帮助公司和政府透过我们生活经历中的喧嚣提取出一些本质的东西,并产生大多数公正的结论。当然,它所提供的数据集是基于人类的写作作品,而这些数据仍然会存在作者的情感与偏见。
虽然ProjectDebater的目标是一个没有偏见的机器,但在辩论期间,它还是出现疑似带有偏见的表现。在反驳人类辩手DanZafrir关于远程医疗扩张的论题时,该系统声称,Zafrir在开幕声明中并没有说出有关远程医疗使用增加的事实。换句话说,它认为Zafrir是个骗子。
当被问及ProjectDebater这一表现时,IBM研究人员NoamSlonim表示,在反驳期间,该系统有一个置信度阈值。如果感觉非常自信,它会创建一个更复杂的陈述;如果感觉不那么自信,那么陈述就不那么令人印象深刻。因此,ProjectDebater对反驳意见不是很有信心,所以它基本上把Zafrir当成一个骗子。有趣的是,这大概是这个系统整个晚上做的最人性化的事情。
构建新AI系统困难重重
在此之前,人工智能可以对关键词搜索回复简单的问题或要求,比如“一升多少盎司?”或者“致电妈妈”,这为人们日常生活提供极大便利。ProjectDebater则开始探索新的领域:吸收了大量不同的信息和观点,帮助人们建立有说服力的论点并做出明智的决定。
构建系统是一项非常困难和复杂的挑战。Slonim说,为了使ProjectDebater成为可能,研究人员开发了数十篇研究论文中记载的许多创新技术。虽然准备辩论和反驳或理解对手的论点可能需要大量的技术,但辩论者的大部分对话仍然可以直接从文章中提取出来。
▲图为研究人员NoamSlonim和ProjectDebater机器的合影
过去六年来,IBM以色列海法实验室领导的全球IBM研究团队赋予了ProjectDebater三种功能,每种功能都在AI方面开辟了新的天地:首先是数据驱动的语音编写和交付功能;其次,听力理解能够识别隐藏在人类连续冗长的自然语音中的关键主张,并构建有意义的反驳;第三,系统的模拟人类困境,基于一个独特的知识图谱,提炼出原则性的论点。
辩论的形式为这些核心能力提供了理想的测试基础。辩论规则源于人类的讨论文化,论证的内核往往是内在的主观的。ProjectDebater必须适应人的理性和思考逻辑,并提出人们可以理解和接受的论点。在辩论中,人工智能必须学会在凌乱的非结构化人类世界中进行导航和检索,而不是像在棋盘游戏中那样使用预先定义的规则。
与BigBlue在国际象棋中打败国际象棋大师GaryKasparov、DeepMind的AlphaGo击败世界顶级围棋选手不同,辩论比其他比赛更加细致,与会者通过投票来决定本场比赛的最佳辩手,而人工智能通常拥有胜过人类丰富观众知识的能力,RanitAharanov如是说。
结语:ProjectDebater有助于人类做出明智的决定
ProjectDebater让我们更接近人工智能的一个巨大界限:掌握语言。它是IBM一系列主要AI创新产品中的最新产品,其它产品还包括1997年获得国际象棋世界冠军GarryKasparov的IBM深海“DeepBlue”,以及2011年在Jeopardy上击败人类冠军的超级智能系统沃森(Watson)。
尽管ProjectDebater的工作还远远没有完成,它有时会像人一样犯错。但在不远的将来,它很有可能帮助解决数千个复杂的人类决策。例如,帮助收集和整理某个金融事实的相关材料,或提出与公共政策有关的赞成和反对的论点。由于不经常受到人类主观意识和偏见的影响,ProjectDebater提出的观点可能会贴近事实。
ProjectDebater将扩展沃森的功能,目前数十家公司正在使用沃森的功能挖掘大量内部数据集以获得新的业务洞察力。该系统已经使用了WatsonSpeechtoTextAPI,并将有助于增强沃森的高级语言和对话功能。未来,它的基础技术也将在IBM云平台和IBM沃森中商业化。
这对AI来说是一个非常积极的发展。我们可以使这种变革性技术更加透明和可解释,这样我们就越能信任它;而我们越能信任它,它就越能帮助我们在日益复杂的世界中做出最好、最明智的决定。
Slonim在接受采访时告诉VentureBeat,在此次辩论赛之后,ProjectDebrater将在今年晚些时候参加一场旷日持久的辩论,随后可能会举行一次研讨会,学者可以提出他们对ProjectDebater的意见和评论。返回搜狐,查看更多