人工智能击败人类围棋大师 但远称不上超级智能
人工智能挑战人类智慧人工智能近日取得了重大突破。谷歌在英国的研究人员研发的一款计算机系统在围棋比赛中击败了一名顶尖棋手。作为一种古老的东方策略类游戏,在过去的几十年间,围棋曾无数次使人工智能败下阵来。
在大多数用来考察人类智慧的游戏中,如国际象棋、拼字游戏、奥赛罗棋、甚至《绝境边缘》(Jeopardy,一个益智问答游戏节目)中,机器都能毫不费力地击败人类。但围棋是一个例外。这款游戏有着2500年的历史,比国际象棋要艰深复杂得多,即使是最机敏的计算机系统,也比人类围棋大师要差了一大截。就在本月初,一些业内顶尖的人工智能专家还质疑近期内我们能否在这方面取得突破。去年更有很多人认为,还要再过十年,机器才可能在围棋比赛中取得上风。
但谷歌已经成功了。“这比我想象的要快得多。”法国研究人员雷米·科隆(RémiCoulom)说道。他研发的人工智能系统曾是世界上最出色的机器围棋选手。
谷歌DeepMind团队自称“人工智能领域的阿波罗计划”。2015年10月,他们在伦敦组织了一场机器与人类之间的对决。该团队研发的系统名叫AlphaGo,它要对付的人类选手是欧洲围棋冠军樊麾。在《自然》杂志的一名编辑和英国围棋联合会(BritishGoFederation)的一名权威人士的监督下,他们连续进行了五轮较量,AlphaGo均取得了胜利。“无论是作为一名研究人员还是编辑,这都算是我职业生涯中最令人激动的时刻之一。”《自然》杂志编辑唐吉·肖尔德博士(TanguyChouard)在本周二的一次记者会上说道。
英国时间1月27日早晨,《自然》杂志发表了一篇论文,详细介绍了DeepMind团队研发的系统。该系统采用了一种名叫“深度学习”(deeplearning)的人工智能技术,这种技术在该领域的地位正变得越来越重要。DeepMind的研究人员从专业棋手那里收集了大量走棋方法,总步数多达3000万次,并利用这些数据对AlphaGo系统进行了训练。但这还只是第一步而已。从理论上来说,这样的训练方式顶多能让计算机系统和最优秀的人类选手达到同等水平,不可能超越人类。因此研究人员先让该系统自己和自己比赛,在这一过程中产生更多的走棋方法,然后再用这些方法训练新的人工智能系统,逐步提高其围棋水平。
“最重要的是,AlphaGo不仅仅是一个出色的人工智能系统,只知道实行人工植入的规则”,负责监管DeepMind团队的德米斯·哈萨比斯(DemisHassabis)说道,“它还采用了目前普遍使用的机器学习技术,从而在围棋比赛中取胜。”
这次胜利其实并没有那么新奇。谷歌、Facebook和微软等线上服务提供商已经使用了深度学习技术,用于辨认图像、识别语音、以及理解自然语言等。DeepMind将深度学习与一种名为“增强学习”的技术和其它方法结合起来,说明在未来的世界中,机器人能够学会执行各种动作,还能对周围环境做出反应。“对于机器人来说,这是顺理成章的事情。”哈萨比斯说道。
他还认为这些手段能加速科学研究的进展。在他的想象中,科学家有一天会和人工智能系统一起工作,而这些人工智能系统将会被运用到可能取得丰硕成果的研究领域中去。“计算机系统能够处理大量数据,揭露数据结构特征,工作效率远比人类专家要高——有些事情人类甚至根本做不到。”哈萨比斯解释道,“这些计算机系统甚至能为人类专家指明研究方向,引领他们取得突破。”
但就目前来看,围棋仍然是哈萨比斯最关注的领域。在让AlphaGo在办公室中打败人类选手之后,哈萨比斯及其团队希望能在公开的竞技场上,和世界顶级围棋选手一决高下。今年三月中旬,AlphaGo将挑战韩国棋手李世乭,后者赢得的国际大奖数居世界第二,是过去十年中获胜次数最多的棋手。哈萨比斯将他视为“围棋世界中的费德勒”。
以“貌”取胜
2014年年初,科隆研发的围棋软件Crazystone在日本的一次锦标赛中向围棋大师依田纪基(NorimotoYoda)发起了挑战,并取得了胜利。但这次对决并不公平,因为机器人可以先走四步,占据了巨大的优势。当时科隆预言称,人工智能至少要再过十年才能在无让子的围棋比赛中取胜。
这项挑战的难度是由围棋本身的特点决定的。即使是最强大的超级计算机,也缺乏在合理的时间内、分析出每种走法可能的结果的能力。1997年,“深蓝”击败了世界顶级象棋棋手加里·卡斯帕罗夫,它使用的算法名叫“蛮力穷举法”。它分析了每一种可能的走法将产生的结果,而人类是不可能考虑这么多的。但这种方法对围棋就无效了。在国际象棋中,平均每回合有35种走棋方式。而围棋每回合有250种可能的走棋方式,250种中的每一种又有250种,以此类推。哈萨比斯指出,围棋棋盘上可能的布棋方式总和比宇宙中所有原子的数量还多。
利用一种名叫蒙特卡洛树的搜索算法,像Crazystone这样的程序可以提前算出很多步走棋结果。再配合其它技术,它们还可以逐步去除需要分析的走法。这样一来,它们迟早会打败一些出色的棋手——但无法击败最出色的棋手。对于棋类大师来说,走棋很多时候靠的都是直觉。棋手会根据棋子的整体分布来选择走法,而不会细致地分析每一步的结果。“好的位置看起来就很好,”哈萨比斯说道,他本身就是一名围棋棋手,“围棋似乎也遵循一定的审美原则,所以这种游戏才得以延续数千年。”
但在2014、15年之交,一些人工智能专家,包括爱丁堡大学、Facebook、以及DeepMind团队的研究人员,开始采用深度学习法解决围棋问题。他们的想法是,这种技术能模拟人类的直觉,而直觉正是下围棋时必不可少的东西。“围棋是一种含蓄的游戏,讲究图案的配合,”哈萨比斯说道,“而那正是深度学习法所擅长的领域。”
自我增强
深度学习需要依赖所谓的“神经网络”,即由硬件和软件组成的、模拟人类大脑中神经网的网络。这些网络采用的不是蛮力穷举法,也不依靠人工植入的行动准则。它们会对大量数据进行分析,试图“学会”执行某个特定的任务。如果让神经网络看大量的袋鼠照片,它就能学会认出一只袋鼠。如果让它听大量的单词,你再读出这个单词时,它就能听出来你说的是什么。如果让它了解大量的围棋走棋方法,它就能学会下围棋。
DeepMind团队、爱丁堡大学和Facebook的研究人员希望,神经网络能够通过“观察”棋子位置掌握下围棋的方法,和人类差不多。Facebook近日在一篇论文中指出,这一技术使用起来相当不错。他们将深度学习法和蒙特卡洛树搜索方法结合起来,成功让计算机打败了一些人类围棋棋手。不过他们还没有击败Crazystone和其它顶尖的人工智能系统。
但DeepMind成功将这一概念向前推动了一大步。在接受了3000万步人类的围棋走法训练之后,DeepMind神经网络能够以57%的成功率预测人类下一步的走棋方法。这个成功率可谓十分惊人(此前的记录是44%)。接下来,哈萨比斯及其团队采用增强学习法,让这个神经网络和另一个与之稍有不同的网络进行比拼。在两个神经网络比赛的同时,系统会追踪哪种走法带来的效益最大。利用这种方法,该系统越来越能够识别出哪种走法能够取得成功,哪种走法则会导致失败。
“AlphaGo的神经网络和自己比赛了上百万次,在这一过程中不断改进,全靠自己学会了新的走棋策略。”DeepMind团队的一名研究人员戴维·希尔佛(DavidSilver)说道。
据希尔佛称,这种方法使AlphaGo在众多会下围棋的人工智能系统中脱颖而出,其中也包括Crazystone系统。然后研究人员将上一步得到的结果输入二级神经网络中。该网络使用一级网络建议的走棋方法,使用了很多相同的方法来预测每一步的结果。这和“深蓝”下象棋时的方法类似,只不过AlphaGo系统会边下边学,分析更多数据,而不是通过蛮力穷举法探索每种可能的结果。利用这种方法,AlphaGo不仅学会了如何打败现有的人工智能系统,还击败了顶级的人类棋手。
精密芯片
和大多数先进神经网络一样,DeepMind系统使用的机器也配备了图形处理器(GPU)。这些芯片最初是用来为游戏和其它对图形敏感的程序处理图像的,但研究人员发现,GPU也很适合用来开展深度学习。哈萨比斯表示,只需要用一台装配了大量GPU芯片的计算机,DeepMind就能够运行得很好。但在与樊麾对战时,研究人员使用了规模更大的计算机网,共装载了170枚GPU芯片和1200台标准处理器(CPU)。该系统在训练时和实际作战时,使用的都是这一大规模计算机网。
等AlphaGo前往韩国挑战世界冠军李世乭时,哈萨比斯的团队将使用同样的装置,不过他们会对其进行不断改进。这意味着,他们需要联网才能和李世乭作战。“我们正在铺设自己需要的网络光纤。”哈萨比斯说道。
据科隆和其他专家称,打败世界冠军李世乭比打败樊麾要难得多。但科隆对DeepMind团队寄予厚望。在过去的十年中,他一直在努力打造能击败世界顶级棋手的围棋系统,而他现在认为,这样的系统已经被研发出来了。“我现在买GPU买得不亦乐乎。”他说道。
更进一步
AlphaGo具有极其重要的意义。它采用的技术不仅能用于机器人和科研领域,从类似Siri的移动数码助手,到进行金融投资,这一技术在很多任务中都能助人一臂之力。“你可以用它来解决各种棘手的问题,处理任何需要用到策略的、类似于游戏的事情。”深度学习初创公司Skymind的创始人克里斯·尼克尔森(ChrisNicholson)说道,“比如战争或商业(金融)交易等。”
有些人对此感到有些担忧,尤其是当他们想到DeepMind系统是通过自学学会围棋的时候。该系统不仅仅是通过人类提供的数据来学习的,它还会产生自己的数据,做到自己教自己。就在前几个月,特斯拉创始人伊隆·马斯克和其他人纷纷表达了自己的担忧,认为这样的人工智能系统迟早会超越人类,并脱离我们的掌控。
但DeepMind系统还处在哈萨比斯等研究人员的严密控制之下。虽然他们正在使用该系统破解一款极为复杂的游戏,但游戏到底只是游戏而已。的确,要想媲美真正的人类智慧,AlphaGo还有很长的一段路要走,还远称不上超级智能。“眼下的情况非常规范,”人工智能法律教授、华盛顿大学的技术政策实验室创始人雷恩·卡罗(RyanCalo)说道,“该系统的理解能力并未真正达到人类的水平。”但该系统指明的方向的确如此。如果DeepMind的人工智能系统能理解围棋的玩法,也许它迟早会明白更多的东西。“会不会整个宇宙都仅仅是一盘巨大的围棋呢?”卡罗问道。
人工智能安全问题浅析
人工智能发展的忧虑
大众已将人工智能视为第四次科技革命,相比于科学界与技术界对人工智能技术发展的兴奋,政治和哲学界等人文学科领域却对此产生了忧虑。一方面,人类认知能力的核心——思考能力可能正随着对互联网的与日俱增的依赖而逐渐退化;另一方面,人工智能技术不断发展,未来可能会出现机器人无视道德伦理与哲学规范的状况。
HenryA.Kissinger作为一名历史学家和客串政治家,长期关注着阿尔法家族的发展。HenryA.Kissinger因AlphaGo的问世而产生忧虑,未来人工智能对人类的认知能力会产生怎样的影响呢?在2018年6月发表的一篇文章中提出了四点人工智能可能引发的安全问题[4]。
1.人工智能可能会给人类带来意想不到的后果。人工智能可能无法正确理解人类指令的具体语境,从而有可能出现人工智能系统的运行偏离设计者意图的状况,甚至造成灾难。
2.人工智能可能会改变人类的思维方式和价值观。AlphaGo在击败围棋世界冠军时所采用的策略是前所未见的,在学习如何赢得围棋比赛的过程中,人工智能与人类的思维方式是完全不同的,已经改变了围棋对弈的本质以及人类围棋对弈的传统思维范式。
3.人工智能可以实现其被赋予的既定目标但无法解释实现过程背后的基本原理。如果人工智能的计算能力继续快速进步,那么它或许很快就能够以与人类略微不同或者截然不同的方式对场景进行优化,届时人工智能是否能够以人类能理解的方式来证明它的场景优化更优呢?如果人类无法通过自己能够理解的方式去解释这个世界,届时人类意识本身会落入怎样的境遇呢?
4.人工智能这个用词可能并不恰当。此前智能机器人是在人类认知能力的参与下解决问题,而现在人工智能可以采用人类此前从未想到过的,从未采取过的“思维方式”来解决问题。如AlphaZero不需要注入人类对弈数据,仅仅通过几个小时的自我对弈训练就获得了国际象棋大师的对弈水平。
HenryA.Kissinger与EricSchmidt,DanielHuttenlocher两位学者联手于2019年8月发表了一篇文章[5],该文章表示人工智能革命是不可阻挡的,三位作者对此都保持乐观态度,力图理解人工智能及其后果,积极应对。文中以机器能帮助指导其自身的演变,改进自己来更好地解决他们被设计用来解决的问题为切入点展开讨论,提出了一些关于“人工智能将改变人类对真理与现实的认知”这一不可避免的问题的应对措施:建立“人工智能伦理”新领域;为数字助理编写拒绝回答哲学问题的程序;要求人类参与高风险的模式识别……
人工智能与安全
DawnSong在FacultySummit2017上从三个方面剖析了人工智能与安全的关系[6]。
(一)人工智能领域可以从安全领域学到什么?
人工智能系统应当具有完整性、机密性,并防止人工智能的滥用。其中完整性指的是人工智能系统应生成预期的正确结果,机密性指的是人工智能系统不能泄露用户的敏感数据。
关于完整性的研究衍生出了对抗机器学习,攻击者利用AI可以做到:使得学习系统不能生成预期的正确结果;使得学习系统生成由攻击者设计的目标结果;学习个人的敏感信息。
目前对抗样本的研究主要集中于目标模型已知的图像识别任务,DawnSong在演讲中详细介绍了两种对抗攻击模型。
1.生成模型
类VAE模型使用一个中间向量表示,包括编码器和解码器两部分,编码器的作用是将一个高维输入映射到低维向量表示z,解码器的作用是将中间向量表示映射到高维重构。
2.深度强化学习
DawnSong在此部分主要介绍了其发表的《Delvingintoadversarialattacksondeeppolicies》这一论文的研究内容,文章的主要成就为:
(1)比较了随机噪声和对抗样本对深度强化学习模型的影响。
(2)提出了利用增强学习策略中的值函数来引导攻击者选择在原始样本中添加对抗扰动的时间。
(3)通过重新训练来增强模型对随机噪声和FGSM攻击的稳定性。
(二)安全领域可以从人工智能领域学到什么?
安全性是部署AI系统所面临的重大挑战之一,AI学习系统有三个层面的安全性。
1.软件层面
攻击者可以通过利用软件脆弱性控制学习系统,所以学习系统的设计应避免软件脆弱性,如缓冲区溢出和访问控制问题。
2.学习层面
(1)应使用对抗事件而不仅仅是正常事件来评估系统;
(2)研发适用于复杂的、非符号程序的推理的高效工具与技术;
(3)设计具有更强的普遍化以及安全保证的新结构或新方法,DawnSong提出可以将递归的概念引入到神经程序中。
(4)通过多个组件进行合成推理。
3.分布式层面
每个代理都只能进行局部决策,应怎样制定局部决策以达到更优的全局决策?
(三)在人工智能出现后安全领域呈现出怎样的状况?
攻击者往往紧跟科技发展的脚步,甚至引领科技的发展,AI的发展为攻击者提供了更高级的技术支持。随着AI普及到越来越多的系统,攻击者对系统攻击也产生了越来越浓厚的兴趣;随着AI的能力越来越强大,攻击者滥用AI的后果也越来越严峻。
DawnSong在演讲的最后关于人工智能与安全的未来抛出了几个令人深思的问题:怎样更好地理解安全对于AI及学习系统意味着什么?怎样检测出某个学习系统什么时候被欺骗?怎样构建具有更强的安全保证,更有弹性的系统?怎样减轻AI的滥用?确保安全AI的正确策略应当如何制定?
AI对抗攻击
AI对抗攻击已成为一个新的研究热点,研究内容主要包括对抗攻击的方法和对抗攻击的防御方法,对抗攻击的方法即对抗样本的生成方法[7]。
常见的对抗攻击的方法有快速梯度攻击、雅克比映射攻击、深度欺骗攻击和边界攻击。
快速梯度攻击(FastGradientSignMethod,FGSM)[8]由IanGoodfellow提出,主要思想是寻找深度学习模型的梯度变化最大的方向,按照此方向添加图像扰动,导致模型进行错误的分类。FGSM以增加对图像分类器损失的方式来对图像添加扰动。通过FGSM构造对抗样本的优势是效率比较高,最终生成的对抗样本会对原图所有像素点都产生一些微小的扰动。FGSM作为经典的攻击方式,衍生出了许多以FGSM为基础的对抗攻击方法。
雅克比映射攻击(Jacobian-basedSaliencyMapAttack,JSMA)[9]是对原图添加有限个数像素点的扰动,从而构造出对抗样本的攻击方式。JSMA通过分析评估模型的前向传播过程,计算模型的前向导数,然后根据前向导数的梯度计算一个数值。每个像素点会对应算出一个数值,这个值越大,说明对这个像素点的微小扰动能更大程度地产生输出误判,所以只需要选择数值大的像素点进行扰动,就能在尽可能少地修改像素点的情况下,实现对抗攻击。
深度欺骗攻击(DeepFool)[10]首先初始化原始图像,并且假定该图像分类被分类器的决策边界限制,这个区域决定图像的类标签。在每一次迭代中,该算法通过一个小的向量来扰动图像,这个小的向量通过线性化图像所在区域的边界,逐步将图像移向决策边界,直到图像最终被移动到决策边界另一侧,使得分类器分类错误,此时得到的扰动的累加就是对抗攻击的扰动。研究结果显示,DeepFool算法能够计算出比FGSM所计算的扰动更小的扰动,同时具有类似的欺骗率。
边界攻击(BoundaryAttacks)[11]是由Brendel等提出的一种基于边界的黑盒攻击方式,区别于大多数依赖于梯度的攻击方式,该攻击需要的模型信息很少,只需要知道模型最终的分类输出结果即可。在攻击分类中,其需要任意输入输出的能力,能实现源/目标误分类。该方法首先寻找到一个对抗样本(不限制阈值大小),然后依据一定策略将该对抗样本沿着原样本的方向移动,直到该对抗样本离原样本最近,同时依然保持对抗性。
目前,针对对抗攻击的防御方式主要可以分为以下3类:
1.修改训练数据或测试输入,在训练阶段改动训练样本或者在预测过程中修改输入数据;
2.修改神经网络模型,比如增加网络层、添加子网络、修改损失函数和激活函数等;
3.在对未知图像进行分类时,使用一些附加工具作为神经网络模型的辅助工具。
第1种方法并不直接对网络模型进行修改,另外两种方法都是针对网络模型本身的特性进行改进。
对抗攻击是深度学习在安全领域中的热点问题,影响人工智能系统的可用性,威胁系统安全。例如在垃圾邮件检测系统和入侵检测系统中,针对系统模型热点来逃避检测;针对面部识别系统缺陷来模仿受害者身份的非法认证危害;针对医疗数据、人物图片数据的隐私窃取危害;针对自动驾驶汽车、语音控制系统的恶意控制危害等等。
总结
人工智能的快速发展虽然为我们的社会带来诸多便利,但我们也应思考如此发展下去未来可能会出现的安全问题,积极制定应对措施尽早行动起来。
参考文献
[1]本刊编辑部.人工智能概述[J].保密科学技术,2017(11):8-9.
[2]https://baike.baidu.com/item/%E4%BA%BA%E5%B7%A5%E6%99%BA%E8%83%BD/9180?fr=aladdin
[3]http://tech.163.com/18/1228/09/E43QGTKT00098IEO.html
[4]HenryA.Kissinger.HowtheEnlightmentEnds.2018,6.
[5]HenryA.Kissinger,EricSchmidt,DanielHuttenlocher.TheMetamorphosis.2019,8.
[6]DawnSong.FacultySummit2017,AIandSecurity.
[7]AkhtarN,MianA.ThreatofAdversarialAttacksonDeepLearninginComputerVision:ASurvey[J].IEEEAccess,2018,6:1-1.
[8]GoodfellowI,ShlensJ,SzegedyC.ExplainingandHarnessingAdversarialExamples[EB/OL].(2015-03-20)[2019-06-12].https://arxiv.org/abs/1412.6572.
[9]PAPERNOTN,MCDANIELP,JHAS,etal.Thelimitationsofdeeplearninginadversarialsettings[C]∥IEEEEuropeanSymposiumonSecurityandPrivacy(EuroS&P).Saarbrucken,Germany:IEEE,2016:372-387.
[10]MOOSAVIDEZFOOLIS,FAWZIA,FROSSARDP.DeepFool:Asimpleandaccuratemethodtofooldeepneuralnetworks[EB/OL].(2015-11-14)[2019-06-12].https:∥arxiv.org/abs/1511.04599.
[11]BRENDELW,RAUBERJ,BETHGEM.Decisionbasedadversarialattacks:Reliableattacksagainstblackboxmachinelearningmodels[EB/OL].(2017-12-12)[2019-06-12].https:∥arxiv.org/abs/1712.04248.
作者:马瑜汝大象无形
责编:眼界返回搜狐,查看更多
谷歌人工智能围棋程序AlphaGo战胜李世石
新浪科技讯北京时间3月9日下午消息,今天下午谷歌人工智能AlphaGo与韩国棋手李世石的第一场比赛结束,AlphaGo获得今日比赛的胜利。今日比赛结束后,双方还将分别在3月10日(周四)、12日(周六)、13日(周日)、15日(周二)的北京时间中午12点进行剩余4场比赛。
本次比赛用时每方2小时,1分钟读秒三次。比赛采用中国规则,黑贴3又3/4子(黑贴7目半)。采用中国规则是因AlphaGO以中国规则为基础开发。
比赛采用5局3胜制,最终比赛获胜方将获得奖金100万美元。如果AlphaGo获胜,奖金将捐赠给联合国儿童基金会(UNICEF),STEM教育,以及围棋慈善机构(GoCharity)。
AlphaGo开发者DeepMind公司在今年1月的学术杂志《Nature》刊登封面文章,展示了围棋人工智能领域突破性进展的详细情况。
谷歌AlphaGo在第一次与世界顶尖围棋手的较量中取得胜利,这是人工智能发展史上重要的里程碑,代表人工智能已经能在诸如围棋等高度复杂的项目中发挥出超过人类的作用。
谷歌为何要做人工智能围棋程序AlphaGo
谷歌并不只是想做一个棋类程序,而是想做一个通用的智能计算系统。如果解决了围棋问题,谷歌希望能把这套人工智能算法用于灾害预测、风险控制、医疗健康和机器人等复杂领域。也就是说谷歌的目的还是为了更好的服务人类,没有任何恶意。DeepMind(AlphaGo的研究公司)创始人哈萨比斯说:公众对人工智能的警示掩盖了人工智能带来的帮助。距离人脑水平的人工智能仍然相当遥远,可能还需要几十年。
在昨天的赛前发布会上,谷歌董事长施密特表示,输赢都是人类的胜利。因为正是人类的努力才让人工智能有了现在的突破。
但并不是所有人都会对人工智能持乐观态度。诸如特斯拉CEO马斯克、理论物理学家霍金等科技界的名人就对此产生了担忧。
围棋复杂度超过宇宙原子总数
围棋棋盘横竖各有19条线,共有361个落子点,双方交替落子,这意味着围棋总共可能有10^171(1后面有171个零)种可能性。这个数字到底有多大,你可能没有感觉。我们可以告诉你,宇宙中的原子总数是10^80(1后面80个零),即使穷尽整个宇宙的物质也不能存下围棋的所有可能性。
19年前,IBM公司的“深蓝”计算机战胜了国际象棋世界冠军卡斯帕罗夫,引起了巨大轰动。但是因围棋的复杂度,直到近期,人类才在围棋人工智能项目上取得重大突破。
由于围棋的可能性如此之多,根本就没有什么套路可言。下赢围棋的唯一的办法就是让电脑也学会“学习”,而不是死记硬背。为了在围棋上战胜人类,硅谷的两家科技公司――Facebook和谷歌开始研究,希望有朝一日能让计算机战胜人类围棋冠军。
李世石简介
李世石是李昌镐之后,韩国最具代表性的棋手,他在2003年获第16届富士通杯冠军后升为九段棋手。自2002年加冕富士通杯以来,十年时间里他共获18个世界冠军。李世石属于典型的力战型棋风,善于敏锐地抓住对手的弱处主动出击,以强大的力量击垮对手,他的攻击可以用“稳,准,狠”来形容,经常能在劣势下完成逆转。
AlphaGo去年10月击败欧洲冠军
谷歌曾于2014年以4亿欧元收购人工智能公司DeepMind。由DeepMind研发的AlphaGo项目已有两年历史,AlphaGo曾在去年战胜了欧洲围棋冠军樊麾(职业二段)。
去年10月5日-10月9日,谷歌AlphaGo在比赛中以5:0的比分完胜了欧洲冠军。除了战胜人类外,AlphaGo还与其他的围棋程序对战,获得了500场胜利。
AlphaGo原理简介
传统的人工智能方法是将所有可能的走法构建成一棵搜索树,但这种方法对围棋并不适用。此次谷歌推出的AlphaGo,将高级搜索树与深度神经网络结合在一起。这些神经网络通过12个处理层传递对棋盘的描述,处理层则包含数百万个类似于神经的连接点。
其中一个神经网络“决策网络”(policynetwork)负责选择下一步走法,另一个神经网络“值网络”(“valuenetwork)则预测比赛胜利方。谷歌方面用人类围棋高手的三千万步围棋走法训练神经网络,与此同时,AlphaGo也自行研究新战略,在它的神经网络之间运行了数千局围棋,利用反复试验调整连接点,这个流程也称为巩固学习(reinforcementlearning)。通过广泛使用Google云平台,完成了大量研究工作。
AlphaGo在与人的对弈中用了“两个大脑”来解决问题:“决策网络”和“值网络”。通俗来说就是,一个大脑用来决策当前应该如何落子,另一个大脑来预测比赛最终的胜利方。
值得一提的是,李世石也是第一次与机器对战,所以他无法像和人类对战那样,先研究对方的棋谱和下棋风格。李世石所能做的就是和自己对弈。谷歌AlphaGo也是通过这种方式锻炼自己,真正做到了“人工智能”。(边策)
被人工智能打败的围棋手,如何看待AI与人类的关系
研究人工智能,是用
不熟知的方法抵达秘境
以前我们拍纪录片还是拍一些跟人有关的东西,我一直觉得纪录片是研究人和人之间的关系。当科技发展到今天的时候,我发现好像仅仅研究人与人之间的关系还不够。所以说我想研究一下AI和人的关系。我认为这还是在研究人和人之间的关系,这是人和人之间的关系的一种拓展。
我第一次去腾讯的时候认识了“绝艺”的研发团队。这个团队大概有十多个人,大多数是30岁左右的程序员,而且是典型的程序员,特别木讷。中午请我吃饭,除了他们的领导,其他人基本上不说话,连简单的寒喧都不会。我知道他们花了不到一年的时间设计软件,“绝艺”那时候已经不断地在跟柯洁下棋了,柯洁是很难赢一盘的。
我就想不通一个问题,柯洁成为世界第一,一方面是因为他有天赋,另一方面是因为他自己不懈的努力。从几岁开始学棋,最后变成世界第一,需要运气,需要努力。
但是另外一群人,就像扫地僧一样,花了不到一年的时间研发出一台会下围棋的机器,就超越了柯洁,这中间到底发生了什么事情?
我发现我们常规的认知方式应该被不断地打破。就像两个星球之间有一百万光年,按照传统的思维方式,我们以最快的速度也得一百万年才能抵达。实际上这种思维方式,现在已经越来越不准确了。比如说有虫洞,有另外一种方法可以抵达。人类对未来的认知、对世界的认知是非常非常局限的。世界的发展,社会的发展也许有另外一种方式可以走下去的。所以我觉得研究人工智能,实际上就是用一种以前我们不大熟知的方法去抵达另外的秘境。
对于所有围棋选手,AI的出现
是喜悦大于悲哀的事情
AI对我们的影响已经越来越大了,我发现另外一个问题,就是这帮围棋选手也许是人类第一批生活和职业受到严重影响的人,当AI出现以后,他们怎么面对AI的出现?他们是一种什么样的心态?
藤泽秀行,这是日本的一位已逝的、非常有名的棋圣,他曾经说过:“棋道一百,我只知其7”。后来我也访问过很多围棋高手,我问柯洁:”你大概知道多少?”柯洁说:“大概5%、6%吧。”
现在一般人认为AI围棋应该已经是围棋上帝了,但很多棋手并不认为AI已经穷尽了围棋的道理。我们自以为很了解世界,其实也许人类对世界的了解连7%都不到,世界上最聪明的人,他们认为对围棋的了解只有7%,何况我们这些平凡人?
目前为止,当AI出现的时候,围棋选手们的喜悦甚至会大于悲哀。只有一个人对我说“AI来得太早了”,这个人是柯洁,一个20岁不到的年轻人。当他是世界第一的时候,突然间有一个机器下得比他厉害,可以想象他的失落感。他问,“为什么AI不晚出现几年?”
但在另一个层面看,他也特别欣慰。当你成为世界第一的时候,突然冒出一个老师,这个老师可以很快碾压你,其实这种感觉对一个心智健全的人来说,是一件非常欣慰的事情。因为知道自己的短处在哪里,可以进步了,这种感觉是非常微妙的。
围棋胜负是很重要的事情,但是棋手会冷静地看待胜负,比如古力。其实对大多数棋手而言,围棋是一种修行,是让你在围棋中感悟人生。我采访日本一个非常有名的棋手,他感叹老天爷发明了这么一种完美的游戏,你不能穷尽它的变化,这种感觉是职业棋手才能体会的。
所以围棋给他们带来的乐趣,已经远远超过了胜负。当AlphaGo出现以后,全世界下围棋的人数增加,围棋在欧美的普及度也得到了提高。围棋之所以在欧美普及不开,是因为欧美没有很厉害的高手,高手都在东方。当围棋软件出现以后,一个欧洲人如果不断跟世界最高水平下棋的话,他的棋艺会提高得非常快。所以围棋界是非常高兴的,他们觉得AI既然来了就接受它。
吴岩
著名科幻作家
南方科技大学教授
人工智能可能导致失业,
但解放出来的人将创造新工作
我看到这个片子以后特别高兴,因为我是搞心理学出身,1961年的时候有一篇文章名为《7》,讲人类认知的极限就是7,只是7个左右的组块就可以处理这些问题。这可能已经到了人类认知的极限,但是计算机现在能帮助人类,那么下一步机器和人确实是站在一个起跑线上。
当大量的人工智能出现时,失业就会普遍产生。在内地,我们讨论得最多的问题就是下一步谁会失业。比如说高校里面,翻译专业可能最早失业,因为翻译是比较容易做的。老师也快失业了,因为教师的这套东西基本上人工智能也是可以处理的。
今天人工智能确实正在影响着我们的生活,而且是最普通人的生活。但另一方面,人工智能近期对职业的发展,特别是对创业特别有好处。比如有个识花的软件,只要对着花拍一张照片,它就能告诉你这是什么品种,产自哪里。还有一个看云的软件,通过对云的观察,自动预测24小时之后的天气。
从人类发展的历史看,科技的进步是在不断解放人类,人工智能可能替代掉很多工作,而解放出来的人将会创造出新的工作方式和职业。
当天的讨论实在太精彩,影片正式放映前,主持人特意留了出时间给现场的观众提问。
Q:如果AI什么都能做,我们可以快乐消费,可以娱乐,可以happy,或者是进行文化方面的创作。人会不会被废掉?人类再继续往前走的动力在哪里?
周浩:我并不认为是机器战胜了人类,我更愿意认为是一个人或者一群人设计了一个机器,战胜了另外一个人或一群人。
我觉得未来人工智能对人类的影响,可能反而不是在人工智能本身,因为人工智能还是一种工具,危险一定是来自于那些使用这个工具的人。就是当人的恶和这个机器进行完美结合,也许人类的某种灾难会降临。所以我觉得最终应该控制的,应该用道德去规范的,还是人本身。因为人的恶,也许远远超过我们的想象,机器有时候反而是可控的。
吴岩:周导提得很有道理,因为他一直在提一个作品是《黑晶》,这里面有大量的关于人的恶。但是我觉得后人类时代,这个问题也很严重。摆在所有人面前的现状是,不单要处理人文的问题,还要处理后人的问题。今天不是说没事儿了,而是要考虑的问题更多了。
Q:现在好像有一种趋势,总是在谈人工智能将会取代人类,这对教育来说是有很大影响的,因为我们通过教育去培训学生,用机器去教育学生可行吗?从人文角度来说,我们应该如何相信人工智能呢?
周浩:以我的观点,我觉得现有的人工智能是无法代替人脑的,比如说关于爱,关于爱情,我不知道两个机器怎么交配,怎么会有性生活。我觉得人是一个非常复杂的组合体,而围棋软件就是一种算法,说下棋的时候,哪一步棋的胜率高就下哪一步棋,在它的整个程序里面只有胜负,这是决定它认识世界的唯一方法。
而人类有趣的东西,恰恰是那些混沌的、模糊的、说不清道不明白的感觉。比如柯洁就谈到过这样的问题,他说下一步棋的时候,一定会受上一步棋的情绪的影响,跟今天吃了一顿饭、见了什么人,都有非常大的关系。但是对机器而言,它永远只有胜负。
所以人类的感觉超越了胜负,胜负只是一个手段。就围棋这个游戏而言,我并不认为胜负是人类要的结果。围棋在中国国语里面有一种说法叫做“手谈”,就是两个人不说话,用手在进行交流,这种感觉是很多棋手要找的感觉。
人跟人在一起的感觉,和人跟机器在一起的感觉是不一样的,也许我不会那么悲观吧。
吴岩:我同意现在的人工智能,基于深度学习的人工智能还是比较“傻”的人工智能,虽然已经可以解决很多问题了,但还是很简单的。下一代的人工智能,比如说模拟人脑的那些算法,一旦突破了,比较复杂的人工智能出现的时候,很难讲不会取代今天的一些事情。
现在大家总是在说人工智能情绪做不了,个性做不了,自我意志做不了。但事实上,情绪这些东西早晚都是可以做出来的,因为情绪就是伴随着认知的一种东西,你喜欢和不喜欢,这些都可以还原成某种生理的信号。只要把这些信号转换成代码,人工智能模拟情绪是没有问题的。至于说自我意识,这些也很可能早晚有一天是可以做的。所以我觉得,并不能说人工智能不可怕。
关于现在的教育,我非常同意现在我们就要做出很多应对的方式,来给我们的下一代人做准备,让他们努力面对这个新的一面。其实现在做可能都已经晚了,过去的科幻小说是说未来在远方,今天我们说未来昨天晚上已经到了。面对这个情况,学生没有办法面对,我们也没有办法面对,现在所有事情都比想象中出现得快。
Q:如果AI什么都能做,我们可以快乐消费,可以娱乐,可以happy,或者是进行文化方面的创作。人会不会被废掉?人类再继续往前走的动力在哪里?
周浩:我并不认为是机器战胜了人类,我更愿意认为是一个人或者一群人设计了一个机器,战胜了另外一个人或一群人。
我觉得未来人工智能对人类的影响,可能反而不是在人工智能本身,因为人工智能还是一种工具,危险一定是来自于那些使用这个工具的人。就是当人的恶和这个机器进行完美结合,也许人类的某种灾难会降临。所以我觉得最终应该控制的,应该用道德去规范的,还是人本身。因为人的恶,也许远远超过我们的想象,机器有时候反而是可控的。
吴岩:周导提得很有道理,因为他一直在提一个作品是《黑晶》,这里面有大量的关于人的恶。但是我觉得后人类时代,这个问题也很严重。摆在所有人面前的现状是,不单要处理人文的问题,还要处理后人的问题。今天不是说没事儿了,而是要考虑的问题更多了。
Q:现在好像有一种趋势,总是在谈人工智能将会取代人类,这对教育来说是有很大影响的,因为我们通过教育去培训学生,用机器去教育学生可行吗?从人文角度来说,我们应该如何相信人工智能呢?
周浩:以我的观点,我觉得现有的人工智能是无法代替人脑的,比如说关于爱,关于爱情,我不知道两个机器怎么交配,怎么会有性生活。我觉得人是一个非常复杂的组合体,而围棋软件就是一种算法,说下棋的时候,哪一步棋的胜率高就下哪一步棋,在它的整个程序里面只有胜负,这是决定它认识世界的唯一方法。
而人类有趣的东西,恰恰是那些混沌的、模糊的、说不清道不明白的感觉。比如柯洁就谈到过这样的问题,他说下一步棋的时候,一定会受上一步棋的情绪的影响,跟今天吃了一顿饭、见了什么人,都有非常大的关系。但是对机器而言,它永远只有胜负。
所以人类的感觉超越了胜负,胜负只是一个手段。就围棋这个游戏而言,我并不认为胜负是人类要的结果。围棋在中国国语里面有一种说法叫做“手谈”,就是两个人不说话,用手在进行交流,这种感觉是很多棋手要找的感觉。
人跟人在一起的感觉,和人跟机器在一起的感觉是不一样的,也许我不会那么悲观吧。
吴岩:我同意现在的人工智能,基于深度学习的人工智能还是比较“傻”的人工智能,虽然已经可以解决很多问题了,但还是很简单的。下一代的人工智能,比如说模拟人脑的那些算法,一旦突破了,比较复杂的人工智能出现的时候,很难讲不会取代今天的一些事情。
现在大家总是在说人工智能情绪做不了,个性做不了,自我意志做不了。但事实上,情绪这些东西早晚都是可以做出来的,因为情绪就是伴随着认知的一种东西,你喜欢和不喜欢,这些都可以还原成某种生理的信号。只要把这些信号转换成代码,人工智能模拟情绪是没有问题的。至于说自我意识,这些也很可能早晚有一天是可以做的。所以我觉得,并不能说人工智能不可怕。
关于现在的教育,我非常同意现在我们就要做出很多应对的方式,来给我们的下一代人做准备,让他们努力面对这个新的一面。其实现在做可能都已经晚了,过去的科幻小说是说未来在远方,今天我们说未来昨天晚上已经到了。面对这个情况,学生没有办法面对,我们也没有办法面对,现在所有事情都比想象中出现得快。
(本文经腾云编辑整理发布)返回搜狐,查看更多