关于AI最终能否超越人类智慧这里通往终极答案
由网易科技与AIE实验室共同启动的OmegaAI计划今天开启第一个研究问题:人工智能最终能否超越人类智慧?
将此问题列为首个研究问题,是期望从基础的定义及历史发展中为大众清晰的呈现人工智能的“真容”。
关于人工智能的定义及发展
关于人工智能的定义,美国斯坦福大学人工智能研究中心尼尔逊教授提出“人工智能是关于知识的学科――怎样表示知识以及怎样获得知识并使用知识的科学。”,而另一个美国麻省理工学院的温斯顿教授认为:“人工智能就是研究如何使计算机去做过去只有人才能做的智能工作。”
1956年夏季,在美国达特茅斯学院(Dartmouth College)举行一次重要的会议,会议上以麦卡赛、明斯基、罗切斯特和申农等为首的科学家共同研究和探讨用机器模拟智能的一系列有关问题,首次提出了“人工智能”这一术语,它标志着“人工智能”这门新兴学科的正式诞生。此后在人工智能的发展历史上经历了多次高潮-低潮的阶段,从历史上看,在人工智能发展快速的时期往往会出现大量乐观观点,但最近这一次人工智能热潮中,乐观情绪却转变成人工智能威胁论。
人工智能威胁论的产生
谷歌技术总监雷·《奇点临近》作者库兹韦尔(Ray Kurzweil)预言人工智能将超过人类智慧。他在书中写道”由于技术发展呈现指数式的增长,机器能模拟大脑的新皮质。到2029年,机器将达到人类的智能水平;到2045年,人与机器将深度融合,那将标志着奇点时刻的到来。”除此以外,支持人工智能威胁论的代表人物包括著名的物理学家霍金,微软创始人比尔盖茨,特斯拉CEO马斯克等。
著名物理学家霍金患有肌萎缩侧索硬化症(ALS),使用英特尔公司开发的一套通信系统和外界交流。这套系统涉及基本的人工智能技术,可以接收霍金的想法,从而提出词语供他选用。当被问到如何改进这套系统的时候,霍金提出了人工智能可以毁灭人类的想法。
特斯拉CEO马斯克对待人工智能的态度更为极端,2014年8月,他在twitter推荐尼克-伯斯特罗姆的著作《超级智能:方法、危险和策略》时写到:“我们需要超级关注人工智能。它的潜在危险性超过核武器“。
比尔·盖茨2015年1月29日在Reddit的“Ask MeAnything”论坛上表示人类应该敬畏人工智能的崛起,它可能将最终构成一个现实性的威胁,但它在此之前会使我们的生活更轻松。他的原话是“我正在关注超级智能。首先,在开始的时候机器会为我们做很多工作,这些机器并不是超级智能。如果我们处理得很好的话,这应该是具有积极意义的。那之后的几十年,人工智能会强大到足以引起人们的关注。我同意伊隆·马斯克和其他一些人的说法,不明白为什么有些人并不关心。”
亚姆博尔斯基与皮斯托诺的最新假设
据每日邮报最新报道,科学家们研发人工智能的本意是用其在灾难中帮助保护人类,然而在最糟糕的情况下,人工智能可能脱离人类掌控,变得更加邪恶。美国路易斯威尔大学计算机学家罗曼·亚姆博尔斯基(RomanYampolskiy)与企业家弗德里克·皮斯托诺(FedericoPistono)近日公布榜单,假设人工智能失控引发的各种恶果,包括奴役人类、毁灭宇宙等。假设包括:
1.人工智能可能接管资金、土地、淡水、稀有元素、有机物质、互联网、计算机硬件等资源,以便能够形成垄断;
2.人工智能可能接管利邦政府、地方政府、跨国公司以及慈善机构的控制权;
3.人工智能可能泄漏威胁社会结构的“危险信息”,比如政治真相、政府机密等。举例来说,研究人员预测人工智能将创造“行星级混乱机器”,在全球发动宣传攻势,让政府成为公众反对的焦点;
4.人工智能可能建立受到严格监控的国家或利用现有监控体系,隐私概念几乎形同虚设,甚至思想上的隐私都被剥夺。
5.人工智能可能强迫所有人在大脑中植入芯片,将人类变成“电子人”,以便于被其直接控制;
6.人工智能可能奴役人类,包括强迫人类接受冷冻或关入集中营;
7.利用完美洞察人类生理机能的能力,人工智能也可能折磨和虐待人类,令痛苦最大化;
8.人工智能可能对人类使用杀精剂,这可以说是对人类来说最糟糕的结果,可能导致人类灭亡;
9.人工智能可能对地球造成不可逆转的破坏。地球是太阳系的重要组成部分,而太阳系又是整个宇宙的组成部分,为此可能造成连锁反应;
10.鉴于超级智能的危险我们无法完全预测到,因此还可能有其他更危险的假设发生。
亚姆博尔斯基表示,尽管这些假设听起来可能十分遥远,但人工智能的威胁必须被严肃对待。他说:“在对待人工智能的标准思维框架下,我们总是提议建立新的安全机制。然而,在网络安全研究人员在寻找安全漏洞的同时,也需要关注人工智能带来的威胁。创造人工智能失控假想清单可以更容易预防其发生。”亚姆博尔斯基与皮斯托诺认为,现在只是出现值得警惕的迹象,比如研发人工智能技术缺少监管。
对人工智能威胁论的反驳意见
在人工智能威胁论热度日益高涨的情况下,人工智能领域科学家对人工智能威胁论也提出了反驳意见。Facebook人工智能实验室主任,NYU计算机科学教授Yann LeCun 2014年4月在接受IEEE 《Spectrum》采访时发表了对人工智能威胁论的看法,他认为人工智能研究者在之前很长的一段时间都低估了制造智能机器的难度。人工智能的每一个新浪潮,都会带来这么一段从盲目乐观到不理智最后到沮丧的阶段。
Yann LeCun 提出了与威胁论支持者不同的人工智能未来发展路径,他提到大部分人觉得人工智能的进展是个指数曲线,其实它是个S型曲线,S型曲线刚开始的时候跟指数曲线很像,而且奇点理论比指数曲线还夸张,它假设的是渐进曲线。线性、多项式、指数和渐进以及S曲线的动态演变,都跟阻尼和摩擦因子有关系。而未来学家却假设这些因子是不存在的。未来学家生来就愿意做出盲目的预测,尤其是他们特别渴望这个预测成真的时候,可能是为了实现个人抱负。
微软剑桥研究院主管克里斯·毕索普(ChrisBishop)认为,马斯克的极端观点可能阻碍人工智能技术的进步。他称担心智能机器人会导致人类无法继续享受机器人带来的好处。毕索普还称,任何“人工智能成为人类生存威胁”的假设近期内都不会发生,这可能是数十年之后需要讨论的问题。现在我们依然控制着这些技术,我们依然有很多路径可供选择。
中国科学院院士谭铁牛在 2015中国人工智能大会上表示“水能载舟,亦能覆舟,甚至有的时候是魔鬼,走的好把握的好了魔鬼就不会出现。所以这个我认为非常重要。所以尽管在我看到的未来人工智能还难以超越人类,但是它对人类社会影响反响很大。这是大的科技革命。”
中科院自动化研究所复杂系统管理与控制国家重点实验室主任王飞跃教授在“人工智能九文九答”一问中提到“我尊重任何人发表任何观点的权利,但对“人工智能威胁论”、“奇点理论”之类的论调,我的态度是坚决反对。
百度首席科学家,斯坦福大学人工智能专家吴恩达表示:“担心人工智能过于强大就好像担心人类会在火星过度殖民导致火星人口爆炸一样。我很希望数百年后我们能在火星生活,但目前甚至都还没有人类登上过火星,我们为何要担心在火星过度殖民的问题呢?”
地平线科技创始人,人工智能专家余凯相信:“即使到2029年,人工智能的进展也不会对人类产生威胁。因为那时的机器还没有好奇心,没有情感,没有自我意识。它们是智能的机器人,但不是智慧的机器人。智能是偏工具性的,而智慧会创造。”
破除争议的难点在哪?
总体看,目前包括图灵测试在内的各种方案中还存在无法定量分析人工智能发展水平的问题,只能定性的判断一个人工智能系统是否和人一样拥有同等水平的智力。但这个系统和人类智慧进行对比,高低程度如何,发展速度与人类智慧发展速度比率如何,目前研究没有涉及到可具体执行的思路和方案。
没有统一的模型和测试方法,能够同时对人工智能系统和人类进行测试,这也是当前人工智能威胁论产生最重要的原因之一。因为没有人工智能系统和人类智能水平统一的测量方法,人工智能威胁论方面往往将计算机或软件系统表现强大的领域作为标准,例如计算能力,历史,地理等常识的掌握能力等,而忽略诸如图像识别能力,创新创造的能力,发现规律的能力等,对于这个原因产生的问题,人工智能威胁论反驳者往往无法拿出定量的数字结果进行反驳。
目前虽然针对人类智力能力的评测方法已经非常成熟,但过去100多年的发展和改进过程中,这些方法并没有考虑到人工智能系统的特点和发展水平,因此很难将人类的智商测试方法拿来测试人工智能系统。
解决人工智能是否最终超越人类智慧的问题除了涉及人工智能和人类智慧定量分析之外,还会涉及对于生命本质,生物进化方向,人类未来社会发展影响等多领域研究,这个问题的研究将会对诸多科学领域的进展产生影响。
“人工智能最终能否超越人类智慧”研究的五个方面
1.人工智能威胁论究竟存不存在?如何从科学角度判定人工智能能否最终超越人类智慧?如果超越,对人类社会的威胁和影响有哪些,如何防范?如果不能超越,导致不能超越的原因是什么,如何解释这个原因。
2.能否建立人工智能与人类通用的智商评估体系,对人工智能与人类的综合智慧能力发展水平进行定量分析,从而为解决人工智能是否最终超越人类智慧找到定量方法?
3.人工智能与人类社会未来发展究竟是什么关系?如何充分利用人工智能带给人类的好处,如何防范人工智能过快发展对社会就业产生的负面冲击。
4.生物进化有无方向,这个问题的探讨对于人工智能,机器人和人类的未来发展会有哪些影响。
5.关于人工智能是否最终超越人类智慧课题所涉及到的其他问题。
接下来,Omega AI 计划将试图建立“人工智能智商评估体系”,针对以上问题进行持续的研究,并定期通过网易科技和AIE实验室汇报成果。同时欢迎对该问题感兴趣的科研人员,企业家和投资人与我们沟通,并对此问题展开讨论。
(策划:AIE实验室整理/编译:网易小羿、小小)
关于OmegaAI计划
网易科技与AIE实验室联合科学院等相关机构,共同发起OmegaAI计划,利用大众和专家群体智慧共同解决人工智能,互联网,脑科学等领域的前沿交叉问题。
OmegaAI计划的主要工作包括:向大众,科技企业家,风险投资家和科学家征集人工智能等相关领域重要科学技术问题。通过互联网平台邀请专家,专业人士参与探讨,研究和解决人工智能等相关领域重要科学技术问题。定期召开研讨会和头脑风暴沙龙,对OmegaAI计划重点人工智能前沿问题进行探讨。定期通过网易科技,人工智能学家等媒体对外公布最新研究成果。(详细)
如何解决"人工智能超越人类智慧"的争议问题
测试人工智能系统是否具有智能最著名的方法是”图灵测试“。1950年,图灵发表论文《ComputingMachineryandIntelligence》提出了“机器思维”的概念[27,28],提出一位测试者在与被测试者相互隔离不能进行直接交流的情况下,通过信息传输,和被测试者进行一系列的问答,在经过一段时间后,测试者如果无法根据获取的信息判断对方是人还是计算机系统,那么就可以认为这个系统具有同人类相当的智力能力,也就是说这台计算机是有思维能力的,这就是著名的“图灵测试”(TuringTesting)。图灵在论文中这样定义图灵测试:
“我们称下面这个问题为“模仿游戏”。游戏参与者包括一个男人,一个女人,以及一个任意性别的询问者。询问者与另两个人待在不同的房间里,并通过打字的方式与他们交流,以确保询问者不能通过声音和笔迹区分二者。两位被询问者分别用X和Y表示,询问者事先只知道X和Y中有且仅有一位女性,而询问的目标是正确分辨X和Y中哪一位是女性。另一方面,两位被询问者X和Y的目标都是试图让询问者认为自己是女性。也就是说,男性被询问者需要把自己伪装成女性,而女性被询问者需要努力自证。现在我们问:如果我们把“模仿游戏”中的男性被询问者换成计算机,结果会怎样?相比人类男性,计算机能否使询问者更容易产生误判?”。
图灵测试并没有定义智能的范畴,而只能作为一个人工智能的充分条件,关于这一点,图灵在论文中写道:
“机器能否拥有智能,为了回答这个问题我们应该首先定义‘机器’和‘智能’。一种可能性是根据大多数普通人的日常理解去定义这两个概念,但这样做是危险的。在这里我并不打算定义这两个概念,可能有人会说这项测试对机器而言过于严格——毕竟人类也无法反过来成功伪装成机器,这只需检查算术的速度和正确度即可辨别。难道被认为拥有智能的机器就不能表现出和人类不同的行为么?这是一个很有力的反对意见,但至少不管怎样,假如我们有能力制造出一个可以成功通过测试的机器的话,也就无需为这个反对意见烦恼了。”
图灵测试与人工智能的关系可以用集合的概念进行阐述,如上图所示。从图中可以看到“所有人类行为”对应的集合“和所有智能行为”对应的集合有交集但又互有不同。虽然“在全部智能行为”中有部分能力是人类靠自身力量无法完全实现,但人类可以被认为是有智能标准体,因此,能达到“人类水平”的部分—也就是两个集合交集的那个部分—就应该被认作是“拥有智能”的特征。而且,人类的所有行为并不总是和智能相关。图灵测试要求机器全面模拟“所有人类行为”,其中既包括人类“智能”的部分,也包括人类的“非智能”行为,由此可得出结论通过图灵测试是“拥有智能”的一个有效的充分条件,而非必要条件或充要条件。【以上内容引用微软研究院】
作为最被广泛应用的人工智能测试方法,图灵测试经常用来检验机器是否具备人的智能,但总体看,图灵测试的方法受人为因素干扰太多,严重依赖于裁判者和被测试者的主观判断,因此往往有人在没有得到严格验证的情况下宣称其程序通过图灵测试,例如2014年6月英国雷丁大学客座教授凯文•沃维克宣称一款名为“尤金•古特曼(EugeneGoostman)”的计算机软件通过了测试[30],但是测试结果充满争议,例如机器人只要能够通过30%的评判标准即可被判定通过图灵测试,另外这个计算机软件通过扮演一名年仅13岁,且第二外语为英语的男孩让参与测试的裁判大幅度降低了测试难度。
中国科学院自动化所研究员王飞跃在“关于人工智能九个问题”中也对图灵测试存在的问题进行了讨论,他的意见主要有以下两点:
(1)第一点是人类的智能并不是一个单一的对象,而是有多个类别组成,同样人工智能对应也是多类别组成。图灵测试究竟测试的那些类别并不明确,从实践上看,目前图灵测试仅仅局限在语言智能等特定小领域里,不具备代表性。
(2)图灵测试并不是考官对一台计算机测试后就可以宣布其是否拥有智能,图灵测试的本意是指一个广义的人类做个为整体的考官,其测试的时间段也不是具体的一段时间而是广义的时间段,即所有的人类在所有时间都分辨不出人与机器之后,才算其人类智能与人工智能等价。
从上述讨论可以看出,图灵实验只对人工智能系统是否具有人类智能回答“是”或“否”,并不对人工智能系统的发展水平进行定量分析,而且测试的智能或智力种类还过于单一;在测试方法上存在漏洞,容易被测试者找到漏洞从而产生作弊行为,从上述存在的问题看,图灵实验目前还无法承担定量分析智能系统智力发展水平的需求。
二,解决人工智能威胁论争论的四个困难
总体看,目前包括图灵测试在内的各种方案中还存在无法定量分析人工智能发展水平的问题,只能定性的判断一个人工智能系统是否和人一样拥有同等水平的智力。但这个系统和人类智慧进行对比,高低程度如何,发展速度与人类智慧发展速度比率如何,上述中研究没有涉及到可具体执行的思路和方案。我们认为这些问题长时间存在,主要与下面提到的四点困难有关。
(1)第一个困难是没有统一的模型和测试方法对不同的人工智能系统进行测试。人工智能无论从理论研究还是从应用实践都存在众多分支和发展方向。在理论上人工智能分为三大学派,如符号主义(Symbolicism)或计算机学派(Computerism);连结主义或生理学派(Physiologism);行为主义(Actionism)或控制论学派(Cyberneticsism)等。在应用实践上,人工智能可以应用的方向包括符号计算、模式识别、机器翻译、机器学习、问题求解、逻辑推理与定理证明、自然语言处理、分布式人工智能、计算机视觉、智能信息检索、专家系统等等。
每种具体的人工智能系统往往只具备一个或若干上述提到的功能。例如IBM的深蓝强于计算能力,在国际象棋方面可以与人类对手一决高下;沃森系统拥有庞大知识库系统,因此可以在常识问答比赛中击败人类选手。因为没有统一的模型可以涵盖这些人工智能系统,就无法形成统一的测试方法进行测试和比较。如图1.2所示,人工智能系统A在计算能力上得分为100,人工智能系统B在计算机视觉识别上得分为80,人工智能系统C在机器翻译测试得分为90分,我们仍然无法得出结论A的智力能力高于C,C的智力能力高于B的结论。
(2)第二个困难是没有统一的模型和测试方法,能够同时对人工智能系统和人类进行测试,这也是当前人工智能威胁论产生最重要的原因之一。因为没有人工智能系统和人类智能水平统一的测量方法,人工智能威胁论宣扬者往往将计算机或软件系统表现强大的领域作为标准,例如计算能力,历史,地理等常识的掌握能力等,而忽略诸如图像识别能力,创新创造的能力,发现规律的能力等,对于这个原因产生的问题,人工智能威胁论反驳者往往无法拿出定量的数字结果进行反驳。
目前虽然针对人类智力能力的评测方法已经非常成熟,但过去100多年的发展和改进过程中,这些方法并没有考虑到人工智能系统的特点和发展水平,因此很难将人类的智商测试方法拿来测试人工智能系统。例如目前绝大多数人工智能系统就无法完成图1.3所示题目,因为测试者需要首先识别图像中的问题,并与图中的各个图形特征关联起来。做不到这一点,回答问题就无法进行下去。
图1.4所示的人类智商测试的题目需要测试者运用铅笔,钢笔等工具绘制图形。用手操作物体完成任务,解决问题是人类普通的能力[11],但对大多数人工智能系统因为没有相应输出系统或操控设备,于是无法完成图1.4所示的测试。
(3)第三个困难是人工智能系统没有形成智力发展水平测试的标准输入输出接口。例如如图灵测试的问题问答,IBM深蓝与国际象棋大师的比赛,沃森系统与人类选手进行知识比赛等时,研究人员就需要研发不同的输入输入接口以满足测试需求。对于更多人工智能系统,在设计时往往由于只考虑到满足工作需求,而没有设计和开发与测试系统进行完整交互的能力,如图1.5所示。这个问题如果没有得到解决,对于发展新的统一的人工智能测试也将带来困难。
(4)第四个困难是没有关于人工智能智力发展水平的历史测试统计数据。由于针对人工智能系统一直没有产生定量分析方法,这个问题在今天依然存在。因为历史数据的缺失,研究者就无法绘制类似图1.6所示的人工智能系统智力水平的发展示意图,也无法将人工智能系统与人类智力发展水平进行比较。因此很难定量的对未来发展趋势进行预测。上文我们提到Facebook人工智能实验室主任YannLeCun在反驳人工智能威胁论时虽然给出了相关发展趋势图,但因为不是通过历史数据预测得来,因此说服力大打折扣。
如何解决这一问题,我们将在未来的系列文章中逐渐阐述。
关于OmegaAI计划
网易科技与AIE实验室联合科学院等相关机构,共同发起OmegaAI计划,利用大众和专家群体智慧共同解决人工智能,互联网,脑科学等领域的前沿交叉问题。
OmegaAI计划的主要工作包括:向大众,科技企业家,风险投资家和科学家征集人工智能等相关领域重要科学技术问题。通过互联网平台邀请专家,专业人士参与探讨,研究和解决人工智能等相关领域重要科学技术问题。定期召开研讨会和头脑风暴沙龙,对OmegaAI计划重点人工智能前沿问题进行探讨。定期通过网易科技,人工智能学家等媒体对外公布最新研究成果。()
AIE实验室
万元奖金寻找中国科技企业创新线索
告诉我们您的创新,让“中国创新”进行报道
为了进一步挖掘中国科技创新企业成果,研究中国中国科技企业创新特征,AIE实验室与合作伙伴提供1万元奖金,征集中国科技企业创新线索。
无论是您正在从事的企业项目或者您发现的科技创新企业或项目,欢迎点击本文右下角”阅读原文“进行推荐,或打开链接地址http://form.mikecrm.com/wFL45P进行填写。活动时间为2016年5月18日到2016年8月18日。
对于推荐成功的参与者,将共同分享1万元奖金,并获得邀请参加AIE实验室前沿科技研究群,优先参加AIE实验室举办的活动,与业内顶级专家进行交流。AIE实验室每月将公布获奖名单。
人工智能学家Aitists
人工智能学家是权威的前沿科技媒体和研究机构,2016年2月成立人工智能与互联网进化实验室(AIELab),重点研究互联网,人工智能,脑科学,虚拟现实,机器人,移动互联网等领域的未来发展趋势和重大科学问题。
长按上方二维码关注微信号Aitists
投稿邮箱:post@aitists.com返回搜狐,查看更多