不会思考“为什么”的人工智能都是假的人工智能
这本书的内容如此的颠覆,你一定很好奇它的作者朱迪亚·珀尔是何方神圣。
作者简介前面说过,珀尔教授是人工智能领域大名鼎鼎的意见领袖,现任现加州大学洛杉矶分校计算机科学教授,“贝叶斯网络”之父,这个贝叶斯网络是目前机器学习应用最多的技术之一,他也因此被认为是机器学习技术的开山鼻祖,有趣的是,他同时也是这种技术最激进的批评者。珀尔有一句名言,“数据是极度愚蠢的。”他要做的就是让AI学会因果思维,真正明白自己在干什么。
全文大纲为了阐述因果推断的具体内容,接下来,我就从以下三个部分来为你解读这本书。
首先,我们要明白,为什么要问“为什么”?这也是我们理解因果思维的基础;
其次,我们要花一点时间来解释什么是因果思维的三级阶梯,在作者看来,这个阶梯正是掌握因果关系模型的基石,而重要的是不断地沿着阶梯向上攀爬。这套因果关系模型的应用非常广泛,涉及各领域学科,但是影响最大的,还是人工智能领域。
第三部分,我们就来看看,在因果思维模式下,人工智能的未来是怎样的。
01我们为什么要问“为什么”在上小学的时候,老师经常跟我们说不光要“知其然”,还要“知其所以然。”只会做一件事还不够,我们需要知道为什么要做这件事,也就是“为什么”。比如,你对现在的工作不满意,想要跳槽,但是你有一些纠结,到底是你现在的公司不行,还是你自己的处事能力不行?生活中,类似这样的问题还有很多。为什么结果是这样的,我们想知道事情的原委。回答“为什么”,就是要找到一个因果关系,我们可以用A导致了B。找到因果关系,才能理解一件事究竟是怎么回事儿,才能知道应该采取怎样的应对措施。
但是你可能会有疑问,既然因果思维这么重要?为什么会被主流的科学界抛弃呢?这就要说到与因果关系对应的另一对关系,也就是相关性。
我们前面说过,早在一百年以前,就有统计学家相信,科学的世界里根本没有什么因果。不要问为什么,所有知识都是相关性的,人的一切行为都是基于经验的。你有没有发现,物理中的定律就是在描述一种相关关系。比如质量越大,惯性越大。但是为什么质量的变化会引起惯性的变化呢?我们一般都不是很在意。这种认知其实都源于统计学领域的一次革命。
1877年,达尔文的表弟,统计学家高尔顿利用自制的“高尔顿板”向大家展示了他的发现:回归平均现象。打个比方来说,父亲的身高在父辈中比较高,比如在前10%,孩子的身高会相对较高,但是可能会在前20%甚至更低,这种现象其实就在说明,孩子的身高会逐渐向平均身高“回归”。回归现象的背后,是父亲和孩子的身高呈现某种关联性,这种关联性就被称为相关性。但由相关性建立的一套思考体系有说不通的地方。珀尔书中举了个简单的例子:一个国家的巧克力销量和该国获得诺贝尔奖的人数呈高度正相关。那么问题来了,难道增加巧克力销量就能增加科学家们获得诺贝尔奖的人数吗?这样的推断显然这是荒谬的。为了解决这个问题,统计学家们找到了一条出路,叫做混淆变量。举例来说,一个国家巧克力销量和诺贝尔奖获奖人数之间之所以存在相关性,可能是夹杂了该国家经济发展水平这个混淆变量。经济发展水平高的国家自然巧克力销量大一些,而该国的科学家更有可能获得诺贝尔奖。所以这个混淆变量才是问题的关键。
不知道你有没有听出什么问题?统计学家们将巧克力销量上涨的原因归为经济发展水平。这不就是我们刚才说的A导致B的因果关系吗?我们在解释一个现象的时候,虽然我们可能无法用纯粹理性定义它,但无形之中,还是会用到因果关系。
既然我们总是绕不开“为什么”,总是要去思考事物背后的因果关系,那么在第二部分,我们就来看看珀尔总结的掌握因果思维模式的三个层级。
02掌握因果思维模式的三个层级因果思维的三个层级,分别是观察、干预和想象。我们先来说观察。
观察,就是通过数据分析做出预测,它处在因果思维的最下层。比如:人们在头痛之后,根据网络上搜集的信息,大多数人通过吃阿司匹林来缓解头痛;下雨会把衣服淋湿,所以再次下雨就要打伞,这就是观察思维。观察是寻找变量之间的相关性,就是积累经验。
所有动物都有观察的能力。观察思维已经能解决很多问题,但是远远不够。
中间层叫做干预。顾名思义,就是通过做某种试验再对数据进行补充和加工,在试验前就会提出一些假设,比如:如果吃了阿司匹林,头痛会好吗?“A/B测试”,又叫灰度测试。是互联网公司在产品测试时候经常采用的方法。比如,看看哪个标题能吸引更多点击,什么颜色的网页能让用户停留时间更长,都是用分组测试的方法。其实,干预思维是我们工作和生活中一直使用的方法论工具。文章的点击量不高,换个标题或者拓宽一下渠道,但是干预的结果到底怎么样,我们还需要第三层的思维。
这最高层就是想象,是对过去发生的事情的反思。在这一层,就需要一些想象力了,我们需要考虑那些没有发生的事情会产生什么样的结果,比如:是阿司匹林治好了我的头痛吗?比如,你可能经常会说,如果我当初听了他的话,现在就不会这样了。你想象的是一件从来没有发生过的事情,所以也叫反事实分析。作者在书中还援引了尤瓦尔·赫拉利在《人类简史》中的观点,智人群体中,曾经发生过一次认知革命,我们具备了想象不存在的事物的能力。关于《人类简史》的其他内容,你可以出门左转,中信书院有对这本书的详细解读。
以这个因果阶梯为基础,作者提出了自己的看法。无论如今大数据和人工智能的概念有多么火爆,计算机的能力目前只能停留在因果阶梯的最底层,也就是观察。简单来说,现在利用计算机可以在我们头痛时,迅速地获得大多数人在吃阿司匹林的信息。但是无法通过这样的数据与信息明白阿司匹林为什么能治好头痛,也无法得知作为个体吃了阿司匹林是否能缓解头痛的症状。现在所有实用AI技术都是基于这个第一级思维。AlphaGo下围棋,并不是它理解这步棋有什么用,它只不过知道走这步赢棋的概率会更大。珀尔教授要做的就是帮助计算机从最底层沿着阶梯一步步向上爬。
这就是第二部分的全部内容。接下来,第三部分,我们再来说说利用因果思维模型,人工智能的发展将会是怎样的。
03人工智能的发展将会是怎样的在第二部分中,我们说过,因果思维是观察、干预和想象的过程,这是一种很主观的过程。我们想象中的人工智能其实是希望计算机具备这种主观的思考方法,能够自发的进行运算和处理,简单点说,就是希望计算机拥有自由意志。
自由意志的感觉到底有什么用呢?珀尔的看法是它首先有利于交流。
有自由意志,才谈得上有“动机”,而动机提供了对行为的解释。我有自由意志,在众多的选项中我先选择了这个动机,然后才谈得上据此去做理性的说服。价值观总是在方法论之前,你总要先知道自己想要什么,再用理性研究怎么做。然后你还可以使用反事实分析,说我当时如果克制了那个愿望,也许现在会有更好的结果。
珀尔还特意举了一个踢足球的例子。阿根廷队比赛结束之后,教练跟梅西说,当时那个情况你不应该把球传给迪玛利亚,你应该给阿圭罗。这句话就已经假定了梅西有自由意志。教练和梅西都明白这么做是为了赢球,赢球的动机不变,现在只是要做个小调整,为了获得更好的进攻机会。短短一句话背后有太多心照不宣的默认动机。
可是如果假定梅西没有自由意志,你要表达这么一个意思就非常困难。教练需要调用梅西的整个软件系统,把当时场上的情况、以及所有类似的情况的优先级赋值都调整一遍。教练会感到很麻烦,梅西会变得一脸茫然。
所以珀尔说,从交流的效率考虑,如果将来要搞一支机器人足球队,这些机器人最好有自由意志的幻觉。自由意志会让他们的表现更好。
更重要的是人跟AI的交流。就算AI可以使用一种特别复杂的机器语言互相对话、不需要有自由意志,但是人需要啊。当一个人跟AI说话的时候,他还是假定AI有自由意志。AI需要自由意志的幻觉才能理解人的意图。那怎样才算有自由意志呢?
对人来说,自由意志的好处不仅仅是交流。时刻提醒一下自己有自由意志,可以让我们做出更好的选择。
比如说有个烟民,抽烟已经形成习惯了。如果他在毫无意识的情况下,从口袋里掏出烟就抽,那我们可以说他在这件事儿上没有表现出自由意志。他是抽烟的机器,他是烟瘾的奴隶。但是如果这个人把烟拿出来之后,突然停顿了一下,意识到自己现在有个“想抽烟”的动机,他就开启了自由意志。他马上就可以反思这个动机!他可以想到,如果我现在不抽烟,改成吃个苹果,会不会有更好的结果呢?
珀尔据此提出了一个标准。如果一个AI知道自己当前的动机是要做一件事,同时它能评估一下,说如果换一个选择,做另一件事,结果会不会更好,那我们就可以认为这个AI有自由意志。
人在行事过程中如果能表现出自由意志,他就能够独立自主、他就能自己控制自己,他就值得尊敬。AI如果有自由意志,它就可以算得上是“强AI”。珀尔说,目前还没有任何一个AI程序有这样的功能。
那怎么才能让AI有自由意志呢?它需要具备三个特点。
首先,它需要一个关于世界的因果模型。比如你家有个扫地机器人。有一天晚上你正在睡觉的时候,这个机器人想要打扫房间,它拿着吸尘器就开始扫地,把你给吵醒了,你想让他安静点。这个机器人需要有个因果模型才能理解你这句话。它得知道扫地会导致噪音,噪音会吵醒你,吵醒你会让你不高兴。
它还得会干预分析和反事实分析。它得知道虽然你说了这句话,但是白天它还是可以扫地。它得知道晚上你要是不在家,它可以扫地。它得知道如果这个吸尘器是绝对静音的,你就算在睡觉它也可以扫地。只有因果模型才能帮它做出这些灵活的处置。
第二,它需要把自己也当成环境的一部分,考虑自己跟环境的因果互动。一个有意思的论断是机器人永远都无法100%预测自己的行为。因为你要精确预测自己的行为,就得把自己的程序跑一遍,可是你本来就已经在跑自己的程序啊!你不可能开一个子进程,这个子进程里又包括了全部的你,否则就是无限循环。所以AI需要一个关于自己的因果关系模型。他对自己的行为特点、对自己的动机会产生什么结果有一个基本的蓝图,这样它才能把自己和环境综合考虑。
第三,它还需要一个记忆系统。他得知道自己以前的那些动机都导致了什么样的后果,这样他才能从错误中学习,他才能对自己的行动负责,也就是反思的能力。
好了,到这里,这本书的重点内容就为你分享的差不多了,现在来总结一下。过去三十年间,学术界爆发了一场关于因果思维的革命。第一部分,我们知道了为什么要问“为什么”。问“为什么”的能力,是我们与生俱来思考问题的能力,但是在相关关系思维的影响下,因果思维被掩藏了起来。第二部分,我们介绍了介绍了有关因果关系的科学,对于观察、干预和想象这三种因果思维层级。第三部分,我们讨论了在因果思维研究下,人工智能的发展方向。返回搜狐,查看更多
聂潜:现在市面上95%的人工智能都是「假智能」
聂潜:现在市面上95%的人工智能都是「假智能」?作者:CashCat2017年11月12日人工智能人工智能在2017年全球的暴涨性增长,不论行业、企业还是会议,不以人工智能为重心注定不会有人关注。
百度ALLin人工智能,阿里成立了达摩研究院重点关注人工智能,刚刚结束的腾讯开放大会也宣布AIallin,就连昨晚的天猫双11狂欢夜也出动机器人乐队和大量智能设备。
人工智能在快速发展的同时,也出现了大部分泡沫,特别是人工智能的底层技术区块链,2016年的区块链项目到今年仅有5%存活。所以在人工智能浪潮来临的时候,我们必须警惕,当前的人工智能的项目中存在大量的假智能,假智能的比例可能达到95%以上,甚至99%都是假智能。
为什么说有假的人工智能存在?
第一,人工智能的人才匮乏
人工智能是一门综合学科,所以具备人工智能能力的人才不会一夜之间冒出来的。无论在学校还是在企业,真正懂人工智能的太少,现在所谓做人工智能的人才大部分都是机械自动化的,或者是打着做机器人旗号的人。而我们看,现在机器人根本不是人工智能,只是自动化程度比较高的机器。
全球几万家人工智能公司哪可能有那么多人工智能人才,人工智能的人才首先应该是某一个领域的深度专家,拥有丰富的知识库经验,这就是数据智能。然后再拥有自主生产智能的场地,就是智能平台,再拥有互联网的超级链接力把社会资源进行重新配置,最后植入产业的各个应用场景里产生价值。所以鉴别人才很简单,四个维度:数据智能力、自主智能平台、网络连接力、场景应用力。
第二,很多人工智能项目只是换了马甲而已。
现在很多人工智能项目都是现在原来的老项目基础上贴了一个新的马甲,比如项目用了一点VRAR、机器学习、深度学习或者大数据计算的一点技术及整体项目用了一些机器人,就标榜自己是人工智能项目。
其实在没有人工智能浪潮来临时候,这些项目都在以互联网、大数据、自动化等名义长期存在,现在什么都变,换了个马甲就来忽悠人。
如何识别「真假人工智能」?
我们看到「阿尔法狗」可以算是人工智能的典型代表,这个机器从学会下棋到一个入门级初级棋手,到打败世界冠军,据报道用了1年时间。所以判断真假人工智能的方法也很简单,阿尔法狗第一拥有大量的围棋棋手下棋数据库,然后根据这些数据库在阿尔法狗的自主智能平台里与社会变化的下棋数据进行连接对话,逐步的优化自己的下棋算法,所以阿尔法狗的既不是智能指数级的增长。
所以说人脸识别、语音识别、VR、AR、深度学习这些名词都不能直接定义为人工智能,只是人工智能实现用到工具之一,这于用平台电脑、互联网乃至纸笔工具一样,只要实现最后的智能指数级增长,只是工具的类型不同而已。
也就是说一个人工智能领域的项目,如果用阿尔法狗的逻辑一套就明白,很多项目短期内都难以形成指数级的智能增长,所以就可以断定这些都是假的人工智能。
技术是不是人工智能最重要的?
在人工智能领域内,数据比技术更重要。如果技术是一把锋利剑的话,那么数据就是生产利刃的火炉。所以我们看到人脸识别、语音识别等技术很重要但不是最重。一把利剑需要大量火和火炉匠人的不断打磨才可以打成,所以人工智能的数据库和数据运算才是最重要的。
之前写过为什么阿尔法狗可以做围棋,不能做麻将、象棋等,这些得益于围棋几百年的棋谱都存在,围棋的数据特别全。而象棋、麻将几千年来说,基本没有什么棋谱和相对稳定的规则,要把残缺数据智能喂给机器进行重新运算,再变成指数级智能增长的可能性就很小了。所有没有大量多维度数据积累的项目,再用什么智能技术都不可能是真的人工智能了。
这就是意味着数据对人工智能有多重要。离开数据,谈人工智能是没有意义的。
下一位人工智能新独角兽在哪?
未来在那些领域,人工智能会出现像BAT、谷歌、亚马逊一样的独角兽呢?
很多人有疑问,现在在美国,大部分数据被Google、Facebook、亚马逊所掌握,在中国又被百度、腾讯、阿里掌握数据,是不是未来人工智能的行业要被这些公司垄断呢?未来其他公司有没有可能成为人工智能的独角兽企业?
答案是肯定的,从人工智能的数据维度来讲分两类:
一、社会基础数据
Google、Facebook、亚马逊和BAT的确依靠互联网的优势,拥有了大量的数据,但是以人工智能应用的角度,这些数据远远不够。比如工业设备数据、医疗数据、金融数据。还有很多基础数据是这些公司都没有的,任何一个领域和人工智能集合起来都可能产生新的数据智能。
二、自主数据
人工智能的未来的技术生态一定是区块链作为底层应用的,与传统互联网最大不同在于,人工智能的数据维度不同。互联网是模糊数据大集中,而人工智能数据是以具体的产业应用的为中心形成自我价值区块精准数据。将来任何人工智能的数据都是以自我人的中心形成自己分布式的数据库,有些数据是联网交互的数据,有些相对离线运营运算的数据。云计算的能力而不是云存储的数据,数据被分成不同碎片分布的存储。
所以即使BAT和Google、Facebook、亚马逊拥有大量的数据,但是这些数据以每一个人工智能项目来说,产生精准数据时候只会用到其中很小一部分,再集合自我的数据积累,利用自主智能平台不断产生的自我运算数据才是核心价值。就像阿尔法狗一样,前期那些围棋棋谱数据未来都可以获得,获取的成本也会越来越低,但是阿尔法狗智能运算平台及反复运算处理,深度学习的自我产生的智能数据才是战胜人类的关键。
所以,未来的独角兽公司,最可能存在工业领域、医疗领域、金融领域,重点推荐关注几家公司:
工业领域:中机新时代-工业人工智能平台研发公司
医疗领域:东软集团-医疗领域大数据公司
金融领域:高盛集团-金融+人工智能公司
当然,未来人工智能不是向互联网一样会出现几家垄断的公司,分布式数据的未来,会让任何一个公司采用人工智能的思维模式都可以生产自主的智能,实现指数级的增长,完成人工智能的转型。
最后提醒记住人工智能转型四要素:数据、平台、网络、场景
一个互动问题:你觉得最新假人工智能的公司或项目是那个?欢迎留言!
来源:中传媒聂潜
第一时间获取面向IT决策者的独家深度资讯,敬请关注IT经理网微信号:ctociocom
除非注明,本站文章均为原创或编译,未经许可严禁转载。相关文章:人工智能会成为新的麦肯锡吗?网信办《生成式人工智能服务管理办法(征求意见稿)》公开征求意见科技创新能否拯救刀锋上的世界经济ChatGPT的第一个企业级杀手应用:知识管理StableDiffusion遭艺术家诉讼,生成式AI面临版权泥沼2023年十家值得关注的新兴创业公司美国的人工智能领导地位被印度超越了?人工智能生成内容的拐点已经到来?标签:人工智能关于作者CashCat上一篇«从宜家到Spotify,为什么瑞典成了欧洲的科技创投中心?为什么信息安全行业留不住人才?»下一篇ChatGPT是天才还是傻子从哲学角度剖析人工智能的现实挑战
中国经济网北京3月8日讯(记者何欣)2022年11月,自OpenAI的语言模型ChatGPT问世以来便霸屏全网。
瑞银报告显示,“光速出圈”的ChatGPT推出仅两个月,月活用户就已突破1亿,成为史上用户增长速度最快的消费级应用程序。
大洋彼岸的振翅,也掀起了国内的AI巨浪。而ChatGPT的爆红,也不免让人联想起两年前同样被称之为创世纪的“元宇宙”。
3月7日,中国社会科学院金融研究所举办第406期《金融论坛》,论坛主题为《AI,元宇宙和ChatGPT对哲学的提问》。AI的能力能否超过人类?ChatGPT是否实现了自我意识?人类智能的极限在哪里?与会专家从哲学的角度,深入探讨剖析AI,元宇宙和ChatGPT。
AI的时代势不可挡
人工智能,英文缩写为AI。“AI的时代是势不可挡的,AI的时代一定到来。但同时,AI可以无限逼近人的知识,但是超不过人。”中国社会科学院学部委员、研究员赵汀阳说。
赵汀阳认为,AI的能力一部分来自物理能力,它的速度非常快,在未来各种AI系统,ChatGPT,还是元宇宙,都会联合作业,成为一个更大的系统。另一部分是它的设计能力,这是人的设计,因此可以推理说AI的设计能力不会超出人的能力,会逼近人的能力,但是不能超过人的能力。第三种能力是它的内容,来自人的喂食,它也可以通过大数据、互联网、资料库,甚至把全部人类知识都喂给它,或者它自己获取。
人工智能从诞生以来,理论和技术日益成熟,应用领域也不断扩大,可以设想,未来人工智能带来的科技产品,将会是人类智慧的“容器”。
ChatGPT有可能是一个能力超强的傻子
ChatGPT为什么一经问世就备受瞩目?ChatGPT语言模型的对话和信息处理能力,让搜索体验上升到了另一个维度,实现从“搜索结果中筛选答案”升级至“搜索引擎直接给出最终结论”的飞跃。
赵汀阳认为,ChatGPT在学习训练中会越来越像人,但是“像人”,而不“是人”。而这是一个假象,因为学的“像人”只是模仿,“而且我们现在看出来了,ChatGPT学成了一个马屁精,人喜欢什么,它就说什么。”
ChatGPT是不是有了自我意识?主动意识?赵汀阳认为不是,它还没有创造性化和自我意识。ChatGPT的思维方式是典型的经验主义,以真实的标签来代替了人工的标签,或者叫标注。ChatGPT是通过实例来建立语词的意义和语词之间的联系,不借用概括性的原则,它只需要通过实例的有限集合来形成意义,而学习和训练就是通过实例的增长来实现的。
“ChatGPT有可能是一个能力超强的傻子,因为不知道意义和价值,有可能就是一个傻子”,赵汀阳说。
清华大学长江学者讲座教授蔡维德与赵汀阳有着同样的观点,他认为,人工智能就是一个行动特别快的白痴,所有的智能是人类给它的,人工智能之所以厉害,是给予它规则算法的人类更厉害。所有的人工智能其实说起来都是一个魔术,一个幻象,没有创造力。
人工智能将来能不能突破人类的智能常数?变成一个真正的新主体?
在赵汀阳看来,必须能够产生与人不同的新思维,能够开发出新的思维维度。目前很难想象,要突破这个基点,需要满足这样几个条件。一个是拥有自我意识,一个是突破智能的常数,还有一个是拥有创造性。
ChatGPT的黑暗面
ChatGPT爆火的同时,也带来了巨大争议。蔡维德认为,ChatGPT存在着一定的黑暗面,比如:系统提供犯罪计划;不常语言,参与客户的感情空间;提供假信息,误导客户;将客户提供的高价值信息据为己有;坏人训练“白痴”做坏事……
针对这些可能的危机,蔡维德认为必须主动出击。第一是法规数字化,所有法律全部数字化。ChatGPT里全部是数字,把法规,宪法,全部放进ChatGPT类似的系统。第二是知识数字化,把知识规则全部数字化,这样才能建立完整的知识。第三是人工智能系统合规化,不能让坏人碰到,不能吸收坏人的知识,坏人的规则。第四是教育数字化,担心ChatGPT会影响到教育,如果不用我们会落后很多。教育方法也注入ChatGPT,有一个合规法律,正常教学的ChatGPT人工智能系统。
人工智能的现实挑战
人工智能的进步在给人类生产、生活、思维、交往等方面带来翻天覆地的影响,也引起了人们对其风险的关注。人工智能是一种具有远大前途的、新兴的技术,但同时也是尚未成熟,难以预料的颠覆性技术。
赵汀阳认为,人工智能带给人类的现实挑战体现在四个方面:
其一是价值论的挑战。人工智能能够帮人类做很多很多事情,人工、手艺、经验、学习等等这些都会大大贬值。不需要劳动,不需要动手,也不需要经验。结果就是人会变成废物。而废物化会导致生活失去意义。
其二是元宇宙的挑战。如果把最要命的、最重要的、最好玩的东西都挪到了元宇宙里面去,就会导致两种贬值。一个是真实世界贬值了,因为真实世界既不安全,也不好玩,人对真实世界就会失去兴趣。另一个是人和人的关系也会贬值。
其三是存在论的挑战。人和人工智能之间的关系变成了一个新的主体间的关系,这个关系到底好不好?如何相处?现在是完全不知道的,这是一个新的存在论的状态。
其四是政治上的挑战。不管是AI,元宇宙还是ChatGPT,所有的人工智能以后的发展在政治上都是危险的。以人工智能为代表的技术,如果发展下去应该会让人类走向一种新的专制,而不是民主。