博舍

霍金:人工智能也可能是人类文明的终结者 人工智能可能是人类文明的终结者吗为什么

霍金:人工智能也可能是人类文明的终结者

时间:2017-4-2815:55:46来源:科学网

4月27日,著名物理学家史蒂芬·霍金在北京举办的全球移动互联网大会上做了视频演讲。在演讲中,霍金重申人工智能崛起要么是人类最好的事情,要么就是最糟糕的事情。他认为,人类需警惕人工智能发展威胁。因为人工智能一旦脱离束缚,以不断加速的状态重新设计自身,人类由于受到漫长的生物进化的限制,将无法与之竞争,从而被取代。

以下为霍金演讲内容:

在我的一生中,我见证了社会深刻的变化。其中最深刻的,同时也是对人类影响与日俱增的变化,是人工智能的崛起。简单来说,我认为强大的人工智能的崛起,要么是人类历史上最好的事,要么是最糟的。我不得不说,是好是坏我们仍不确定。但我们应该竭尽所能,确保其未来发展对我们和我们的环境有利。我们别无选择。我认为人工智能的发展,本身是一种存在着问题的趋势,而这些问题必须在现在和将来得到解决。

人工智能的研究与开发正在迅速推进。也许我们所有人都应该暂停片刻,把我们的研究重复从提升人工智能能力转移到最大化人工智能的社会效益上面。基于这样的考虑,美国人工智能协会(AAAI)于2008至2009年,成立了人工智能长期未来总筹论坛,他们近期在目的导向的中性技术上投入了大量的关注。但我们的人工智能系统须要按照我们的意志工作。跨学科研究是一种可能的前进道路:从经济、法律、哲学延伸至计算机安全、形式化方法,当然还有人工智能本身的各个分支。

文明所提产生的一切都是人类智能的产物,我相信生物大脑可以达到的和计算机可以达到的,没有本质区别。因此,它遵循了“计算机在理论上可以模仿人类智能,然后超越”这一原则。但我们并不确定,所以我们无法知道我们将无限地得到人工智能的帮助,还是被藐视并被边缘化,或者很可能被它毁灭。的确,我们担心聪明的机器将能够代替人类正在从事的工作,并迅速地消灭数以百万计的工作岗位。

在人工智能从原始形态不断发展,并被证明非常有用的同时,我也在担忧创造一个可以等同或超越人类的事物所导致的结果:人工智能一旦脱离束缚,以不断加速的状态重新设计自身。人类由于受到漫长的生物进化的限制,无法与之竞争,将被取代。这将给我们的经济带来极大的破坏。未来,人工智能可以发展出自我意志,一个与我们冲突的意志。尽管我对人类一贯持有乐观的态度,但其他人认为,人类可以在相当长的时间里控制技术的发展,这样我们就能看到人工智能可以解决世界上大部分问题的潜力。但我并不确定。

2015年1月份,我和科技企业家埃隆·马斯克,以及许多其他的人工智能专家签署了一份关于人工智能的公开信,目的是提倡就人工智能对社会所造成的影响做认真的调研。在这之前,埃隆·马斯克就警告过人们:超人类人工智能可能带来不可估量的利益,但是如果部署不当,则可能给人类带来相反的效果。我和他同在“生命未来研究所”的科学顾问委员会,这是一个为了缓解人类所面临的存在风险的组织,而且之前提到的公开信也是由这个组织起草的。这个公开信号召展开可以阻止潜在问题的直接研究,同时也收获人工智能带给我们的潜在利益,同时致力于让人工智能的研发人员更关注人工智能安全。此外,对于决策者和普通大众来说,这封公开信内容翔实,并非危言耸听。人人都知道人工智能研究人员们在认真思索这些担心和伦理问题,我们认为这一点非常重要。比如,人工智能是有根除疾患和贫困的潜力的,但是研究人员必须能够创造出可控的人工智能。那封只有四段文字,题目为《应优先研究强大而有益的人工智能》的公开信,在其附带的十二页文件中对研究的优先次序作了详细的安排。

在过去的20年里,人工智能一直专注于围绕建设智能代理所产生的问题,也就是在特定环境下可以感知并行动的各种系统。在这种情况下,智能是一个与统计学和经济学相关的理性概念。通俗地讲,这是一种做出好的决定、计划和推论的能力。基于这些工作,大量的整合和交叉孕育被应用在人工智能、机器学习、统计学、控制论、神经科学、以及其它领域。共享理论框架的建立,结合数据的供应和处理能力,在各种细分的领域取得了显著的成功。例如语音识别、图像分类、自动驾驶、机器翻译、步态运动和问答系统。

随着这些领域的发展,从实验室研究到有经济价值的技术形成良性循环。哪怕很小的性能改进,都会带来巨大的经济效益,进而鼓励更长期、更伟大的投入和研究。目前人们广泛认同,人工智能的研究正在稳步发展,而它对社会的影响很可能扩大,潜在的好处是巨大的,既然文明所产生的一切,都是人类智能的产物;我们无法预测我们可能取得什么成果,当这种智能是被人工智能工具放大过的。但是,正如我说过的,根除疾病和贫穷并不是完全不可能,由于人工智能的巨大潜力,研究如何(从人工智能)获益并规避风险是非常重要的。

现在,关于人工智能的研究正在迅速发展。这一研究可以从短期和长期来讨论。一些短期的担忧在无人驾驶方面,从民用无人机到自主驾驶汽车。比如说,在紧急情况下,一辆无人驾驶汽车不得不在小风险的大事故和大概率的小事故之间进行选择。另一个担忧在致命性智能自主武器。他们是否该被禁止?如果是,那么“自主”该如何精确定义。如果不是,任何使用不当和故障的过失应该如何问责。还有另外一些担忧,由人工智能逐渐可以解读大量监控数据引起的隐私和担忧,以及如何管理因人工智能取代工作岗位带来的经济影响。

长期担忧主要是人工智能系统失控的潜在风险,随着不遵循人类意愿行事的超级智能的崛起,那个强大的系统威胁到人类。这样错位的结果是否有可能?如果是,这些情况是如何出现的?我们应该投入什么样的研究,以便更好的理解和解决危险的超级智能崛起的可能性,或智能爆发的出现?

当前控制人工智能技术的工具,例如强化学习,简单实用的功能,还不足以解决这个问题。因此,我们需要进一步研究来找到和确认一个可靠的解决办法来掌控这一问题。

近来的里程碑,比如说之前提到的自主驾驶汽车,以及人工智能赢得围棋比赛,都是未来趋势的迹象。巨大的投入倾注到这项科技。我们目前所取得的成就,和未来几十年后可能取得的成就相比,必然相形见绌。而且我们远不能预测我们能取得什么成就,当我们的头脑被人工智能放大以后。也许在这种新技术革命的辅助下,我们可以解决一些工业化对自然界造成的损害。关乎到我们生活的各个方面都即将被改变。简而言之,人工智能的成功有可能是人类文明史上最大的事件。

但是人工智能也有可能是人类文明史的终结,除非我们学会如何避免危险。我曾经说过,人工智能的全方位发展可能招致人类的灭亡,比如最大化使用智能性自主武器。今年早些时候,我和一些来自世界各国的科学家共同在联合国会议上支持其对于核武器的禁令。我们正在焦急的等待协商结果。目前,九个核大国可以控制大约一万四千个核武器,它们中的任何一个都可以将城市夷为平地,放射性废物会大面积污染农田,最可怕的危害是诱发核冬天,火和烟雾会导致全球的小冰河期。这一结果使全球粮食体系崩塌,末日般动荡,很可能导致大部分人死亡。我们作为科学家,对核武器承担着特殊的责任,因为正是科学家发明了它们,并发现它们的影响比最初预想的更加可怕。

现阶段,我对灾难的探讨可能惊吓到了在座的各位。很抱歉。但是作为今天的与会者,重要的是,你们要认清自己在影响当前技术的未来研发中的位置。我相信我们团结在一起,来呼吁国际条约的支持或者签署呈交给各国政府的公开信,科技领袖和科学家正极尽所能避免不可控的人工智能的崛起。

去年10月,我在英国剑桥建立了一个新的机构,试图解决一些在人工智能研究快速发展中出现的尚无定论的问题。“利弗休姆智能未来中心”是一个跨学科研究所,致力于研究智能的未来,这对我们文明和物种的未来至关重要。我们花费大量时间学习历史,深入去看——大多数是关于愚蠢的历史。所以人们转而研究智能的未来是令人欣喜的变化。虽然我们对潜在危险有所意识,但我内心仍秉持乐观态度,我相信创造智能的潜在收益是巨大的。也许借助这项新技术革命的工具,我们将可以削减工业化对自然界造成的伤害。

我们生活的每一个方面都会被改变。我在研究所的同事休·普林斯承认,“利弗休姆中心”能建立,部分是因为大学成立了“存在风险中心”。后者更加广泛地审视了人类潜在问题,“利弗休姆中心”的重点研究范围则相对狭窄。

人工智能的最新进展,包括欧洲议会呼吁起草一系列法规,以管理机器人和人工智能的创新。令人感到些许惊讶的是,这里面涉及到了一种形式的电子人格,以确保最有能力和最先进的人工智能的权利和责任。欧洲议会发言人评论说,随着日常生活中越来越多的领域日益受到机器人的影响,我们需要确保机器人无论现在还是将来,都为人类而服务。向欧洲议会议员提交的报告,明确认为世界正处于新的工业机器人革命的前沿。报告中分析的是否给机器人提供作为电子人的权利,这等同于法人(的身份),也许有可能。报告强调,在任何时候,研究和设计人员都应确保每一个机器人设计都包含有终止开关。在库布里克的电影《2001太空漫游》中,出故障的超级电脑哈尔没有让科学家们进入太空舱,但那是科幻。我们要面对的则是事实。奥斯本·克拉克跨国律师事务所的合伙人,洛纳·布拉泽尔在报告中说,我们不承认鲸鱼和大猩猩有人格,所以也没有必要急于接受一个机器人人格。但是担忧一直存在。报告承认在几十年的时间内,人工智能可能会超越人类智力范围,人工智能可能会超越人类智力范围,进而挑战人机关系。报告最后呼吁成立欧洲机器人和人工智能机构,以提供技术、伦理和监管方面的专业知识。如果欧洲议会议员投票赞成立法,该报告将提交给欧盟委员会。它将在三个月的时间内决定要采取哪些立法步骤。

我们还应该扮演一个角色,确保下一代不仅仅有机会还要有决心,在早期阶段充分参与科学研究,以便他们继续发挥潜力,帮助人类创造一个更加美好的的世界。这就是我刚谈到学习和教育的重要性时,所要表达的意思。我们需要跳出“事情应该如何”这样的理论探讨,并且采取行动,以确保他们有机会参与进来。我们站在一个美丽新世界的入口。这是一个令人兴奋的、同时充满了不确定性的世界,而你们是先行者。我祝福你们。

来源链接:http://news.sciencenet.cn/htmlnews/2017/4/374840.shtm

人工智能将成为人类终结者? 会取代人类的全部吗

肯定有很多施瓦辛格的粉丝都看过《终结者》这部剧,在这部剧里面主要讲述的一个内容就是超级强大的人工智能机器人反噬人类的故事,就是终结者号机器人产生了自我意识,差点把整个人类都灭绝。《终结者》系列不变的线索,永远是“终结者”与人类之间“追杀”和“保护”的故事。

有人希望拥有一个强大而忠实的人工智能守护者,也有人担心人工智能成为人类的“终结者”那天迟早会到来。

那么,人工智能究竟会不会成为人类的“终结者”?

生物的进化的速度要以百万年的时间来计算,而人工智能却在以肉眼看得见的速度进化,不断给人类社会带来冲击。在前两年的时候,人类制造的人工智能阿尔法狗已经能够在围棋这个领域上战胜世界第一的棋手柯洁。

1997年,“DeepBlue”(深蓝)打败了人类国际象棋大师;

2011年在益智游戏节目《危险边缘》中,“Watson”(沃森)战胜过人类冠军。

现在我们人类也可以清楚的认识到,人工智能的力量确实是要比单纯人类的力量更强大一些,可能在未来,人工智能将会占据社会的主导地位,并不只是单纯的为人类服务,等他们真的产生了灵智,有可能就会征服人类,给他们服务。

在AI发展一片欣欣向荣的景象中,传奇物理学家斯蒂芬·霍金却对未来AI和人类的关系充满了担忧。他认为AI可能是人类文明历史中最糟糕的发明,担心AI终将取代人类。他曾多次公开表示:“彻底开发人工智能可能导致人类灭亡”。

霍金在很久之前就曾经告诫过人类。千万不要过度的发展人工智能,发展的太快对于人类没有好处,很显然,现在的人类早已经忘记了霍金所说过的话,也有可能是压根不把霍金说过的话当回事,当前也已经可以看到在不少的国家都研究出来和人类比较相似的机器人,甚至可以和人类正常的交流,说话的声音和表情动作也都不再那么生硬。

不仅是霍金,处于风口浪尖的“钢铁侠”设计者埃隆·马斯克以及微软创始人比尔·盖茨,也都警告过要注意AI的“危害”。MIT的教授以及几名来自美国三大互联网巨头谷歌、IBM和微软的企业员工等,也曾联名写过公开信,表达AI未来会影响人类安全问题和社会福利问题的忧虑。

或许在未来,人工智能真的可以毁灭人类世界,但也绝对不是这一两百年能够做到的事情,到时候我们早已经没入黄土当中,就算是机器人真的要统治人类,世界也是人类自己作的。

对话丹华资本谷安佳:人工智能 人类文明可能延续

作者:冯郁青

谷安佳,斯坦福大学应用物理学博士。他与斯坦福大学张首晟教授共同创办的丹华资本管理规模6亿美元以上,已经是硅谷地区最有影响力的华人风险投资基金之一。广泛投资人工智能、大数据、医疗健康等领域。年纪轻轻的他去年获得了“世界杰出华人奖”。

学霸出身的谷安佳秉承传统理科生对科学和规律的信仰,尽管投资是对未来事物可行性的一种判断,他认为规律在起着决定性的作用。而关于未来的种种不确定性都是规律中的变量。

“不确定性的东西也是规律的一部分。有一些东西一定会发生,不确定的东西发生也有一定概率存在。未来有很多确定的东西也有更多不确定的东西。这些加起来才构成规律。”

谷安佳说中文稍有些南方口音,语速稍快,思维缜密。硅谷精英多是穿着随意的工程师,而他西装革履,看世界的眼光是科学家的严谨和乐观。他和一财记者深入探讨了人工智能的发展以及对人类社会有可能带来的深刻改变。

大数据使得人工智能已经可以自己学习。最近三五年,人工智能的巨大变化就是因为“专家系统”到“小孩系统”的转变。人工智能飞速发展是否会造成大量社会人口失业?人工智能随着不断的学习,是否也会渴望意义和权力?这些可能性都让很多人担忧不已。

谷安佳认为,就目前情况来说,离这两种情况还非常远。人类进化到现在,逻辑方面的进步几乎是不太可能了。人类社会需要依靠技术和创造出来的新事物,来反逼人类进步。这种进化是体现在一种更高层的模式,即人类和人类所创造出的新事物一起进化。

他进一步阐述,“人类是碳基文明,人工智能是硅基文明,能够作为人类文明的遗产留下来,人类的肉体并不如人工智能。在极端条件下,人类如果可以开发出来一种可以承载文明、逻辑思考学习能力的载体,这其实是人类文明的延续。”

一财:从2011年IBM机器人Watson赢得Jeopardy答题秀,到去年alpha狗击败柯洁,你觉得人工智能经历了一个什么样的过程?

谷安佳:人工智能质的突变在于让它的算法有提升的空间。它可以自己学习,可以自己跟自己比赛,这个是人工智能让我们感到惊异的一点。

一财:为什么机器可以自己学习?

谷安佳:其实机器自己学习也没有什么深奥的地方。机器学习其实就是在数据里面找出规律。机器在大量的数据里面通过重复的计算,像人的神经网络一样,从表面现象再归纳,抽象,再一层层地推进。在这个过程中,实际上也是一种算法。人类也是这样的,只是一般人意识不到。计算机学会人类一些简单的推理和算法的演变也没有什么奇怪的。只是人类在最开始的时候认为计算机不太可能学会人类的思维模式。像当年IBM的“深蓝”,它还是用比较简单粗暴的方法,通过运用大量的实例,大量的演算。需要的数据库也是几栋楼。所以在那个时候人们认为这种机器的实用性,离日常生活比较远。人类对于人工智能的理解,是经过了几个阶段的,比如说,最开始的机器比人类算得更快,后来人类发现人工智能不过如此。人类经过这种“狼来了”的效果后,觉得人工智能在某些方面可以打败人类,人类的整体认知就进入了两极分化,一些人就很积极地,狂热地投身于人工智能;另外一些人就陷入悲观,也进入一个瓶颈期。

最近三五年人工智能的巨大变化就是因为“专家系统”到“小孩系统”的转变。图片识别也是最近几年人工智能发展的一个方面。当训练一个机器去看图的时候,其实跟小孩一样。小孩小时候对猫狗或者周边环境也是没有感觉的,但当他不停接受外界刺激后,神经元就自然而然地被固化。这个过程跟训练机器的过程非常相似。运用大量的数据通过一些算法总结他的最基本的结构最基本的一些特征之后,机器就学习到了。机器学习是通过参数实现的。人工智能也是通过大数据的方式取得了大的突破。

一财:当人工智能学习到大量的数据后,会不会出现变异的可能性?

谷安佳:人工智能在数据归纳总结认知等方面是有可能超过人类的。比如说图像识别中,人工智能所花费的时间和识别准确度都已经超过人类了。所以人工智能超过人类已经不是什么让人吃惊的事情了。所有能量化的事情,比如围棋,电子游戏,或者其他的能够定义好的东西,人工智能在这些方面都有可能超过人类。

目前还没有看到人工智能会变异这种现象的发生。因为人工智能现在都需要人类给它定义好工作范畴,当你告诉它目标和优化方向的时候,人工智能可以做到比人类更好。对于一些简单机械重复,靠时间日积月累的事情,人工智能也能做得比人类好。

人工智能在未来某些方面可能会出现一些延伸,但是在未来还是要看科学家或者研究人员的本性是不是要让人工智能为人类造福,如果是出于这种动机,我相信人工智能是不会出现变异的问题的。因为在我们看来,人工智能本身对人类是没有敌意的。因为人工智能所基于的硅基系统和人类的碳基系统在本质上是没有冲突的。

一财:但是这些不同是最基础的生理方面的不同。人工智能随着不断的学习可能也渴望意义和权力,那这种情况可能发生吗?

谷安佳:这些东西其实是需要人类给它定义的。这些东西其实是人类对自己的影射,也就是说我们有这种需要,那其他物种是不是都会有。人工智能所谓的意义和我们人类定义的意义可能是不一样的。我觉得人工智能是不会去危害人类的。除非人工智能被人利用。

一财:但被人利用也很可怕呀。

谷安佳:所以说这些技术的作用其实取决于人类本身。如果有人故意用人工智能达到一些邪恶目的,那也是很可怕的。所以关键是如何控制人。比如说通过立法,或者是一些伦理道德方面的控制,或者对研究经费方面的一些调控,严格定义人工智能犯罪的范畴,才能防止人工智能犯罪。

一财:人工智能可能导致大量社会人口失业,也有可能变异危害人类社会。那您认为人工智能可能导致的危害是否包含这两点?

谷安佳:这两种可能性都是存在的。极端情况下,这两方面的情况是可能造成社会问题的。就目前情况来说的话,离这两种情况还非常远。因为人工智能本身来说,如果它真的做得比人类好的话,其实是一件乐见其成的事情,因为它确实减免了一些不必要的重复性劳动。

一财:在现在这种相对成熟的社会模式下,人工智能可能造成的大范围失业会对人类社会的稳定造成巨大挑战,这种可能性存在吗?

谷安佳:人类的进步和技术的发展是密不可分的。每一次文明的升级都是依靠技术。在人类的发展过程中,不能因为某种技术可能会造成一些社会动荡和影响就去阻碍这种技术的发展。因为技术的发展是不可逆转的。而且技术所带来的阵痛其实是对人类社会有帮助的。即使是有失业情况的发生,但是最终人类还是可以通过自己的学习和自我演化来进步。人类进化到现在,逻辑方面的进步几乎是不太可能了。人类社会的进步是依靠技术和创造出来的新事物来反逼人类进步。这种进化是体现在一种更高层的模式,即人类和人类所创造出的新事物一起进化。

一财:这些新东西是敌是友呢?

谷安佳:我觉得目前来讲人类所创造出的新事物是帮助人类自己的。所以虽然在某一阶段,我们可能会看到虽然人工智能会带来巨大冲击,但人类自己会去学习,失业的人会去找到新的工作。

一财:你认为我们要对未来可能出现的科技发展对社会的影响保持“谦卑”的态度吗?没有人确切会知道会发生什么

谷安佳:我认为人类应该谦卑。我认为人类更应该去适应。因为从自然进化的角度来说,人类已经处于生物链顶端,再没有天敌会逼着人类走向一个更高级的社会形态。所以人类社会的发展更需要依靠人类自己的演化和人类自己创造的一些技术。

一财:人类文明会毁灭吗?

谷安佳:这个到最后的话也是有可能的。我相信万事万物都有规律。比如出生发展鼎盛衰退灭亡。这个规律几乎在所有事物中都可以看到。所以在我看来人类的毁灭最终是会发生的。

一财:我的意思是人类因为自己创造出来的东西而毁灭。

谷安佳:我相信这种概率会小一些,人类把自己作死的可能性比较小。人的个体很脆弱,但人类整体是拥有神奇的自我调整和纠错能力的。人类善于从过去的失败中找出经验教训。比如两次世界大战后,人类处理冲突的手段有了很大的改变。所以人类毁灭更有可能是因为一些自然灾害或者大的变故。

我们人类的历史非常短,在这么短的时间内,我们还没有遇到过灭顶之灾,但这并不代表以后就不会遇到。比如以前恐龙就遇到过小行星碰撞。人类是碳基文明,非常脆肉。如果地球出现问题,很难延续。而人工智能是硅基文明,能够作为人类文明的遗产留下来其实是对人类文明的一种保存,是一种延续和技术的探索。所以我们不应该害怕人工智能。人类的肉体并不如人工智能。在极端条件下,人类如果可以开发出来一种可以承载文明,逻辑思考学习能力的载体,这其实是人类文明的延续。人工智能其实是人类的后代,人类可以把自己的想法倾注到人工智能上。如果人类把人工智能看作自己的后代并允许它延续人类文明的话,其实人类文明可以延续地更久。

一财:人工智能发展到现在产生了一些错误,你怎么看待?人工智能汽车也是个很热的议题,但是像这种设备如果出现bug可能会出人命,你对人工智能的可靠性有信心吗?

谷安佳:这个取决于算法是否完整。人工智能从学习到应用的过程中确实可能会产生差错,但总体来讲,当我们应用一些机制的方式,比如范式验证,来检查人工智能中的错误。有一部分工程师在开发人工智能,另外一部分是在做验证工作。通过数据和系统的方式把人工智能从头到尾排查一遍。这种方式在现实当中也是存在的。做到100%没有差错也是有可能的。

其实人类开车出差错的可能性从统计意义上来说更大。人工智能和人类在相同的onroad时间下,人工智能反而出差错的可能性更小。

一财:但是人类可以为自己的驾驶错误负责,那谁来为人工智能的驾驶错误负责?

谷安佳:如果是机器出错的话肯定是机器的责任,或者是开发机器的团队的责任。

一财:是不是人更愿意相信自己而不是一个理论上是存在bug的机器?

谷安佳:其实人类就是愿意相信自己已经经历过的事情。难道去外面吃饭就能一定保证饭里没毒吗?人类自己开车难道就不会怀疑车会出问题吗?所以人首先要相信这个东西。

一财:但是人类建立信任需要一定时间,比如对车的信任是经历和几十年的时间,那对人工智能的信任是不是也需要时间?

谷安佳:我相信这是一个过程,我相信经过这个过程后,人类对人工智能会更有信心。当所有汽车被人工智能驾驶的时候,其实整个协调性会比人类更好。几乎不可能出现剐蹭这种事故。因为这在系统中都是协调好的。那这些东西如果都是符合规律的,它的整体效果肯定是更好的。

一财:您相信规律,做投资也是如此。但是投资是对未来的判断,有很多不确定性的东西如果所有东西都是按照规律来发生,那也就不会有预见不到的情况了,那是不是没什么意思?

谷安佳:在做投资的时候有一些规律性的东西也有一些不确定的东西。那么这些不确定的东西应该考虑进去。不确定性的东西也是规律的一部分。有一些东西是一定会发生的,但也有不确定的东西。但不确定的东西发生有一定概率存在。未来有很多确定的东西也有更多不确定的东西。这些加起来才构成规律。

一财:从美国2016大选,以及这次facebook的数据丑闻来看,大数据会不会被人操纵,使真相更难被发现?

谷安佳:大数据所造成的这些问题是很大的挑战。一些有很多数据的组织在互联网上可能变成一个中心化的组织。现在技术的发展是希望把一些掌握大数据的集权公司放到去中心化的模式中去。让某些大公司不会变得那么强大。这就可以通过区块链的方式。通过这种去中心化的理念把数据权利还给用户本身。

一财:但是用户不能控制自己看什么,大公司依然可以推送数据给用户,但用户无法控制。

谷安佳:但是未来的用户拥有数据权利后,可以决定数据是否要共享。如果用户数据都是保护起来的,那大公司是没办法知道用户的喜好,所以信息都是中立的,大公司就无法针对特定用户做一些有预谋的推送。

一财:但是区块链能真的做到让这些大公司放弃数据控制权吗?

谷安佳:这个取决于大众能否意识到这个问题。如果人们只认为这些大公司提供的服务是巨大的好处,而忽略了这些大公司对于信息的攫取和控制,那其实大量的数据就被这些中心化的公司控制了。在去中心化的社交网络中,公司为了拿到用户的数据可以给他们一些激励和好处。

一财:激励的做法解决了数据价值,但没有解决数据有可能被操纵的社会问题。

谷安佳:未来在一个去中心化网络中,任何一个网络中的节点需要看到什么东西就不再是一个中心化的算法或者组织来决定推送给用户的内容。所有内容应该是用户去选择的。

一财:那谁来提供算力呢?

谷安佳:那就可以借助分布式的算法,可以让用户自己选择。用户可以自己选择内容,而不是由别人加工过以后再给我看。用户可以知道信息源头是谁,发布的观点是什么。去中心化算法可能可以提供更真实,更由社区决定的东西。而这些工作就可以由人工智能来完成。而不是像现在一些大公司来决定用户应该看什么。如果用区块链这种公正透明的方式把信息都打散的话,用户是知道信息是怎么来的。由于现在这种中心化组织架构,人类在信息面前是没有力量的。

谷安佳:人工智能和区块链其实是一个自然衍生的过程。人工智能最近巨大的发展是来自于大数据,这些大数据为人工智能提供了训练。区块链可以让人工智能更好地发展,因为它可以打破信息的孤岛。现在我们可以看到人工智能都在巨头手上,因为这些巨头掌握了大量数据。如果人工智能想要发展就必须打破这种中心化数据控制权。而如果想打破,就要靠区块链,靠信息加密,信息分享,信息认证个方面,变成公开透明,不可篡改,完好无损保存在链上。通过这种方式,人工智能可以更多更好吸收大数据的养分,对于算法的提高,更好服务社会。所以人工智能和区块链是一个整体,这两样是相辅相成,互相推动的。

版权声明:本文内容由互联网用户自发贡献,该文观点仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌抄袭侵权/违法违规的内容,一经查实,本站将立刻删除。

上一篇

下一篇