博舍

科学网—人工智能伦理如何设定,从种群层面看人类的知识积累和进化 人工智能怎么看人类的智慧结构图片

科学网—人工智能伦理如何设定,从种群层面看人类的知识积累和进化

人工智能伦理如何设定,从种群层面看人类的知识积累和进化

已有2934次阅读2019-10-1412:07|系统分类:科研笔记

前言:9月份中宣部出版局《中国图书评论》对《崛起的超级智能》进行了推荐和评论,对其中阐述的种群知识库扩展观点给予了重点关注。应该说种群知识库扩展是互联网大脑架构不断发展的抽象推论,这个推论对于人工智能及其伦理的建立也应有相应的价值,这篇文章将对介绍《中国图书评论》的推荐评论,《崛起的超级智能》一书中关于种群知识库的内容进行介绍。

第一部分,《中国图书评论》:从种群的层面来看人类的知识积累和进化

推荐书籍:2019年7月《崛起的超级智能:互联网大脑如何影响科技未来》,刘锋著,中信出版社。

本书主要是在探索互联网进化的若干规律性问题,归纳出了互联网的诸多“类脑”特征,其中一些很有启发性的观点也让人惊叹。

比如作者提到“种群的知识库”这样一个概念,即一个种群所拥有的知识库容量和使用知识改造世界的能力。纵观人类对知识的掌控状况,时至今日我们最常见的传统的知识存储方式,在规模上从一本一本的书籍、学有专长的个人,再到大型的综合性图书馆、专家智囊团,在知识协作上发挥了巨大的作用。

而互联网蓬勃发展以来,各种专业的数据库在信息资源上带来的效率提升,更是有目共睹。本书作者通过对一个种群所拥有的全部生物基因信息、发现的自然界现象和运行规律、掌握的改造自然的技术这三方面来考察评估,认为种群的知识和智能是生命进化的核心。

由此,更进一步前瞻性地探讨在人类的大脑、互联网、人工智能这三者融合以后,所形成的超级智能的进化前景。正是因为互联网使人类的知识协作更普遍、更深人,这种全景视角也逐渐变得易于接受。人类种群作为一个命运共同体,在知识的积累与进化上,由此有了明确、一致的方向,而这种积极面向未来的乐观态度也会增强人们探索的信心和勇气。

第二部分,《崛起的超级智能》书摘:种群知识库与人工智能伦理的设定

人工智能先驱尼尔逊教授曾经对智能下了这样一个定义:“智能是关于知识的学科,怎样表示知识以及怎样获得知识并使用知识的科学。“,从上面的探讨中可以看出,无论是脑的进化、互联网的进化、智能系统的智力等级划分,知识和智慧的提升都是生物进化的核心。

恐龙是生活在距今大约2亿3500万年至6500万年前、能以后肢支撑身体直立行走的的一类动物,恐龙支配全球陆地生态系统超过1亿6千万年之久,但在6500万年前白垩纪结束的时候,恐龙突然几乎全部消失。一种主流的观点是一颗珠穆朗玛峰大小的陨石撞击地球,引发特大火山爆发,进而导致恐龙的大范围灭绝。无论在体型上还是活动区域上,恐龙都进化出种类繁多的种类,包括体型巨大的地震龙,能在空中飞翔的翼龙,令所有恐龙恐惧的暴龙。但在大脑发育和智力提升上,恐龙一直没有大的进展,没有创造出属于自己的科技文明,当危机来临时只能被动的接受大自然安排的命运。

另一个典型的案例是熊猫,大熊猫的历史可谓源远流长。迄今所发现的最古老大熊猫成员――始熊猫的化石出土于中国云南禄丰和元谋两地,地质年代约为800万年前中新世晚期。在长期严酷的生存竞争和自然选择中,和它们同时代的很多动物都已灭绝,但大熊猫却坚持了下来,成为“活化石”保存到了今天。

但是在21世纪的今天,大熊猫确同样面临着灭绝的危险,这次不是因为自然灾害,而是由于食物来源单一,只吃竹子,一旦竹子遭到破坏,其生存就会受到影响,同时大熊猫本身的繁殖能力降低,其生殖系统受到某些细菌的感染,雌性的产卵率降低,雄性的交配欲望降低。作为活化石的大熊猫虽然存在了至少800万年,但同样在智力发育和自身科技上一直处于非常低的水平上,这样当遇到生存危机时,它同样无法利用智能和技术来解决。

与此同时,人类在近200万年里,在知识和智慧上不断扩展和加速,首先掌握了制造工具和使用火的技能,从此在自然界有了更强的竞争力;20万年前,人类掌握了用语言进行交流的能力,由此知识和技能从此可以快速在种群内传播。英国牛津大学遗传学专家安东尼・玛纳克教授领导的研究小组发现,对人类产生语言起决定作用的“FOXP2基因突变”发生在大约12万至20万年前,恰恰与现代人人口迅猛增加的时间相一致。

大约4-5万年前,这时的人类的进化出现了明显的加速,在形态上已非常象现代人,在文化上,已有雕刻与绘画的艺术,并出现装饰物。通过雕刻和绘画,人类的知识第一次通过外界媒介进行保存和传播。加大了人类种群知识库的容量和稳定性。这是之前任何生物都不具备的。这一进程在经历了造纸术,印刷术的发明得到了进一步加速。

50年前,互联网的诞生让人类又一次经历了巨大的智能飞跃,这次革命应该说不亚于200万年前人类第一次使用工具,也不亚于20万年人类第一次开口交流。

互联网的发展让人类拥有了容量更为庞大,反应更为快速的外部知识库,同时由于互联网的类脑化变化,让众多前沿科技以更高的效率为人类进化提供保障与支撑,在互联网的帮助下,人类进一步确立了在自然竞争中的绝对统治地位。

从恐龙、熊猫、人类的例子可以看出,生物种群知识库的膨胀速度是生物进化的焦点,很多生物的知识库停滞,走向死胡同,在千万年里没有进一步的变化,往往在面临巨大自然灾害时,由于生存环境的变化导致灭绝,或在地球的生命圈中处在越来越低的地位。而人类的种群知识库在过去10万年间发生了飞跃性的提升,由此在自然界处于绝对的统治地位。

从上面的案例可以看出,一个种群拥有的知识库容量和使用知识改造世界的能力,把它们合称为这个种群的知识库(PKB),这将是判断生物进化方向和生物高低等级的基础(如图9.4)。我们可以从该种群拥有的全部生物基因信息(GENE)、发现的自然界现象和运行规律(SCI)、掌握的改造自然的技术能力(TECH)三个方面考察种群知识库的发展

我们可以尝试用这个图示和公式对人类、恐龙、熊猫、鲨鱼、狗等生物的种群知识库(PKB)进行研究,绘制近200万年来他们种群知识库的变化过程。

由于缺乏人类和相关生物在远古时期的具体知识库和能力运用数据,我们用常识分析和假设估计的方法进行示范,表明人类的种群知识库是如何在进化中脱颖而出的,更为科学和可靠的数据研究留待未来深入。(详细阐述文字请阐述请参阅《崛起的超级智能》一书相关内容)

人类、鲨鱼、狗、和熊猫的种群知识库曲线图

大脑、人工智能、互联网在21世纪的融合,形成一个前所未有的超级智能。这个超级智能的发展与进化,使生命共同体第一次有了一致和明确的进化方向。

无论是大脑近十亿年来的进化、人工智能的最新发展、还是互联网大脑模型的形成,无一不在提醒我们,种群的知识和智慧是生命进化的核心,当一个种群的知识和智慧趋近于无穷大时,生命进化终极目标“全知全能”将因此产生。

法国著名进化论哲学家德日进20世纪上半叶在《人的现象》一书中提出人类进化的终极状态是全知全能,也被称作Ω(欧米伽)点,“上帝”之点。由此可见,人类或其他种群知识库到达”全知全能”时,德日进的预言就实现了。

人类的伦理是指在处理人与人,人与社会相互关系时应遵循的道理和准则。是从概念角度上对道德现象的哲学思考。它不仅包含着对人与人、人与社会和人与自然之间关系处理中的行为规范,而且也深刻地蕴涵着依照一定原则来规范行为的深刻道理。

由于伦理的设定往往与文化、宗教、地域、价值观、世界观有关,在人类数千年的文明史,至今我们也没有一个统一的、标准的、明确的伦理体系,仅有一些大部分人承认的大体的原则。新时代关于机器人和人工智能的的伦理冲击,因为这个领域的不完善导致争议变得更为突出。

从上面的讨论看,知识和智慧的提升是生物进化的核心,可以用种群知识库变化判断生物进化的方向和生物的高低等级。当时间趋于无穷大时,种群知识库将实现全知全能,从而到达“上帝之点”。

这说明生物的进化存在方向和终点。由此我们可以得出判断标准,在生命进化的过程中,那些促进和保护种群知识库发展的行为,可以看过正向的伦理标准;那些阻碍和危害种群知识库发展的行为,可以看做是负面的伦理行为(如图9.11所示)。

 通过种群知识库判断伦理规则的示意图

依照这个标准,我们可以从生物进化方向的角度对人类、机器或者人工智能伦理涉及的问题进行判断和回答。

“扳道工困境”中,能否判断一个小孩或者一车厢人类哪一边对人类未来的知识和智慧贡献大?在没有第三种选择和无法判断的情况下,选择让人数更多的一车厢人类存活下去,应为无奈之举。

泰坦尼克号出现的紧急逃生问题,在无法判断乘客身份的紧急情况下,选择优先逃生的为妇女和儿童,主要是因为她们更多代表了人类繁衍的继续和人类发展的未来。

在2012电影中,总统选择让科学家乘坐飞机到达安全之地,并表达“一个科学家比几十位官员更重要“,除了总统对国家的忠诚之外,也是基于科学家对人类未来知识的创新更重要的判断上。

对于波士顿动力机器人在进行科学实验时,受到测试科学家的攻击,导致站立不稳摔倒的问题,这并不涉及对生命的虐待问题,因为从标准智能模型的构造和生命进化的本质看,机器人和人工智能系统还不能看做与人类同权的生命体,甚至根本就不在生命的范围内,这主要是因为机器人目前既没有自动进化的动力,也没有判断是否正确进化的能力,机器人或AI分担了人类的部分知识和智慧功能,但在创造性和评审创造性价值方面无法替代,更为重要的是AI无法确定自己的进化方向和进化目标,也没有正确进化的自然动力,它的进化动力来源于人类,因此机器人和人工智能依然是辅助人类进化的工具。

应该着重指出,在非紧急情况下对应对个体利益应进行特别保护,不能以群体利益侵占个体利益,发挥个人探索的能动性对种群知识库的提升应是非常重要的方式。

这一点首先在基础科学的探索中体现特别明显。纵观科学发展史,哥白尼、牛顿、门捷列夫、爱因斯坦等科学巨匠们,主要是靠个人探索时“灵光闪现”做出的伟大贡献,是靠自由的探索,而非有组织有目的规划。

附:关于种群知识库对人工智能及其伦理的影响,相关论文在ICIS2018智能计算与信息系统国际会议上首先发表,“ResearchonArtificialIntelligenceEthicsBasedontheEvolutionofPopulationKnowledgeBase

https://blog.sciencenet.cn/blog-39263-1201847.html上一篇:超级智能的定义,一种已经诞生并不断深刻影响人类的新智能下一篇:构建超级智能未来系统的三原则收藏IP:61.50.105.*|热度|

人工智能时代的政治哲学思考(上)

【编者按】

2017年11月27日,在上海外国语大学虹口校区第277期“上外博士沙龙”活动中,华东师范大学政治学系教授吴冠军发表了题为“人工智能时代的政治哲学思考”的学术演讲。

吴冠军教授认为,人工智能崛起是我们这个时代的大事件,面对这样的大事件,政治哲学研究者应当介入。吴教授引用荀子和亚里士多德的看法指出,人类的政治活动源自“人能群”,这使得人类相较于动物自成一个维度。但面对当今人工智能的新进展,人类有些紧张,有些惧怕,因为人类忽然发现,现在搞不定人工智能了。

吴教授指出,人工智能的崛起,可能给人类社会带来新的维度变化,加剧社会中极少数精英与绝大多数民众之间已有的社会分化。解决之道在于,迈向“共富国”,就是实现共富,让社会中的每一个人都有机会能分享到今天科技发展的利好。吴教授提醒我们,当分享不了的时候,这个社会就会出现越来越多的扭曲。

以下为这次学术演讲的文字记录稿,由澎湃新闻记者依据现场录音整理和编辑,并由吴冠军教授改定。全文约两万字,分三部分刊出,以下为第一部分。

2001年出品的美国电影《人工智能》海报

这个时代,我们都身处其中。郭敬明写过一部小说,叫《小时代》,拍成电影之后票房还不错,可豆瓣评分很低。但“小时代”这个说法本身是有疑问的。为什么是“小时代”?我们所处的时代,难道不是个大时代吗,我们难道不是正在经历一个可能是人类文明史上非常大的变动时代吗?

在这样的时代里面,如果你们关心各种各样的讨论,你们会发现,关于人工智能的讨论特别热闹。各个学科的专家都已经出动了,他们都努力对人工智能发出自己学科领域的声音。但是我发现,政治哲学研究者的声音,到目前为止是缺席的。甚至在哲学领域内部,已经有伦理学者的声音,研究人工智能的行动伦理准则;有认识论研究者的声音,讨论人工智能有没有智慧,或者说有没有自己的思想,等等;甚至有法学家提出了关于怎么就人工智能进行立法的意见。但是政治哲学研究者的意见却很稀少。

我觉得,在这样的时代里面,我们应该有所介入,从政治哲学的角度介入。

人工智能崛起是我们这个时代的大事件

那么,作为政治哲学研究者,我们该怎样看待人工智能呢?我觉得,我们可以打开一个很大的画卷。

首先值得思考的是:在这样一个大时代里面,人工智能是我们人类很多了不起的震撼性科技发展中的一个呢,还是说,人工智能不只是万千科技发展中的一个,它同时带给我们一个大线索,让我们贯穿性地思考人类文明整个自身,思考我们人是怎么一种存在,我们以怎样的方式组建了我们的文明?

这个思考就牵涉到这样一个关键点:如果说我们值得存在——不是说,因为我们是人,所以我们不想被取代——如果说不管未来的人工智能怎么样,我们都值得在这个星球上存在,那么,究竟是什么让我们“值得”?我觉得有意思正是这一点。人工智能给了我们一个很好的反思点,我们不要错过。

我们要把握这个大时代里最关键的大事件,就是人工智能的崛起。而且这个崛起不单只是一个现象,它本身就是一个指数级的发展。我们可能每天过着我们的节奏,你们是博士生,我是老师,你们每天上课,我每天上课、做研究,但是那一边,今天有多少个实验室,有多少家大公司,有多少政府,它们在人工智能的赛道上巨额投入,使得人工智能以指数级速度发展变化。

去年(2016年)我们知道,“阿尔法狗”(AlphaGo)打败了韩国围棋手李世石,当时是有胜有负地打败,而今年(2017年)它很轻松地击败了我们认可的“世界围棋第一人”柯洁。而且现在“零度阿尔法狗”(AlphaGoZero)又出来了,都不跟人玩了,它自己跟自己玩,自己打败了当年打败李世石的阿尔法狗,而且100比0完胜。

“零度阿尔法狗”声称,它不需要跟人类有任何关系。原来的阿尔法狗还大量研究棋谱、研究人类的高手怎么出棋。“零度阿尔法狗”根本不睬,根本不认为这是重要的。它从零开始,所以叫Zero,它任何人类棋谱都不看,人类曾经有的任何下法、战术不看,从一张白纸开始。你给我下棋规则,我重新自己学习,左右互搏,自己跟自己玩。结果三个月内,成就了最一流高手。这是很骇人的。

柯洁这个年轻人不服输,败给阿尔法狗以后,他回去后就复盘阿尔法狗与他对战的每一盘棋谱。之后柯洁说的一句话让我很紧张。他说的是:我看阿尔法狗下棋,看不懂为什么它这么下。如果能看懂,尽管对方赢了,也说明两者的水平至少在一个维度内,但柯洁根本看不懂阿尔法狗,觉得它下这步棋莫名其妙,但是它就赢了。这是很恐怖的事情。这意味着,从现在起,围棋已经不是人类的活动了。现在哲学界有个词叫“后人类”,围棋已经成了后人类的活动,人类不需要参与进去,参与进去也只是在很低的水平上胡乱玩玩而已。

在这样的时代里面,我们认为人有价值,那么就要思考,这个价值在哪里?所以我们先打开这个画卷,不只是把人工智能看作人类科技进步历程中的一个小的新台阶,而是看作这样一个点:在这个点上我们取得一个视角,回过头去对“人”——人的“文明”、人的价值——做贯穿性的思考,思考我们怎么走来,我们怎么走到了我们现在这个点上。

如果说未来出现我们要被取代或者不被取代的情形。我们要打到最后一兵一卒,但抗争到底本身需要意义也支撑。就是说,我们如何说服自己相信,人类是一项值得抗争的事业?

有一个视频节目叫《晓说》,高晓松主讲的,不知你们有没有看过几个月前的一期。他讲的一段话很有意思。在那一期里他讲小说《三体》,讲得很开心,结果说漏嘴了。他说《三体》里面有一个情节,就是第一卷里面,在这卷中“三体人”并未到来,地球上却产生了秘密社团“地球三体组织”,为三体人到来并占领和统治地球积极做准备。他们这当然是背叛人类,是“人奸”,而且这个组织的核心成员都是社会精英,尤其是大科学家、教授、富商,他们呼唤外星人快来,快来统治我们。人类没救了,我们只希望外来的文明快过来,然后我们对你顶礼膜拜。

然后高晓松同学开心地说:如果现实世界真有这样的社团,我肯定加入其中。当高晓松这样的知识分子、社会精英,对人类自身已经不是产生怀疑的问题,而是觉得没有必要去为人类抗争,并期待另外一个文明来加以取代,甚至非常奋勇地参加另外一个文明对人类的统治时,我们必须要思考,这是为什么?这是我们要思考的起点。

从政治哲学角度思考人工智能,我会讲到什么是政治,什么是哲学,以及怎么跟人工智能这样一个时代发生关联。

“人类纪”这个概念告诉我们什么

首先,我拎出一个概念,这个概念叫“人类纪”。

今天,我们大家生活在这个星球上面,觉得很开心,因为这是属于我们的星球。大家有没有思考过一个最根本的问题:这个星球为什么是我们的?我们很自然觉得,当然就是我们的,我们的星球遍布人类的足迹,我们很自豪,所以才会有这样一个词叫“人类纪”。

我们知道,“某某纪”是一个地质学的概念,比如侏罗纪、白垩纪等等。但是最近,如果你们比较关注前沿学科的发展,那么就会看到,过去至少十年,不只一个学科,有多个学科的非常卓越的思想家,都不约而同开始采用一个词语,“Anthropocene”,中文翻译为“人类纪”。

你们搜一下,关于这方面的专著已经很多种。但为什么这个词本身突然之间变成了一个热词,学术界的热词?还有一点,尽管各个学科的人很热衷这个词,但是地质学家不认可。就是说,最应该认可这个词的地质学家说不行。他们认为这个提法不科学,不认为它有科学根据。

那么什么是人类纪呢?一个最关键的定义是,我们过去,从今天这个点往前整个七万年,我们人类,或者说是智人(HomoSapiens)——最近有一本非常卖得好的书叫《人类简史》(Sapiens:ABriefHistoryofHumankind),就是用“Sapiens”这个词做书名——成为影响这个星球面貌变化的最大因素。这是一个很大的论题。你们想想看,这意味着过去七万年里,人类对星球面貌的影响,要大过地壳运动,大过小行星袭击,大过各种各样所有的其他因素。

怎么去思考人类对地球这个星球的这样一种影响力呢?尽管地质学家对这个概念并不买单,但对我来讲,我觉得人类纪是一个好的概念。因为哲学说到底就是提出不同的概念。

我们今天说哲学,它是干什么的?哲学不再是给你真理——所谓太阳底下唯一的真理。我也不知道哪个是真理。但是哲学也一个很重要的力量,那就是,创造新概念。没有人类纪这个概念与有人类纪这个概念是不一样的,思考问题的方式不一样。我们可以借助很多过去哲人提出的概念,来思考所面对的当下问题。学习这些概念是为了什么?不是学习真理,不是学习康德说了什么,黑格尔说了什么。而是说,经由他们提出的那些概念,我们发现,我们可以打开全新的视角,看到不一样的东西,从这些过往哲人提出的概念里面,我们可以重新思考我们当下的生活。

人类纪这个概念亦是这样的。不管专业学者怎么争论,至少我们已经认识到,人类在过去七万年里面扮演了重要的角色,就算不是最重要的角色,但至少也是非常接近了。那么问题就来了:Whyus?为什么是我们?

看看我们自己,我们这样一种动物,我们凭什么力量,成为改变地球面貌的最重要因素,甚至产生出一个“人类纪”?回过去看,这真的是一个很奇怪的谜题,一个很不可思议的东西。如果你穿越回去,不要说回到七万年前,你回到五万年前,就算你学会了一种交流的方式,也没有人会信你的。怎么可能呢?我们这样一种智人——现在你不要被那种好莱坞英雄电影或者是《战狼2》欺骗了,在《战狼2》里,吴京厉害到赤手空拳就把一个坦克车军团弄到灰飞烟灭了——会有这么大的本事?

你把一个人直接放到自然环境里面,我们都知道,我们就处在食物链的中端。我们能欺负一些比我们小的动物,但是我们真的没用。一个人假如碰到一只老虎,那人就是美食,碰到一只“吃货”老虎,还不够它吃一顿。关于人的力量,我们都知道,今天我们可以意淫很多东西,但实际上我们的力量,连一只老虎都没法比,狭路相逢的话,你就是姚明、泰森也没用,不要说鹿晗、薛之谦这些小鲜肉了。

然而就是这样一种力量弱小的存在,经过一个很奇异的变化,在过去七万年中竟然成为改变地球的最重要力量。所以,既然要思考人工智能是否会取代人类,我们就要思考人类怎么就跑到了食物链的顶端?我们做了什么?

政治的起点:人能群,彼不能群

中国战国末期思想家荀子(约公元前313—238)

在思考这个问题的时候,我们发现,我们正一步步接近我称为“政治”的维度。什么叫政治?关于政治的起点,有一句话是荀子说的。他说,我们人跟禽兽有一点区别。什么区别呢?他讲,“人能群,彼不能群”。它们不能够群处在一起,而我们人可以搞在一起。人能群,这句话非常经典,在这么早的时候,就有人说了这么一句有洞见的话。

刚才我说到人的体魄,人的体魄就那么小,人碰到外在的力量,怎么去对抗?我们单个的人,与任何一个大型的食肉动物都无法对抗。但是如荀子所说,人能群,彼不能群。人靠自己的能群来对抗。很有意思,你去看动物,有两种动物有能力群居:一种是蚂蚁、蜜蜂,它们是群居的。那么荀子说错了吗?不是的。蚂蚁蜜蜂确实分工严谨,但照我说,这个来得太容易了,这种群居不要求这些蚂蚁和蜜蜂有任何群居的智慧,它们的群居行为是刻写在其DNA里面的。在任何一只工蚁、任何一只工蜂那里,它们所有的行动,它们扮演的角色,都没有任何智慧在里面,而都是DNA驱使的结果。

另一种情况是,一些大型哺乳动物比如黑猩猩、大象也能群居,但是你去数群居的数量,一般来讲,一个黑猩猩群体的数量不会超过二三十只,三十是个极点,再往上走,就搞不定了,就只能分成两个小的猩猩群体,彼此对咬。象群也一样,它们是群居,但是超不过一个数字,超过一个数字,就会有头领引导一群象出走。甚至像老虎,成群的数量更加少,没办法以一个大型的方式生存。你如果只能在一个数字里面,没办法往下一步走,那你这个群体的整体力量就限于这个数字。但是群居的智人,很快就突破了这个数字。

古希腊思想家亚里士多德(公元前384—322)

在荀子的时代,世界的另一边有一个很重要的思想家:亚里士多德。他说,“人天生是政治的动物”。为什么不说别的呢?为什么说人是政治的动物,亚里士多德要干吗?我们知道,那个时代被称作“轴心时代”,这么称呼是有道理的。这两个人,荀子与亚里士多德,是完全没有可能交流的,不可能鸿雁往来。但是似乎有一种力量,让他们都提出了一个很关键精彩的洞见。

我们分析一下亚里士多德这句话,对它做一个话语分析。很简单,首先,人是动物。不要觉得人了不起,在亚里士多德那个时代,没有《战狼2》可以看,人和动物一样要吃、喝、排泄,没有什么区别,人是动物。然而关键的是,人是动物,并具备政治能力。抛开政治能力的话,人跟动物没什么区别。但就是因为有了这样一个政治的能力,人最后成为了人,最后从食物链的中端爬到了顶端。

为什么这么说?亚里士多德看到了什么?人能组成一个社会,人能组成一个城邦,这个点抓得非常精准。人作为单个动物毫无力量,但是人竟然有这样的智慧,可以以社会的形态,以共同体的形态生活在一起。

当这个形态,这种政治能力,在我们人类身上得以实践以后,我们发现一切都改变了。

亚里士多德有另外一句话,可以和前面那句话联系起来思考。他说,人不能离开城邦(polis)而生活。在当时,一个城邦有几千个公民,加上所有奴隶在一起,几万个人——亚里士多德绝对想不到会有上海那么大的城市。在亚里士多德那里,城邦是什么概念?城邦的边界是,找一个嗓门最大的人,站在城邦的中心大喊一声,最远能够听到的边界就是城邦的边界。城邦就是人说话彼此能够听见的空间,人们发生关系、发生交往、发生连接、发生合作的可能性边界。

在城邦里面,人是安全的,这是亚里士多德当时的论断。他的论断是,人不要轻易离开城邦。人离开城邦后,要么成为神,要么成为野兽。你离开城邦还能活下来?要么就是半人半神,要么你就下降为野兽。一只老虎是不敢跑到城邦里面来的,我们看《水浒传》里面,老虎是不敢到村庄里去的,但是你如果落单了,你如果单身走山路,那么就有可能会被老虎吃掉,除非像武松这种人出来。想想看,当时真的很震撼,一个人赤手空拳打死一只老虎的话,那真的是英雄,一般人是不可能做到的。

所以人不能随便离开城邦。为什么不能离开?因为老虎到城邦来是它找死,有那么多人,肯定把老虎打死,这就是合作的力量。就是说,我们单个人没有老虎那么大的力量,但是我们组成一种合力,比如几个人去射箭,几个人去诱惑,几个人从后面布置陷阱,几个人扔石头,搞了一个战术组合以后,一只老虎跑过来,最后肯定会被干掉。所以老虎这样的动物再厉害,到今天竟然被人类弄到几乎灭绝。你们看,从七万年前开始,人类迁移到哪里,哪里的动物就迁走;人类占驻的村庄、城邦,所有的大型生物,老虎、狮子都得放弃。

政治不是一件简单的事情,政治就是人类能够合作,能够群处。两个人在一起,不是先撕破脸打一架,而是我们能合作,至少能生活在一起。秩序怎么来的?人类可以编织一套话语,然后形成一个合作,大家都服从这个话语,就可以彼此合作了。甚至话语还有让人牺牲的力量,比如恐怖主义,就有这个力量让一些人去死,用话语的力量告诉你死了以后有什么东西在等着你,你奉献了以后,有别的力量给你奖励。政治就是这样一个谜题。

利用话语装置,人自成一个维度

英国政治哲学家托马斯·霍布斯(1588—1679)

现在让我们聊一下霍布斯。霍布斯非常重要,他提出的一个假设是,最初的时候,在最自然的状态里面,人与人之间是所有人与所有人的战争,每个人都像狼与狼一样互相撕咬。

霍布斯认为,这就是自然状态,是前政治的状态,而政治就是从自然状态走向一个政治的状态,人类建立国家,建立秩序。霍布斯提出让国家来保证每个人的安全,这样人可以放下彼此的对抗。最后,人通过一种方式,让大家都可以安枕无忧。但动物不行,一定会打破头,一打破头就彼此消耗。

人类文明的起源,我们已经很清楚了,来自于政治的能力。与此同时,亚里士多德还有一句话,叫人是说话的动物。这句话其实已经蕴含在“人天生是政治的动物”里面了。换言之,人这个动物,他的政治能力来自说话。人通过话语,编织了很多东西出来。人的政治智慧哪里来,靠说话;如果两个人一言不合就扔拳头,这不是政治。政治就是用话语的方式,以免两败俱伤。人类用话语,去处理各种各样的事物。通过话语,人类有了文明,有了各种各样的不同。从人工智能的角度来看,最关键的一点是,通过话语,人慢慢上升,从食物链的中端上升到了顶端。

然后人类有了一个话语性的变化,从食物链中突破,发生了一个维度的变化,就是人自成一个维度。原来,人和动物是在同一个食物链中,再怎么样都只是我在你最上面,只是我在这里,你在下面,我们是一根线,可以排下去,大鱼吃小鱼,我们是一个向维度里面的。但是通过一个话语装置,忽然之间,在七万年前的某一点上,人开始跟所有的动物相区别,不在一个维度上了。

你们是动物,你们吃来吃去,我们人冲出了这个向维度,到了另外一个等级上。你想想看,人吃动物,动物吃草。人们认为这样理所当然。柏拉图有一句话,叫naturalright,自然的正确,就是很舒服。人吃动物、动物吃草,所有人都觉得很正常,心安理得。你反过来试试看,没有人受得了。

我们知道很多人喜欢狗,人跟狗可以很要好。人吃狗,有很多爱狗的人受不了。广西玉林有一个狗肉节,很多人受不了。我爸爸养狗,绝对不吃狗肉。吃狗肉,一部分人受不了。但反过来,狗吃人,所有人都受不了。几个月前,我的微信群被一篇文章刷爆了,这篇文章说,如果你死掉了,在你死掉的七天里面,你养的狗会拿你的尸体当饭吃。很多人转这个,并且说从此看自己家里的狗,眼神都不一样了,因为它眼睛里看着你,居然会觉得你是可以吃的。这怎么可以……?

我们要追问这个问题,怎么会有这样一种我们认为自然的感觉,哪里来的。你们去看,狮子吃羚羊,它们是一个维度里面的,虽然你会觉得有点残忍,但也可以接受;动物吃草,也没有问题。人吃动物,怎么吃也都没有问题。

反过来思考,怎么会有这样的一种力量,使得我们认为,我们做的事是天经地义的?我的分析是,我们人类通过一个话语装置,产生了一个生命的等级制,这个等级制有实践性的后果。这个后果是什么?就是形成伦理的和政治的正当性,一旦有了这个正当性,人类做的很多事就变成一个自然的事情、正确的事情。人吃动物、动物吃草,这是一个正当;但反过来,绝对不能接受。举个例子,有人跑到动物园里去,被老虎咬,站在老虎的立场上,老虎也很冤枉,但是它吃了人就必须死。老虎说,我吃人是因为你到了我旁边,你到了旁边我就要吃你。但是不行,吃了人的老虎就必须死。

回到上面提到的文章,。狗吃了自己的主人,法院判这只狗必须处死,就是说,狗只要越过吃人这条界限,必死无疑。

当代意大利有一位思想家叫阿甘本(GiorgioAgamben),他有一个词,我觉得可以很好地用来形容话语的装置,叫“人类学机器”。通过这个“人类学机器”的转变,本来很残忍、很血腥的事情,可以变得不那么血腥了。你们看,杀动物的时候你会觉得很血腥,可是烹饪完的时候,你们会觉得是美味,你们吃的时候还会拍下来发到朋友圈里去。杀猪的时候,猪会流泪——猪其实是很聪明的动物——但没有人觉得难受。为什么?我们都没有同情心吗?

不是。有一部话语“机器”在那边保证让你安心,帮助你安心:吃吧,没事的,它们没办法与你在一个维度里面比较。今天,你们翻翻词典,翻翻百科全书,还有这样的语言,说某个动物是“害虫”。实际上它只是吃你们人吃的东西,就变成害虫了,必须被消灭掉。最恶心的描述是说,某个动物“浑身都是宝”,皮可制革、鞭可入药、肉味鲜美等等。想想看,这是辞典,要我们去读的。我们为什么那么心安理得?当一个动物被我们人类夸赞为浑身都是宝的时候,实际上我们是在对它扒皮抽筋。但一切都变得如此自然。

几十年前,我们不是还在“除四害”么?麻雀之类动物,一旦你把它归为“害”,它是必死无疑的。蟑螂是灭不了,但是该灭的都灭光了。但反过来想想看,我们人在动物眼里,会是什么害虫,或者“害人”呢。

这个时候,哲学家挺了不起的。2004年去世的法国哲学家德里达(JacquesDerrida)在他的回忆录里面写了这样一件事,我觉得非常有意思。

他说了自己生活中的一个小事情,就是家里没人,他洗完澡,就裸着身体出来了——这跟我们一样。忽然,他看到家里的一只宠物猫就这样看着他,在这一刻——哲学家就跟我们不一样——他忽然感觉到一种不适感,他马上找了一条浴巾。家里没别人,但他找了一条浴巾把自己裹起来。他说,在他内心中,当时那一刻,他不知道在那只猫眼里,他自己是一个怎样的怪物!他受不了猫的注视,所以把自己包裹起来。(待续)

(李宁琪同学、邢英莉女士对本文亦有贡献)

人工智能的未来:人工智能将如何改变世界

在靠近芝加哥市中心的一栋不起眼的建筑里,MarcGyongyosi和IFM/Onetrack的成员们正在成长及不断壮大。

人工智能有一个基本原则:简单思考。这些词用简单的字体写在一张纸上,贴在他们两层工业厂房楼上的后墙上。然而,他们在这里用人工智能做的事情一点也不简单。

人工智能的未来人工智能正在塑造几乎所有行业的人类未来。其已经是大数据、机器人和物联网等新兴技术的主要驱动力,并将在可预见的未来继续扮演技术创新者的角色。

使用机器学习和计算机视觉来检测和分类各种“安全事件”,这个鞋盒大小的设备并没有看到全部,但也看到了许多。比如司机在操作车辆时的样子、驾驶速度、何处驾驶、周围的人的位置以及其他叉车操作员如何操纵其车辆。IFM的软件会自动检测违反安全规定的行为——例如使用手机——并通知仓库经理,使之立即采取行动。这主要目的是预防事故和提高效率。Gyongyosi声称,仅仅是知道IFM的一个设备正在观看,就已经产生了“巨大的影响”。

Gyongyosi表示:“想想相机,它确实是我们目前可用的最丰富的传感器,且价格非常有趣。如今智能手机、摄像头和图像传感器变得非常便宜,但我们捕捉了很多信息。从一张图像中,可能可以推断出25个信号;但六个月后,我们可以从同一张图像中推断出100或150个信号。唯一的区别是查看图像的软件……每个客户都能从我们引入的每个其他客户中受益,因为我们的系统开始看到和学习更多的流程,并检测出更多重要和相关的东西。”

人工智能的演变IFM只是这个不断发展的领域中无数人工智能创新者之一。例如,IBM发明者在2021年获得的9130项专利中,有2300项与人工智能有关。Tesla创始人兼科技巨头ElonMusk向非营利研究公司OpenAI捐赠了1000万美元,以资助正在进行的研究。

在始于“知识工程”的进化时期,又以零星休眠为标志的几十年后,技术发展到基于模型和算法的机器学习,并越来越关注感知、推理和归纳。现在,人工智能以前所未有的方式重新占据了舞台的中心,而且短时间内它不会让出“聚光灯”。

为什么人工智能很重要?人工智能很重要,因为其是计算机学习的基础。通过人工智能,计算机能够利用大量数据,并利用其学习到的“智能”在人类所需时间的一小部分内做出最佳决策和发现。

人工智能将改变哪些行业?现代人工智能——更具体地说,是“狭义人工智能”。其使用数据训练过的模型执行目标函数,通常属于深度学习或机器学习的类别——几乎没有一个主要行业还没有受到影响。在过去的几年里尤是如此,由于物联网的强大连接、联网设备的激增以及更快的计算机处理速度,使得数据收集和分析大大增加。

一些行业正处于人工智能之旅的起点,其他行业则是经验丰富的旅行者。两者都有很长的路要走。无论如何,人工智能于当今生活的影响是不容忽视的。

交通: 虽然完善它们可能需要一些时间,但总有一天自动驾驶汽车会载着我们从一个地方到另一个地方。制造业: 人工智能驱动的机器人与人类一起工作,执行有限范围的任务,如组装和堆放,预测分析传感器,以保持设备的平稳运行。医疗保健: 在人工智能相对新兴的医疗保健领域,疾病诊断更加迅速和准确,药物发现加速和简化,虚拟护理助理监控患者,大数据分析有助于创造更个性化的患者体验。教育: 在人工智能的帮助下,教科书被数字化,早期的虚拟导师帮助人类导师,面部分析测量学生的情绪,以帮助确定谁在挣扎或无聊,并更好地根据个人需求定制体验。媒体: 新闻业也在利用人工智能,并将继续从中受益。Bloomberg使用Cyborg技术帮助快速理解复杂的财务报告。AssociatedPress利用AutomatedInsights的自然语言能力,每年制作3700篇盈利报道,几乎是过去的4倍。客服服务:  最后但并非最不重要的一点是,Google正在研发一种人工智能助手,其可以像人一样打电话预约,如预约附近的美发沙龙等等。除了单词,系统还能理解情景语境和细微差别。但这些进步——以及许多其他进步——只是开始。未来还会有更多。

客户关系管理公司4Degrees的首席技术官兼联合创始人DavidVandegrift表示:“我认为,任何对智能软件的能力在某些时刻达到极限的假设都是错误的。”

随着公司每年在人工智能产品和服务上花费数十亿美元,像Google,Apple,Microsoft和Amazon等科技巨头花费数十亿美元来创造这些产品和服务,大学将人工智能作为其课程中更重要的一部分,以及U.S.Department升级其人工智能游戏,必然会有大事发生。其中一些发展正朝着完全实现的方向发展;有些仅仅是理论上的,且可能会一直如此。所有这些都是破坏性的,或好或坏,目前还看不到衰退的迹象。

Google前负责人、百度首席科学家AndrewNg在接受ZDNet采访时表示:“很多行业都会经历这样一种模式:冬天、冬天,然后是永恒的春天。我们可能正处于人工智能的永恒春天。”

人工智能对社会的影响人工智能将如何改变工作在西北大学的一次演讲中,人工智能专家Kai-FuLee 倡导了人工智能技术及其即将到来的影响,同时也指出了人工智能的副作用和局限性。对于前者,其警告道:

“90%的底层人口,尤其是收入或教育水平处于世界底层的50%人口,将因失业而受到严重伤害……一个简单的问题,‘程序是如何工作的呢?’这就是人工智能取代工作的可能性,因为人工智能可以在日常任务中学会自我优化。且数量越多,工作就越客观,如把东西分到垃圾桶、洗碗、摘水果和接听客服电话——这些都是重复性和例行性的脚本任务。在5年、10年或15年内,它们将被人工智能取代。”

在拥有超过100,000台机器人的在线巨头和人工智能巨头Amazon的仓库中,拣货和包装的功能仍然由人类来完成,但这种情况将会改变。

Lee的观点最近得到了Infosys总裁MohitJoshi的回应,其告诉《纽约时报》:“人们都希望取得巨大的成就。早些时候,他们在减少劳动力方面有5%到10%的增量目标。现在他们觉得,‘为什么我们不能用我们仅有的1%的人来做这件事呢?’”

更为乐观的是,Lee强调,当今的人工智能在两个方面都是无用的:它没有创造力,也没有同理心或爱的能力。相反,它是“放大人类创造力的工具”。那解决方案呢?那些从事重复性或例行工作的人必须学习新的技能,以免被淘汰。Amazon甚至向其员工提供资金来培训其他公司的工作。

UniversityofIllinoisatUrbana-Champaign计算机科学教授兼主任KlaraNahrstedt表示:“人工智能要在许多领域取得成功的绝对先决条件之一是,我们要在教育方面投入大量资金,对人们进行新工作的再培训。”

Klara担心这种情况不会广泛或经常发生。IFM的Gyongyosi甚至更具体。

“人们需要像学习一门新语言一样学习编程,”Gyongyosi表示:“他们需要尽早这样做,因为这真的是未来的趋势。在未来,如果不懂编码,就不懂编程,这只会变得更加困难。”

”虽然许多因科技而被迫失业的人会找到新的工作,但这不会在一夜之间发生。就像美国在工业革命期间从农业经济过渡到工业经济一样,这在很大程度上导致了大萧条,人们最终重新站起来。然而,短期影响是巨大的。”Vandegrift表示:“在工作消失和新工作出现之间的过渡,并不一定像人们想象的那样轻松。”

MikeMendelson,是NVIDIA的一名学习者体验设计师,是与Nahrstedt不同的教育者。他与那些希望更多地了解人工智能,并将其应用于业务的开发人员一起工作。

其表示:“如果他们了解这项技术的能力,并且非常了解该领域,他们就会开始建立联系,并认为,‘也许这是一个AI问题。’这种情况比‘我有一个想解决的具体问题’更常见。

不久的将来的人工智能在Mendelson看来,一些最有趣的人工智能研究和实验将在不久的将来产生影响,这将发生在两个领域:“强化”学习,其处理奖励和惩罚,而不是标记数据;以及生成对抗网络(简称GAN),其允许计算机算法创建而不是仅仅通过使两个网络相互对抗来进行评估。前者的典型代表是GoogleDeepMind的AlphaGoZero的围棋能力为例,后者则以原始图像或音频生成为例,该生成基于对名人或特定类型音乐等特定主题的学习。

在更大的范围内,人工智能有望对可持续性、气候变化和环境问题产生重大影响。理想情况下,通过使用精密传感器,城市将变得不那么拥挤、污染更少,总体上更宜居。

Nahrstedt表示:“一旦预测了某件事,就可制定某些政策和规则。”例如,安装在汽车上的传感器可以发送有关交通状况的数据,可以预测潜在的问题,并优化汽车的流量。其认为,这还没有以任何方式完善。还处于起步阶段。但多年以后,它将发挥非常重要的作用。

人工智能会统治世界吗?人工智能预计将对几乎所有可以想象到的行业产生持久的影响——因为预计60%的企业将受到人工智能的影响。我们已经在智能设备、汽车、医疗保健系统和最受欢迎的应用程序中看到了人工智能。在可预见的未来,我们将继续看到其影响更深入地渗透到许多其他行业。

人工智能和隐私风险当然,人工智能对大数据的依赖已经在很大程度上影响了隐私。看看CambridgeAnalytica对Facebook的恶作剧或Amazon对Alexa的窃听,这是众多科技失控的例子中的两个。批评人士认为,如果没有适当的法规和自我施加的限制,情况会变得更糟。2015年,Apple首席执行官TimCook嘲笑竞争对手Google和Facebook贪婪的数据挖掘。

Cook在2015年的一次演讲中表示:“他们在尽可能地了解关于你的一切,并试图将其变现。我们认为这是错误的。”

随后,在比利时布鲁塞尔的一次谈话中,Cook阐述了其的担忧。

“通过收集大量个人资料来推进人工智能是懒惰,而不是效率,”Cook表示“人工智能要想真正聪明,就必须尊重人类的价值观,包括隐私。如果我们在这方面做错了,危险将是深远的。”

很多人都同意了这一观点。2018年,总部位于英国的人权和隐私组织Article19和PrivacyInternational发表了一篇论文,对人工智能的焦虑仅限于其日常功能,而不是像机器人霸主出现那样的灾难性变化。

“如果负责任地实施,人工智能可以造福社会,”作者写道:“然而,与大多数新兴技术一样,商业和国家使用确实有可能对人权造成不利影响。”

作者承认,收集的大量数据可用于尝试以良性方式预测未来行为,比如垃圾邮件过滤器和推荐引擎。但也存在真正的威胁,即其会对个人隐私和免受歧视的权利产生负面影响。

为人工智能的未来做准备人工智能的可能性2018年底,国际知名人工智能专家StuartRussell在WestminsterAbbey发表讲话时,开玩笑(或不开玩笑)地表示,其与记者达成了正式协议,除非他们同意不把‘Terminator’机器人放在文章中,否则不会与之交谈。其的俏皮话揭示了对好莱坞描绘遥远未来人工智能的明显蔑视,后者倾向于过度紧张和世界末日。Russell所说的“人类级别的AI”,也被称为通用人工智能,长期以来一直是幻想的素材。但其在短时间内实现或根本实现的可能性非常小。

Russell解释道:“在我们达到类似人类水平的人工智能之前,还有许多重大突破需要实现。”

Russell还指出,人工智能目前还不能完全理解语言。这表明了目前人类和人工智能之间的明显区别:人类可以翻译机器语言并理解它,而人工智能无法翻译人类语言。然而,如果人工智能能够理解我们的语言,那么人工智能系统就能够阅读和理解所有的文字。

“一旦我们拥有了这种能力,便可查询人类所有的知识,其将能够综合、整合和回答人类从未回答过的问题,”Russell补充道:“因为其没有阅读,也没有能力把历史上一直分离的事物之间的点放在一起,并连接起来。”

这给我们提供了很多值得思考的东西。在这个问题上,模拟人脑是极其困难的,这也是AGI的未来仍然处于假设状态的另一个原因。长期任职于密歇根大学工程和计算机科学教授的JohnLaird在该领域进行了几十年的研究。

“我们的目标一直是试图构建我们所谓的认知架构,我们认为这是智能系统与生俱来的,”Laird谈到主要受人类心理学启发的工作时,“例如,我们知道的一件事是,人类大脑并不仅仅是一组同质的神经元。这是一个由不同组件组成的真实结构,其中一些与如何在这个世界上做事的知识有关。”

这就是所谓的程序记忆。还有一种是基于一般事实的知识,即语义记忆;以及,另一种是关于先前经历(或个人事实)的知识,称为情景记忆。Laird实验室的一个项目涉及使用自然语言指令教机器人一些简单的游戏,比如下棋和智力游戏。这些指令通常包括对目标的描述、法律措施的纲要和失败的情况。机器人将这些指令内化,并使用它们来计划自己的行动。然而,和以往一样,突破总是需要时间——比Laird和其同事们预想的慢。

“每次我们取得进步,”Laird表示:“我们也会对其的难度有新的认识。”

AGI是人类的威胁吗?许多人工智能领域的领军人物都认同,甚至有些人更夸张,一种噩梦般的场景,其中包括所谓的“奇点”,即超级智能机器接管人类,通过奴役或消灭人类接管并永久改变人类的存在。

已故的理论物理学家StephenHawking有一个著名的假设:如果人工智能本身开始设计比人类程序员更好的人工智能,结果可能是“机器的智能超过我们,超过蜗牛。”ElonMusk相信并警告称,AGI是人类生存的最大威胁。其表示,实现这一目标的努力就像“召唤恶魔”。甚至担心,他的朋友、Google的联合创始人LarryPage可能会无意中引导一些“邪恶”的东西出现,尽管他的初衷是好的。比如,“一支能够毁灭人类的人工智能增强型机器人舰队”。即使是IFM的Gyongyosi,在人工智能预测方面也不是危言耸听,其也没有排除任何可能性。其表示,在某一时刻,人类将不再需要训练系统;他们会自己学习和发展。

“我不认为我们目前在这些领域使用的方法会导致机器决定杀死我们,”Gyongyosi表示:“我认为,也许5年或10年后,我将不得不重新评估这一说法,因为我们将有不同的方法和方式来处理这些事情。

虽然杀人机器很可能仍然是小说的素材,但许多人相信它们将以各种方式取代人类。

牛津大学人类未来研究所公布了一项人工智能调查的结果。标题为“人工智能何时能超越人类表现?来自人工智能专家的证据”,其中包含了352名机器学习研究人员对未来几年人工智能发展的估计。

这个群体中有很多乐观主义者。受访者的中位数表示,到2026年,机器将能够撰写学校论文;到2027年,自动驾驶卡车将不再需要司机;到2031年,人工智能在零售领域的表现将超过人类;到2049年,人工智能可能会成为下一个StephenKing;到2053年,可能会成为下一个CharlieTeo。最令人震惊的是:到2137年,所有人类工作都将实现自动化。但是人类自身呢?毫无疑问,喝着机器人端来的雨伞饮料。

NorthwesternUniversity教授、MasterofScienceinAnalytics项目的创始主任DiegoKlabjan认为自己是AGI的怀疑论者。

其解释道:“目前,计算机只能处理1万多个单词。所以,有几百万个神经元。但是人类的大脑有数十亿个神经元,它们以一种非常有趣和复杂的方式连接在一起,而目前最先进的技术只是按照非常简单的模式进行简单的连接。因此,在现有的硬件和软件技术下,从几百万个神经元到数十亿个神经元,我不认为会发生这种情况。”

我们将如何使用AGI?Klabjan也不太相信极端的场景——比如,凶残机器人把地球变成了一个阴燃的地狱。其更关心的是机器——比如战争机器人——被邪恶的人类灌输错误的“动机”。麻省理工学院物理学教授、人工智能首席研究员MaxTegmark在2018年的TED演讲中表示过:“人工智能真正的威胁不是恶意,就像愚蠢的好莱坞电影里那样,而是能力——人工智能实现的目标与我们的目标并不一致。”这也是Laird的看法。

Laird表示:“我绝对看不到某些东西醒来并决定要接管世界的情况。我认为这是科幻小说里的情节,而不是未来的结局。”

Laird最担心的并不是邪恶的人工智能本身,而是“邪恶的人类将人工智能作为一种虚假的力量倍增器”,用于银行抢劫和信用卡诈骗等许多犯罪行为。因此,虽然其经常对进步的速度感到沮丧,但人工智能的缓慢燃烧实际上可能是一种祝福。

Laird表示:“了解我们正在创造什么,以及我们将如何将其融入社会,可能正是我们所需要的。”

但没有人知道确切的答案。

Russell在威斯敏斯特的演讲中表示过:“有几项重大突破必须实现,而且可能很快就会实现。”其引用了1917年英国物理学家ErnestRutherford提出的核裂变(原子分裂)的快速转变效应,并补充道,“很难预测这些概念上的突破何时会发生。”

但无论何时,如果他们做了,他都会强调准备的重要性。这意味着开始或继续讨论AGI的道德使用,以及是否应该对其进行监管。这意味着要努力消除数据偏差,这对算法有破坏作用,目前是人工智能的一大缺陷。这意味着要努力发明和增强能够控制技术的安全措施。也意味着我们要谦卑地意识到,我们能做到并不意味着我们应该做到。

“大多数AGI的研究人员预计将在几十年内实现AGI,如果我们毫无准备地撞上它,这可能是人类历史上最大的错误。它可能导致残酷的全球独裁,带来前所未有的不平等、监视、痛苦,甚至可能导致人类灭绝,”Tegmark在TED演讲中这样表示:“但如果我们谨慎行事,最终可能会进入一个美好的未来,每个人都过得更好——穷人变富有,富人更富有,每个人都健康,都可以自由地实现自己的梦想。”

版权声明:本文内容由互联网用户自发贡献,该文观点仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌抄袭侵权/违法违规的内容,一经查实,本站将立刻删除。

上一篇

下一篇