博舍

人工智能前沿新书LIFE30(生命30) 人工智能操纵人类生命

人工智能前沿新书LIFE30(生命30)

这本新书英文名为life3.0,直译过来是生命3.0,副标题是人工智能时代的人类。

生命3.0

作者叫麦克斯.泰格玛克,是麻省理工学院物理学家,也是真正站在AI领域最前沿的研究者之一。该书于今年8月29日出版,上线仅一天就登上了美国亚马逊人工智能和机器学习类书籍排行榜的首位。埃隆.马斯克也在其推特上发文称此书值得一读,人工智能将是人类遇到的最棒或者最糟糕的东西,所以让我们真去面对,能够真正以冷静客观并且站在相当的高度与深度来看待人工智能的人很少。

本书作者泰格玛克正是其中一个,生命3.0一书深度远远超过市面上大多数关于人工智能的普及类书籍,其广度也让人吃惊。从AI的起源与背后的技术出发,一路上探讨了诸多将被其深度影响的领域,比如工作社会战争犯罪等等。随便举举书里谈及的问题,在不可避免的自动化浪潮中,我们要如何确保人们的工作与收入不会减少,如何避免智能化军备竞赛所带来的全球性危机?我们给下一代的职业建议应该是什么样的,什么样的职业将会成为下一个时代的宠儿,如何保障人工智能的安全性。如何保证AA始终在我们的控制之中,而不是如科幻电影那样开始与人类对抗。

我个人判断这本书可能是2017年以来关于人工智能话题最为深刻的一本书籍。

我们既有可能在地球上创造出前所未有的蓬勃发展的社会,也有可能创造出一个永远无法被推翻的无比压抑的全球监视系统。波多黎各会议结束时,泰格玛克真切地相信关于未来AI的探讨是我们这个时代最为重要的话题,这关乎我们所有人的未来,所以不应该仅限于AI研究人员。我们想要什么样的未来,在人工智能时代成为人类意味着什么?

这本书的目的就是帮助你加入这个对话,但是目前许多关于AI的争论其实意义不大,因为参与讨论的人们存在着不少基本的误解,比如说对同一个词汇有不同的理解,所以我们在进入有价值的讨论之前,首先应该澄清一些最常见的误解。

泰格玛克提供了他对于一些核心术语的定义,并非说它的定义是最好的,只是泰格玛克想通过明确的解释来避免混淆,而且它采用的是广义上的定义,避免以人类为中心的偏见。

这里我转述一下比较重要的几个:

智能指的是完成复杂目标的能力。弱人工智能指的是实现一组有限的目标的能力,比如下围棋或者驾驶汽车。通用智能指的是有能力达成几乎任何目标,包括学习。超人工智能指的是远超人类水平的通用智能。

除了混淆术语之外,许多AI的对话还被一些简单的误解所困扰,最常见的有以下三个:

第一个是关于时间表的神话。人类发展出超人工智能需要多长时间,在这个问题上最常见的误解就是我们非常确定地知道答案,比如最流行的说法是我们知道自己将在本世纪内创造出超人工智能,但是回顾一下历史,我们曾经也很确信自己会造出满天飞的汽车,但是你现在看到了吗?回到人工智能领域,上个世纪的50年代AI的创始人们就以为只要把大家聚在一起,花上两个月的时间,就能搞清楚如何让机器使用语言形成抽象概念,解决人类面临的各种问题,并且做到自我完善。现在看来只能用过分乐观来形容当时人们的想法。

另一方面,一个流行的相反的说法则是我们确信自己本世纪内造不出超人工智能,1956年天文学家理查德武力声称太空旅行绝对不可能。类似这样事后看来可笑的预测在历史上比比皆是。

物理学家知道大脑是由夸克和电子组成的一台强大的计算机,所以没有什么物理定律阻止我们构建更加智能的夸克结构。从这个意义上来说,我们不能铁口断言人类未来制造不出超人工智能。

现在已经有一些调查询问AI的研究人员,你们认为多少年后我们至少有五成的概率制造出超人工智能,结论是这个领域的顶尖专家对此问题分歧极大,所以我们其实不知道答案。现在有媒体宣称过不了几年超人工智能就要诞生了,其实呢那些对此表示担忧的著名人士也认为至少还有几十年才会出现超人工智能,但是他们同时认为,只要我们不能拍着胸脯保证本世纪内不会出现超人工智能,那么现在就应该开始相关的安全研究,因为这些问题太复杂了,可能需要好几十年才能找到解决方案。

第二个误解是关于争议的神话,也就是误以为AI研究者对于是否支持人工智能安全研究存在巨大的争议,泰格玛克认为这也是媒体推波助澜的结果,比如过于强调吴恩达的火星人口过剩论,其实吴恩达并非不在意人工智能的安全问题,只不过他关于超人工智能出现的时间表比较长,

所以倾向于优先考虑短期内的AI挑战。

第三个误解是关于风险的深化,相信你一定看过这样的新闻标题:霍金发出警告,机器人的崛起可能是人类的灾难,通常这类文章会搭配上一张装备的武器的邪恶机器人的科幻图片,文章还会告诉我们要警惕机器人发展出一时,并且变得邪恶,最终杀死人类。

这类文章很抓人眼球,但其实体现了一些人对于意识邪恶以及机器人这三个概念的误解。如果你自己开车的话,你会有关于颜色声音等的主观上的体验,那么无人驾驶汽车会不会有这种主观上的体验呢?他是否会感觉到自己是一辆无人驾驶汽车还是像一个没有任何主观体验的僵尸?

虽然这个一时之谜是挺有意思的,但是他和人工智能的风险无关。

如果你被一辆无人驾驶汽车撞倒,那么他有没有主观意识跟你的腿有没有断没有任何关系。

同理,超人工智能对人类的影响在于它会做什么,而不是它意识到什么,害怕机器变得邪恶也是无聊的问题。我们真正应该担心的不是机器的恶意,而是他的能力。根据定义,一个超人工智能非常擅长实现目标,无论这个目标是什么,所以我们需要确保其目标与我们的一致。你可能本身并不讨厌蚂蚁,但如果你负责一个水力发电项目,那么有一个蚁穴在项目建设过程中被水淹没就再正常不过了。益智运动就是希望努力避免人类遭遇和这些蚂蚁同样的命运被没有恶意但十分强大的超人工智能随手毁灭。对于一时的误解和另一则神话有关,那就是一些人所声称的机器无法拥有目标。机器当然可以拥有目标了,一颗热能追踪导弹朝你飞来。从狭义上来说,他的目标就是你,这和导弹是否有意识并且体验到一种目标感无关。这一刻你只会感到很恐慌,而不会像哲学家一样淡定的说。我不担心,因为机器不可能拥有目标。

第三个肤浅的理解是关于机器人,其实对我们有威胁的人工智能并不需要一个金属怪物的身体,只要一个互联网连接就够了。

益智运动主要的关注点不在于机器人,而在于智能本身,具体而言就是与我们的目标不符的智能,一个超人工智能可以很容易通过收买等手段操纵无数的人来执行他的目标,有些人以为机器不可能控制人类,事实上只要机器足够聪明,他就能控制人类,正如同人类可以控制比我们强悍的多的老虎一样。

好吧,澄清的这些常见的误解,我们就可以一劳永逸地丢弃。

他们将我们和朋友的讨论集中在许多有价值的议题上。

总结一下:

第一,生命是一个可以保持其复杂性和复制性的过程。生命可以分为三个阶段,生命1.0为生物演变在其生命周期内无法重新设计。他的软硬件。生命2.0为文化演变,能够在其生命周期内重新设计它的大部分的软件,但基本无法重新设计自己的硬件。生命3.0为技术演变,能够重新设计自己的软件和硬件。

第二,超人工智能是生命3.0的代表,除了反对人工智能的乐得份子,人工智能专家分为三个主要阵营,包括数字乌托邦主义者技术怀疑论者以及益智运动的支持者。数字乌托邦主义者相信并且期待超人工智能到来。技术怀疑论者认为建立超人工智能非常困难,21世纪甚至数百年内都不会出现,现在担心这个问题是愚蠢的。益智运动派的认为本世纪有可能出现超人工智能,但它并不保证对人类有良好的结果,需要通过辛勤的安全研究工作来确保结果向好。

第三,除了世界顶尖的人工智能专家之间存在的有价值的争议之外,还有许多因为误解所引起的无聊争论,比如明确你和你朋友所使用的术语的准确定义,不要浪费时间争论生命智能或者一时等词汇。另外,不要断言超人工智能出现的时间表,不要过于关心邪恶机器人,不要误以为机器没有目标或者无法控制人类。

关于未来的AI军备竞赛

今天的关键问题是要不要防止全球性的AI军备竞赛的启动。与核武器不同的是AI武器不需要昂贵或者难以获得的原材料,所以它们会很便宜,而且无处不在。这些武器最终落到恐怖分子独裁者以及计划实行种族清洗的军阀手里,只是一个时间问题。

自主武器是执行暗杀破坏国家稳定镇压老百姓以及选择性的屠杀某个特定族群的理想工具。我们认为,AI军备竞赛对于人类是有害的,正如大多数化学家和生物学家对制造生化武器毫无兴趣一样,大多数AI研究人员对制造AI武器也毫无兴趣,不希望其他人这么做而玷污了这一领域,尤其是这可能会造成公众对于人工智能的反感。

事实上,化学家和生物学家广泛支持相关国际协定并由此成功的禁止生化武器的开发。本书作者起草的公开信不久就获得了超过3000名AI研究人员的签名,包括来自谷歌脸书微软以及特斯拉的多位高管,另外17000位非专业人士也签了名,包括我们熟悉的史蒂芬霍金,事实上,AI军备竞赛蓄势待发。

2016年美国投资到民用AI项目的经费约为10亿美元,而2017年美国五角大楼计划投资与AI有关的军事项目的资金就高达120-150亿美元,中国和俄罗斯也是摩拳擦掌,是否应该有相应的禁止性的国际条约?

这个可能说起来容易做起来难,比如说条约只是禁止致命性的AI武器,还是将有伤害但非致命的武器一并禁止。条约是否适用于所有的自主武器系统还是对防御性的系统网开一面。再者,自主武器的大多数组成部分都具有民事用途,例如送邮件的无人机和运炸弹的无人机没有太大区别。我们要如何执行条约呢?一些人认为设计一个有效的AI武器的禁止性条约是几乎不可能的,所以干脆不搞了吧,但是作者引用了肯尼迪在宣布登月任务时讲的话:艰难的事情值得一试,因为一旦成功将对人类的未来十分有利。

在泰格玛克与基辛格的一次交谈中,双方都认为AI军备竞赛中获益最多的不是超级大国,而是那些小型的流氓国家和恐怖分子,他们能够通过黑市获得武器,一旦开始大规模的生产AI驱动的小型杀手无人机,它的成本可能比智能手机还低得多。

无论是恐怖分子想暗杀一位政治家或者是一个疯子想报复他的前女友,他们需要做的就是把目标的照片和地址上传到无人机,然后这架无人机就会飞到目的地识别并杀害目标,然后自我销毁,使得我们无从追查操控者。对于那些计划实行种族清洗的人来说,他们很容易通过编程使得无人机专门杀死具有某种肤色或种族的人,也许未来一辆卡车就能放出上百万架小如昆虫的杀手无人机。看过黑镜这部电视剧的朋友应该还记得其中有一集就为我们展示了这一可怕的场景。

人工智能,期待与约束共行

2

接纳人工智能,你准备好了吗

人工智能、物联网、机器人、超高速宽带通信网等都是实现“Society5.0”的重要技术。人工智能友好型的基础设施是实现超级智能化社会所必需的一种变革。“设定怎样的目的去使用人工智能”是人类必须考虑的问题。为此,《原则》分别从人类、社会系统、产业构造、创新系统、政府监管五个维度勾勒了“AI-Ready社会”的愿景。

第一,人类。AI-Ready社会对人类能力的要求体现在三个方面:(1)有能力充分理解人工智能的优点和缺点。作为人工智能信息来源的数据、算法存在“偏误”人可能性,也可能会被用于不合理目的。其中,数据的偏误主要有统计层面的偏误、社会形态产生的偏误以及人工智能使用者恶意产生的偏误;(2)能够使人们从事具有较高创造性、生产性的劳动。通过人工智能的帮助能够使人们基于出身、文化、兴趣等,获得实现梦想和发挥创意的能力。为此需要推动教育体系及其相关社会制度的构筑;(3)具有数据、人工智能基础知识和实施、设计等应用能力,跨领域、综合性、融合性的大量人才。这类人才是推动AI-Ready社会所有活动的原动力,能够为构建灵活使用人工智能的生活环境贡献力量,构建人们得以更加富足、充实生活的社会制度。

第二,社会系统。人工智能的使用能够推动个性化服务、解决方案的升级和效率化。为了使这些优势得以在社会层面广泛应用,需要医疗、金融、保险、交通、能源等在内的社会系统整体的灵活调整,以应对人工智能带来的变革。从社会系统角度,需要强化“软件”和“硬件”两个方面,形成有助于实现具有扩充性、互联性、发展性秩序的柔性架构设计。此外,为了保障社会系统整体的互联、协作,尤其需要建立各类社会系统间互联共通的数据应用基础支撑平台。

第三,产业构造。为了使多元化的创意和理想得以实现,需要灵活地构筑面向国际的开放的劳动、雇佣和创业环境。需要企业实施公平竞争、采取灵活的工作方式,使人类的创造力通过产业能够得以持续发挥,从而拉动创新创业投资。

第四,创新系统。大学、科研机构、企业以及民众都可以跨越领域和立场,参与到人工智能研发、利用及评估中。构建使所有数据能及时、安全达到被人工智能解析程度、任何人均可安心提供数据、并能够从中获得应有收益的环境。研发人员和用户均可安心从事人工智能研发及应用,通过研发与应用的快速循环运转,加速人工智能发展。通过人工智能应用进一步产生新的创意,催生更多的可能性,进一步扩大创新的范围。

第五,政府监管。随着社会形势变化和技术发展,人类、社会系统、产业结构和创新系统的相关内容和目标也会随之更新。需要产学官民等利益相关方相互协作、共同提出规则、制度、标准化、行为规范等方面的监管课题,评估影响,构建能够表达利益诉求并付诸实施的法律及监管体制,兼顾较难表达呼声的社会群体的意见。采取包括技术手段在内的企业层面的自主性规制,构建较为灵活且具实效性的监管方式。为了应对跨境问题,还需要建立国际合作协调机制。

3

为什么要给人工智能戴上紧箍儿

科技的发展越来越迅速,而普通人对于复杂的黑科技也越来越难以理解。人类社会根据适用对象的不同,需要对人工智能的发展方向加以疏导和限制,避免可能出现的失控局面。这就需要一些相对具体的指导原则进行引领。

第一,人类中心原则。人工智能的使用不得侵害宪法和国际规范保障的基本人权。人工智能的研发、推广、运用应该被用于提升拓展人的能力,使人类获得多元幸福。为了防止人类过度依赖人工智能、恶意使用人工智能操纵人类意思决定的行为,需要把握以下原则:(1)人工智能不仅仅用来代替部分人力劳动,还可以作为高级工具辅助人类,从而拓展人类能力和创造性。(2)在人工智能利用中,人类自己可以判断和决定如何使用人工智能。对使用人工智能带来的后果和责任,根据问题性质在研发、提供、运用等利益相关者之间妥当分配。(3)在人工智能普及过程中,防止出现“信息弱者”和“技术弱者”群体,建立能够使人工智能带来的恩惠普及所有人的、易于使用的系统。

第二,教育应用原则。平等地向所有人提供教育、培育应用的教育环境:(1)在幼儿教育、初等中等教育中提供广泛的教育机会,为社会人和老年人提供重新学习的机会。(2)建立人人都能掌握人工智能、数理、数据科学等相关素养的教育系统,超越文理学科界限强化学习。在应用教育中,设置有助于认识到数据偏误及使用方法偏误等人工智能、数据相关特性的内容,以及人工智能公平性、公正性、隐私保护等相关内容。(3)从单方向、均一化教育方式转变为激发人类兴趣和力量。始终保持灵活转变的意识,灵活运用人工智能,构建防止弱势群体出现的交互式教育环境。(4)完善教育环境并不是给行政部门和学校(教师)增加负担,民间企业和普通市民要发挥自主性。

第三,保护隐私原则。人工智能社会中,依据个人行动等数据可以高精度推断其政治立场、经济状况、兴趣爱好等。这意味着需要谨慎对待个人数据:(1)对个人数据的使用,包括政府使用行为在内,不得侵犯个人自由、尊严和平等;(2)对个人数据中涉及隐私的部分,确保使用行为的正确性、正当性,以及本人能够实质性地参与,并从中得到适当益处;(3)个人数据必须根据其重要性和需求性得到妥善保护,基于文化背景和社会共同理念,把握使用和保护之间的平衡。

第四,保障安全原则。人工智能在实现社会系统自动化、提升安全性的同时,在目前能够设想的技术范围内,对于稀有现象和故意攻击行为人工智能无法做到总是能够正确应对,在安全方面存在新的风险。因此,需要把握利益与风险之间的平衡,从整体上提高社会的安全性和可持续性:(1)推进正确评估人工智能风险及降低风险的研究、人工智能深度研发以及包含安全保障在内的风险管理;(2)重视人工智能使用的可持续性,不一味依赖特定的、单一的或者少数几个特定的人工智能。

第五,公平竞争原则。维护能够推动商业模式和服务创新,维持经济持续增长和解决社会课题的公平的竞争环境:(1)不应形成特定国家基于对人工智能相关资源的集中,利用其支配地位实施不当的数据收集和侵害主权行为的社会;(2)不应形成特定企业基于对人工智能相关资源的集中,利用其支配地位实施不当的数据收集和不公平竞争行为的社会;(3)不应形成由于人工智能的使用,导致财富和社会影响力不当地集中于部分利益相关者的社会。

第六,公平性、说明责任及透明性原则。为了避免人工智能的使用导致个人因背景不同而遭受不当的差别待遇,或者使人在尊严层面遭受不正当待遇,需要确保公平、透明的意思决定,以及对意思决定结果的说明义务,确保技术的可信赖性:(1)在人工智能设计理念下,人不应由于人种、性别、国籍、年龄、政治信念、宗教等背景被不当地差别对待;(2)对使用人工智能事实、人工智能数据的取得方法及使用方法、确保人工智能运行结构正确性的相关措施等,都需要根据情况予以说明;(3)为使人能够理解并判断人工智能提案,对于人工智能的使用、采纳、运用都应该根据需要设置沟通对话场所;(4)使社会能够安心灵活使用人工智能,需要保障人工智能以及数据的可信赖性。

第七,创新原则。(1)为实现持续创新,需要跨越国境、产学官民、人种、性别、国籍、年龄、政治理念、宗教等界限,从人才、研究两个方面,大力推进国际化、多样化以及产学官民合作;(2)推动大学、研究机构、企业间的平等合作以及人才流动;(3)推进人工智能品质及可信赖性的确认方法、效率性数据收集及整理方法、人工智能开发、测试、运用方法论等人工智能工学的确立;(4)在确保个人隐私和安全的前提下,打破数据垄断,推动数据跨国境流动使用,完善国际合作,构筑人工智能计算机资源、高速网络共用的研发环境;(5)推进人工智能技术的社会应用,政府对成为阻碍因素的规制内容实施改革。

4

我们对人工智能型社会有怎样的期待

对于人工智能开发者和经营者来说,需要遵守基本理念和上述人工智能社会原则的基础上,制定并遵守人工智能开发利用原则。目前已经有不少国家、团体、企业都已经对人工智能开发利用原则开展探讨,但是,目前尚未达成国际共识。因此,本《原则》强调日本需要积极制定本国的开发利用原则,通过开放式探讨,积极推动国际非规制性、非约束性原则框架的达成。2016年,日本政府在G7信息通信部长会议上提出人工智能研发8项基本原则,并提议创设讨论国际统一标准的国际会议。

当前,人工智能不仅与实体经济深度融合,对于社会发展、贫富差距、政府治理、资源枯竭、全球环境问题和科学研究等关乎人类可持续发展的重大课题都有重要影响。加上日本自身面临少子高龄化、劳动力不足、地方稀疏化、财政支出负担等社会经济问题,因此,日本政府对人工智能的发展和广泛应用寄予厚望。其人工智能的内涵并不局限于技术层面的人工智能,而是泛指“高度复杂的智能社会体系”。

值得一提的是,《原则》在尊重人类尊严、实现人工智能可信赖性等方面与欧洲委员会2018年12月18日发布的《关于可信赖人工智能的伦理准则》具有一致之处。《原则》崇尚人人平等、不唯效率至上的人本发展观,符合对“Society5.0”的概念界定和打造超级智能社会的发展目标。

中国作为2016年二十国集团(G20)主席国,首次将“数字经济”列为G20创新增长蓝图中的一项重要议题。2018年G20峰会,我国建议二十国集团将“新技术应用及其影响”作为一项重点工作深入研究。我国作为人工智能发展大国,向全球展现了人工智能时代的中国智慧。我们不仅要抓住人工智能发展机遇,还要积极应对人口老龄化、劳动力人口下降、技能型人才短缺等挑战,多维度对人工智能的开发应用及影响进行系统深入、客观冷静的专业研讨,在基础研究、技术开发应用、资源开放共享、人才教育及法律政策上进行有序引导,为人工智能持续健康发展保驾护航。

(作者:李慧敏,系中科院科技战略咨询研究院助理研究员)

免责声明:【我们尊重原创。文字图片素材,版权属于原作者。部分文章推送时因种种原因未能与原作者联系上,若涉及版权问题,敬请原作者联系我们删除处理,我们只做分享之用,不用于商业。】

————————————————返回搜狐,查看更多

版权声明:本文内容由互联网用户自发贡献,该文观点仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌抄袭侵权/违法违规的内容,一经查实,本站将立刻删除。

上一篇

下一篇