博舍

人工智能的远虑:五行山下的孙悟空 人工智能失败的教训是什么意思

人工智能的远虑:五行山下的孙悟空

科技所创造的存在升级是不可逆的。事实上,人类无力拒绝一个新世界,无法拒绝技术化的未来,所以人类需要关心的更应该是:未来世界如何才能够成为一个普遍安全、普遍公平而意义丰富的世界?

本文来自微信公众号:经观书评(ID:jingguanshuping),作者:张健康,题图来自:《西游记(1986)》

以ChatGPT为代表的人工智能的快速升级和一大群业内大佬的密集示警,突然把原本属于冷门学科的科技哲学推到了知识舞台的中央。

人工智能无疑是当今世界最引人瞩目的前沿科技之一,然而接管舆论场的却不是自然科学家,而是科技哲学家。背后的逻辑应该不难理解。毕竟,玩游戏的是自然科学家,但最终买单的是整个人类,而科技哲学家有义务为人类站好岗。

人工智能(ArtificialIntelligence)的概念被提出来,至少可以追溯到1956年夏天美国达特茅斯学院数学教授约翰·麦卡锡(JohnMcCarthy)发起组织的一次学术研讨会。作为知识论传人的科技哲学家们自然不会放过对人工智能的关注。只不过,长期以来人们认为人工智能还只是一个知识论问题,虽然有过对人工智能可能造成的社会、经济、政治和文化后果的预警甚至批评,但更多的还是对人工智能的生产方式、计算能力、认知机制的分析。

时过境迁,大概是人工智能阿尔法狗(AlphaGo)分别于2016年3月和2017年5月先后战胜韩国围棋棋手李世石和中国围棋棋手柯洁之后,世人突然发觉,人工智能已经由一个知识论问题升级为一个存在论问题。于是,讨论问题的气氛不再轻松,越来越多的声音试图用严厉的警告阻止人工智能技术向控制人类甚至毁灭人类的方向发展。

中国社会科学院学部委员、哲学研究所研究员赵汀阳无疑是最近几年参与人工智能讨论最活跃、最重要的学者之一。2017年以来,他利用各种机会、从科技哲学的立场出发,发表了多篇有影响力的文章,对人工智能的发展前景及可能造成的社会、经济、政治和文化后果提出了独立的看法。2022年9月,他从已发表的文章中精选了10篇主要讨论人工智能的文章,结集成《人工智能的神话或悲歌》一书,由商务印书馆出版发行,算是对他近几年对人工智能的思考的一次总结。

《人工智能的神话或悲歌》,赵汀阳/著

商务印书馆,2022年9月

按照赵汀阳的判断,人工智能虽然已经从一个知识论问题升级为一个存在论问题,但是奇点(singularity)尚未出现,人类还有时间思考如何防止人工智能走向人类不愿看到的结果。

因此,我们同时推荐了另一本科技哲学的重要作品——美国学者约翰·特雷希(JohnTresch)的著作《浪漫机器:拿破仑之后的乌托邦科学与技术》。该书对拿破仑·波拿巴倒台之后到他的侄子夏尔-路易-拿破仑·波拿巴(即拿破仑三世)发动政变颠覆法兰西第二共和国建立法兰西第二帝国的30多年时间里(1815年6月~1853年12月),法国工业革命与浪漫主义社会思潮相遇所带来的社会、经济、政治和文化变革的生动描述和独到分析,可能对我们思考人工智能发展所带来的存在论问题,会有一定的参考意义。

人工智能奇点临近?

自从“奇点”概念1958年被美国数学家、“计算机之父”约翰·冯·诺依曼(JohnvonNeumann)引入科技领域以来,人们就不断猜测:人工智能的奇点是什么?什么时候会到来?到来之后会怎么样?

《浪漫机器:拿破仑之后的乌托邦科学与技术》

[美]约翰·特雷希/著,刘慧宁石稷馨/译

智慧柳|中国科学技术出版社,2023年1月

根据冯·诺依曼的朋友、美籍波兰裔数学家、物理学家斯坦尼斯拉夫·马尔辛·乌拉姆(StanislawMarcinUlam)回忆:“我们有过一次关于科技加速发展以及人类生活方式发生变革的对话。”冯·诺依曼告诉他,“仿佛我们正在接近人类发展史上的某个‘本质奇点’,一旦越过该奇点,我们目前已知的人类活动就会不再延续下去。”

冯·诺依曼没有具体阐释那个“奇点”是什么,但因为计算机科学的传奇人物艾伦·图灵(AlanM.Turing)的前同事、英国数学家和密码学家、“智能爆炸”的提出者欧文·约翰·古德(IrvingJohnGood)1966年曾提出一个超智能机器的概念,说它是“一种可以远远超过任何人的智力活动的机器,无论人们有多么聪明”,一些研究者没有仔细阅读古德后面的话——它既有记忆又能思考,能够自我学习——就据此认为人工智能发展的奇点是机器达到“强人工智能”时,智商超过人类,从而对人类社会造成巨大的冲击。

赵汀阳显然不能认同以“智力”判别奇点的观点。他明确提出,几乎可以肯定,未来的人工智能的“能力”必然远远超过人类,“难道人类不是寄希望于人工智能的超强能力来帮助人类克服各种困难吗?”就以现有的人工智能而论,某一方面的特殊能力远远超过人类都不是什么新鲜事,比如谷歌推出的阿尔法狗,它的围棋水平远超人类,但它只是一个“围棋天才”,别的方面则是“白痴”,根本不能对人类构成威胁。即便未来出现多功能机器人,只要不具备自我意识,仍然只是新的劳动力。

那么,人工智能发展的“奇点”到底是什么呢?赵汀阳的观点很明确,那就是人工智能真正“长得”像人的时候:不仅外表面目像人,而且具有人的情感、欲望和价值观。人比动物有着更强的理性能力,但又有非常强的非理性倾向,经常以理性思维去实现非理性的目标。人总是欲望太多,贪得无厌,经常陷于“布里丹之驴”的选择困境。

对人的反思成为人类一切知识的核心之后,人就占据了思想的核心地位,人的问题就高于一切问题。中世纪的僧侣和学者本来是想通过研究人来理解创造万物的上帝的,最终却变成了宗教的掘墓之举。后来人被定义为独立自主的存在,人成了万物的立法者,于是构建了一个现代人的概念。

随着现代人的概念不断膨胀,要求的天赋人权越来越多,以至于远远突破了自然人的概念,成为一种“自定人”(self-definedman),即自己决定自己成为什么样的人。一旦人工智能具备了人一样的情感、欲望和价值观,他们很自然地会以自己为中心为万物立法,而不太可能无怨无悔地为人类服务,同时他们又具有远超人类的智力和实践能力,那么人类的末日就到了。

听起来很可怕,但是人类总是很难抵御科技的诱惑,因此越来越多的人相信,人工智能的发展迟早有一天是会到达奇点的。科学家们为此设想了多种测试人工智能发展是否到达奇点的办法,最广为人知的大概要算“图灵测试”了。

尽管艾伦·图灵1950年提出的“图灵测试”遭遇了很多质疑,那时人工智能的概念还没有诞生,但是赵汀阳认为图灵测试的思路是没有问题的,只是需要对问题进行升级。他认为图灵测试以语言对话作为测试标准是大有深意的,因为语言能力等价于自我意识功能,所以只要人工智能能够以相当于人类的思想水平回答问题,就可以被确定为具有意识和思维能力的物种。

但是人工智能很快就有望获得几乎无穷大的信息储藏空间,胜过人类百倍甚至万倍的量子计算能力,还有各种专业化的算法、类脑神经网络及图像识别功能,加上互联网的助力,只要配备专业知识水平的知识库和程序设置,“回答”专业科学级别的问题应该不是难题。

由此,赵汀阳提出抗议设计两个超出程序能力的“怪问题”:一个是悖论,一个是无穷性。他甚至想到了“终极版的超图灵测试”;当超图灵机(赵汀阳很乐意称超级人工智能为超图灵机)具有自由意志和主体性,会不会变成一个革命者?会不会质疑人类的秩序和标准且自己建立一套秩序和标准?会不会说出“我是真理、法律和上帝”?如果一旦进入终极版超图灵测试,那可能就是人类历史终结之日。

人类无法反抗的网?

虽然美国数学家、计算机专家、硬科幻小说作家弗诺·文奇(VernorSteffenVinge)1993年发出的预言——30年内人类拥有实现超级人工智能的技术手段,人类时代结束——没有如期实现,而且按照赵汀阳的标准,美国未来学家、发明家、奇点大学创始人雷·库兹韦尔(RayKurzweil)2005年发出的预言——2045年人工智能出现奇点,人类文明走到终点——亦未必能够实现,但人工智能的技术应用可能带来的伦理学问题(赵汀阳称之为“近忧”)和能够形成“存在升级”的人工智能的存在论问题及知识论问题(赵汀阳称之为“远虑”)还是清晰可见的。

赵汀阳认为,以下4个伦理学问题是可以确定近年里人工智能技术应用就会带来的问题:

(1)自动驾驶应该遵循什么样的规则?有没有可以同时保护行人和乘车人的“周全的”行为程序?

(2)人工智能的大量使用必然导致现有工人的失业。无事可做的人能够做什么?他们何以打发时间?他们何以兑现生命的意义?

(3)如果人工智能发达到不仅能够提供大多数劳动,而且能够提供一切生活服务,每个人就只需要技术系统而不再需要他人,人对于人成为了冗余物,人与人的关系深度异化,人们生活的意义又是什么?

(4)人工智能武器使战争变成无需赌命的游戏,世界会变得更加不安吗?

相比人工智能技术应用带来的“近忧”,能够促成“存在升级”的人工智能存在论问题和知识论问题更加值得警惕。尽管超级人工智能还很遥远,但从理论上讲是非常可能的。即便是可以预见的可能性,已经足以令人感到不安。

首先,危险的超级人工智能不太可能落实为个体的万能机器人,而更可能会成为以网络系统的形式而存在的超能系统。因为网络形式无处不在,而且有极强的修复能力,很难被彻底破坏,所以是超级人工智能的优选形态。一旦网络形成,任何人的反抗都不再可能,那就意味着硅基生命的人工智能超越了拟人模式而进入上帝模式,成为上帝那样无处不在的系统化存在。假如出现两个以上的超级人工智能系统,世界会怎么样?

超级人工智能系统一旦形成,必然导致“存在的升级”。赵汀阳对“存在的升级”给出了一个定义,即某种技术、制度的发明开拓了新的可能生活,并且定义了一个新的可能世界,所以它意味着存在方式的革命,而不仅仅是工具性的进步。

人类历史上经历过多次存在的升级,比如语言的产生带来人类的诞生,农业的出现带来社会和国家的形成,现代性的形成带来了人类现在的生活事实,包括资本主义、科学、工业、主体性、意识形态等。现在人类正面临最后一次存在升级,即存在的彻底技术化,简而言之就是技术要对任何存在进行重新规定。结果是什么呢?人类不再重要,历史失去意义,人类文明成为遗迹,未来不再属于人类。人类为什么会试图创造一个高于人类、贬低人类地位甚至有可能终结人类的更高存在呢?

而且更可怕的是,科技所创造的存在升级是不可逆的。事实上,人类无力拒绝一个新世界,无法拒绝技术化的未来,所以人类需要关心的更应该是:未来世界如何才能够成为一个普遍安全、普遍公平而意义丰富的世界?

巴黎浪漫机器的启示

所幸的是,人工智能革命可能是人类的最后一次科技革命,但不是第一次科技革命。人类历史上的每一次科技革命,都给人类的存在带来了深刻的挑战,所以反思以前的科技革命,对人类应该如何应对现在面临的人工智能革命,应该有一些参考意义。

美国学者约翰·特雷希选取拿破仑·波拿巴建立的法兰西第一帝国灭亡到拿破仑三世建立法兰西第二帝国那段历史期间,第一次工业革命给巴黎的社会、文化、政治造成的剧烈冲击作为考察对象,试图说明现代工业化之初,人们是如何让科学技术与艺术、伦理和政治思想协同工作的。根据约翰·特雷希的描述,十九世纪上半叶的巴黎,科技发展与艺术、伦理和政治思想不是对立的,而是以一种与人性和自然相关联的创造性的方式相伴相生的。

那么,巴黎人是如何做到的呢?

巴黎人是幸运的:十九世纪初工业革命勃兴之时,正好与方兴未艾的浪漫主义迎面相遇。当时巴黎典型的浪漫主义作品强调情感、表达、审美和有目的的行动,拒绝启蒙运动的理性主义,反对冷漠、碎片化的科学和工业秩序。那些希望生活像小说一样、沉迷于强烈激情、无法妥协于残酷现实和常识的人,常被形容为“无可救药的烂漫”。

但是,令人惊讶的是,安德烈-马里·安培、亚历山大·冯·洪堡、弗朗索瓦·阿拉戈、路易·达盖尔以及巴黎综合理工学院的很多教授,既是颇有建树的自然科学家和工程师,又醉心于浪漫主义哲学和艺术。他们被历史学家称为浪漫机械主义者。他们拒绝把人类对自然的掌控作为科学的目的,而是认为有限的规范和可持续的共存才是科学的目标。他们不否认无节制的技术发展所带来的风险,与后来模棱两可的科学技术观形成了鲜明的对照。

还有一些人,他们是工程师、社会活动家、哲学家、宗教家。他们对人类和机械之间的固有关系进行了反思,更重要的是把反思的结果融入到新社会哲学的乌托邦和革命想象中。

比较典型的是空想社会主义者圣西门和他的追随者们。他们从物理学和工程学的意象中获得灵感和素材,构想出一个个崭新的世界:一个既能保持内聚力又能保护个人自由的社会。尽管普洛斯珀·昂方坦、皮埃尔·勒鲁与奥古斯特·孔德构想的新世界大相径庭,但是他们所规划的未来愿景中都包含着人类与自然需求之间必须保持平衡的信息。

巴黎的浪漫机械主义者留给后来者的经验教训是什么?必须看到无节制的技术发展给人类社会带来的风险。

赵汀阳曾提出一个设想:为人工智能设置“哥德尔炸弹”作为安全阀门,以达到控制技术无节制发展给人类社会带来风险的目的。简而言之,利用自相关原理设置一个自毁炸弹,一旦人工智能系统试图背叛人类,抑或试图删除哥德尔炸弹,炸弹就会被引爆,因为背叛或删除指令本身就是引爆炸弹的指令。但是人工智能科学家告诉他,人工智能不能删除哥德尔炸弹,但是可以找到办法封闭它,就像人类暂时解决不了某个问题,可以先搁置下来,继续处理别的问题一样。

于是,他想到了《西游记》的隐喻:法力高超、杀不死、烧不化的孙悟空造反了,众神无可奈何,即便被压到五指山下仍然是一个隐患,最后还是经过点化,觉悟成佛,无欲无情,才永除后患。

事实上,十九世纪上半叶巴黎的浪漫机械主义者亦给出了同样的答案:科学家本身就是哲学家、艺术家、社会活动家、宗教家,他们不会允许科技无节制地发展。

本文来自微信公众号:经观书评(ID:jingguanshuping),作者:张健康

全球两类人工智能治理实践的教训

人工智能技术的快速进步及其应用场景的不断拓展延伸,让各国政府监管部门正面临着越来越大的监管挑战。作为一项新兴关键技术,其应用领域极其广泛,但即使这样,作为一项基础技术而言,它会在多大范围、多深程度上影响产业发展、工人就业并产生其他诸如虚假信息、隐私保护、国家安全等方面的挑战,人们仍然无法确定。更重要的是,无论是美欧等传统发达经济体还是像中国这样的新兴经济体,对如何监管人工智能等新兴技术和新兴产业领域的相关规则都还处于探索阶段。2023年2月14日,卡内基和平基金会专家马特·奥肖内西和马特·希汉为此发表了题为《全球两类人工智能治理实践的教训》的评论文章,文章分析了当前欧盟和中国在人工智能监管方面的实践,认为两种监管思路各有特色、各有利弊,政策制定者应当研究人工智能治理措施的成败经验,以指导他们的监管方法。

以下是该评论文章译文,供参考。

众所周知,由于人工智能无所不在且其发展方向仍不明朗,这使得它难以监管。但幸运的是,对于世界其他地区来说,目前人工智能治理设计方面的两项重大实践正在欧洲和中国展开。欧盟(EU)正在竞相通过其《人工智能法案》草案,这是一项旨在管理人工智能所有用途的全面立法。与此同时,中国正在推出一系列针对特定类型算法和人工智能能力的法规。对于启动人工智能治理计划的国家来说,从上述两项人工智能治理实践的成败中吸取教训至关重要。

在人工智能的严肃立法过程中,政策制定者面临的首要问题是采取更“横向(horizontal)”还是更“纵向(vertical)”的方法。在“横向”方法中,监管机构将创建一个全面的法规,涵盖了人工智能可能产生的许多影响。在“纵向”方法中,政策制定者采取“定制”的方法,针对不同应用或类型的人工智能制定不同的法规。

欧盟和中国都没有采取纯粹的横向或纵向方法来管理人工智能。但欧盟的人工智能法案是更偏向于横向监管方式,中国的算法法规则是偏向于纵向方法。通过深入研究这两项人工智能的治理实践,政策制定者可以从中为他们自己的监管方法总结经验。

欧盟的做法

欧盟对人工智能治理的方法以一项核心立法为中心。《人工智能法案》的核心是将人工智能应用的风险分为四类,每种风险都由一套预定义的监管工具来管理。其中,被认为构成“不可接受风险”的应用(如社会评分和某些类型的生物识别技术)被禁止;对安全或基本权利构成“高风险”威胁的应用(如执法或招聘程序)须遵守某些上市前和上市后要求;被视为“有限风险”的应用(例如情绪检测和聊天机器人)仅面临透明度要求;大多数人工智能的使用被归类为“最低风险”,只受制于自愿措施。

《人工智能法案》模糊地定义了每个风险等级的“基本要求”,对每个类别都有不同的限制。对于开发者来说,满足这些要求最简单的方法就是遵守欧洲标准制定机构制定的技术标准。这使得技术标准成为《人工智能法案》的关键部分:它们是将立法中描述的一般规定转化为人工智能系统精确要求的部分。一旦生效,法院、国家监管机构和技术标准机构的多年工作将准确阐明《人工智能法案》如何适用于不同的情况。

实际上,《人工智能法案》是通过单一的“横向”立法方式来确定人工智能应用的广泛监管范围。同时,允许法院、标准机构和开发商等领域和相关机构确定确切的标准和合规策略。为了进一步提高其以更具体方式行事的能力,欧盟还将《人工智能法案》中的要求与共同监管战略相结合,例如监管沙盒(regulatorysandboxes)、应对人工智能挑战的最新责任政策以及专注于数据、市场结构和在线平台的相关立法等。

该框架在提供可预测性和跟上人工智能发展的双重要求之间取得了平衡。其基于风险的方法允许监管机构随着人工智能用途的发展将新的应用领域纳入现有风险类别,从而在灵活性和监管确定性之间取得了平衡。同时,《人工智能法案》对基本要求相对灵活的定义也减轻了纯粹的横向框架所带来的有关精确性的关键挑战,使合规战略能够在不同的部门和技术发展中保持灵活性。

但欧盟这种倾向横向的做法面临几个风险,其他国家应该密切关注。负责执行监管要求的各个监管机构可能在解释或监管能力方面存在差异,从而破坏了横向方法的关键能力和协调效应。另一个因素是拟议的中央和横向欧洲人工智能办公室是否能有效补充国家和部门监管机构的能力。尽管将精确技术需求的创建委托给专家标准制定机构,可以将更多的技术专长和精度引入精确的需求中。但是,标准制定过程历来是由行业推动的,确保政府和公众在谈判桌上有一个有意义的席位将是一个挑战。

中国的做法

在过去的一年里,中国推出了世界上第一个针对算法和人工智能的具有全国约束力的法规。它采取了一种纵向方法:选择特定的算法应用程序并编写法规来解决它们在某些领域部署问题。该方向的前两项法规针对推荐算法和深度合成技术,也被称为生成AI。

推荐算法法规的重点是它在传播信息、定价和派遣工人方面的使用。它要求算法提供商“大力传播正能量”,避免价格歧视或对送货司机的工作量要求过高。第二项规定针对的是使用训练数据生成新内容的深度合成算法,比如深度伪造(deepfakes)[1]。该规定再次聚焦于对“有害信息”的关注,但它也要求提供商在图像或声音被该技术操纵时需获得个人的同意。这些特定应用程序的需求源于法规的垂直性质。这些要求在适用于另一组应用或适用于横向监管所涵盖的应用时,都没有意义。

但中国的法规确实包含一个横向要素:它们创造了某些监管工具,可以横向应用于几个不同的纵向法规。算法备案系统(字面意思是“算法归档系统”)就是一个典型的例子。算法备案系统由推荐算法法规创建,并由深度综合法规重申,这两项法规都要求开发者注册其算法。它是中国官员收集算法信息的中央数据库,例如其训练数据来源和潜在的安全风险。因此,该备案注册系统还可以作为监管机构深度了解人工智能如何构建和部署的工具,这是全球行业监管机构的一个关键目标。

展望未来,备案注册系统可能会继续作为一个横向工具,收集有关属于各种纵向算法法规的类似信息。它可以进行灵活调整,并根据算法的应用要求提供不同种类的信息,或者它可以简单地提供所有受监管的算法所需的统一信息基线(uniformbaseline)。

中国的做法使其能够更精确地对具体技术能力提出监管要求。在大部分情况下,这种方法可能会导致规则滞后于技术发展的速度。然而,在中国的人工智能监管中,由于一些监管要求的定义非常模糊,以至于它们实际上起到了将权力从技术公司转移到政府监管机构的作用,后者可以利用新获得的监管权力,迫使企业按照自己的意愿做出任何改变。中国的纵向监管最终也可能会成为更全面的人工智能治理机制的基石,这种模式在《网络安全法》出台之前就在中国的互联网治理中发挥作用。但在此之前,这种方法的主要风险是相关的监管法规是一个拼凑出来的法规,这些法规总体上考虑不周到且遵守的成本及其高昂。

经验之谈

各界人士对欧盟和中国的做法褒贬不一。商业团体认为,欧盟广泛的横向监管方法将扼杀创新,而分析人士则断定,中国的定向监管将被用来加强信息控制。但退一步看他们人工智能监管的基本方法,世界各国的政策制定者或监管机构都可以从中吸取教训。

一个核心教训是,这两种方法并不能完全独立地存在。纯粹横向监管的方法将无法为人工智能的所有应用制定有意义的具体要求。相反,针对每一个人工智能的新应用都创建一个独立的垂直法规,可能会造成监管机构和企业的合规混乱。

最有效的方法是同时包含横向和纵向两种要素。采取横向方法的监管者可以将制定具体合规要求的实质工作推给更垂直的组织,如部门监管者、标准机构,或在某些情况下的法院,进而从中受益。同样,采取纵向方法的政府可以创建横向监管的工具和资源,用于各种特定应用的法律,从而减轻监管机构的负担以及企业面临的不可预测性。

我们可以在欧盟和中国的监管方法中看到类似的版本。虽然欧盟《人工智能法案》创建了四个风险等级,并为每个风险等级列出了广泛的要求,但阐明具体合规门槛的重任将由欧洲的主要标准化机构完成。尽管中国针对推荐引擎和生成性人工智能发布了垂直监管规定,但为保持监管规定之间的一致性,它们也依赖于算法注册表等横向工具。

除了这种补充两种方法的总体需求外,横向和纵向监管制度各有优劣。选择哪种监管制度最有效,往往要取决于该政府的结构和文化。一个国家的立法机构灵活还是僵硬?其行业监管机构的权力与协调程度如何?这些问题的答案将告诉我们哪种方法最有效。

横向监管方法通过设置一组固定的治理工具,为开发人员和企业提供了可预测性。尽管人工智能应用五花八门,但它们带来的风险往往涉及透明度、稳健性和问责制等类似主题,横向战略可以帮助政府将有限的资源集中在这些重复的主题上。横向监管方法还可以在负担过重的特定行业监管机构缺乏人工智能等新技术研究能力时减少出现监管缺口的可能性。

但政府需要具备一些特点,才能获得横向监管方法的好处。即他们的立法机构有能力修改或增加其主要的横向法规,以跟上技术的步伐。对于一项快速发展的技术,静态的横向监管独立难支。此外,当横向监管法规将精确合规要求的设定委托给其他机构时,这些机构需要有能力抵抗行业捕获行为(industrycapture)。例如,如果行业主导的标准机构制定了薄弱的合规标准,那么监管本身就会变得薄弱。

纵向人工智能法规的好处是可以量身定制,以减轻不同人工智能应用所带来的具体危害。虽然最终的目标比较有限,但这些单独的法规可以解决现有的危害,而且无需增加额外负担就可以普遍适用于该技术的所有应用。随着监管者和立法者了解到那些被证明是成功的干预措施,他们可以在未来将这些工具或要求纳入到针对其他危害的立法中。如果这种零敲碎打的方法最终被证明是远远不够的,那么他们可以通过这些经验来塑造一个更加横向的监管制度。

但纵向监管方法则需要一定程度的立法和机构间协调,以最大限度地减少监管者和企业的成本。如果各机构间不协调建立通用的监管工具,每次有新部门负责监管人工智能的具体应用时,那么它们将会产生重复工作的问题。同样,如果纵向监管没有配备必要的技术和财政资源,行业监管机构将无法有效限制企业的人工智能应用。

美国的政治结构已经对人工智能监管进行了一系列杂乱无章的尝试。这些努力带来了横向和纵向元素的独特融合。过去两届政府都制定了自己政治导向的指导原则,其形式是前总统唐纳德·特朗普关于人工智能监管的指导和乔·拜登总统的人工智能权利法案蓝图。这些作为横向指导,旨在为行政部门的垂直部门监管机构提供信息。这两种基于原则的横向方法都试图协调人工智能监管的高级别方法,同时保持灵活性以适应特殊环境。如果没有资源和压力来实际执行这种特定部门的调整,这种方法很有可能只会产生没有意义的约束性法规。

此外,依赖联邦部门规则制定或规则解释的监管法规很有可能在下一届政府期间被推翻,就像特朗普和拜登政府之间用于信贷决策算法的解释要求一样。与此同时,国会中的两党多数已经为人工智能研究工作和最佳实践指南提供了资金,例如美国国家标准与技术研究所(NationalInstituteofStandardsandTechnology)最近发布的人工智能风险管理框架(RMF)。RMF在设计上是不具约束力的,但它确实与可用于支持未来垂直法规的水平工具有相似之处。

人工智能监管并没有一个可以适用于各国的单一公式,但欧盟和中国的人工智能监管中使用的横向和纵向元素的混合(为各国)提供了一系列政策选择。通过从这些初始监管方法中借鉴适用于其独特国情背景的经验,其他国家可以采取有意义的措施来减少人工智能系统产生的危害。

[1]深度伪造(deepfakes)是人工智能生成的任何人或名人的合成视频,它冒充真实的人,并让他们采取行动或说出他们从未做过的任何事情——编者注。

人工智能可以从高性能计算学习的七个经验和教训

 有效的IT组织可以寻求更广泛使用人工智能的方式,通过从高性能计算(HPC)中吸取的经验和教训,将其重点放在系统级思考上。

[[274475]]

每个组织都将使用人工智能技术,或者应该使用。人工智能对企业利润和竞争优势的潜在积极影响是不容忽视的。

如今,高性能计算(HPC)中心是支持大规模高性能应用(包括大规模人工智能)的专家。无论企业已经在实施人工智能,还是处于探索/思考的早期阶段,都会从高效的高性能计算(HPC)企业中学习一些经验教训。

DigitalTrends公司2019年进行的调查发现,自去年以来,大型企业表示他们已经在使用人工智能的比例已经增加了50%,从2018年的24%上升到2019年的36%。只有26%的组织报告没有计划投资人工智能(低于前一年的35%)。

考虑到当前管理层对人工智能的思考,也许这并不奇怪。根据普华永道公司的一份调查报告,72%的企业高管认为人工智能将成为未来的商业优势。如果客户对企业的业务至关重要,可能会关注2019年数字趋势的调查报告,客户体验(CX)领导者在其组织中使用人工智能的可能性几乎是其他公司的两倍。

当企业发现自己被推动评估和/或部署人工智能项目时,需要帮助避免转向系统级思维模式。

高性能计算(HPC)——借用有效的习惯而不会陷入困境

高性能计算(HPC)具有非常高水平的聚合计算能力,为单个应用程序提供巨大的性能,远远超过性能最强大的台式计算机或工作站,以解决在科学、工程或商业领域的重大问题。

人们可以从高性能计算(HPC)社区的经验中学到一些东西,使其所有系统运行得更好。当然,高性能计算(HPC)具有一定的神秘感,并且具有明确的文化。但是,每个企业都可以受益于采用经过培训的方法来导航人工智能、机器学习以及高性能计算(HPC)计算需求和机会。

高性能计算(HPC)与大型数据中心的区别在于是“相关计算的扩展”概念。如果说房地产与位置有关,那么高性能计算(HPC)与扩展有关。

并行编程的一个共同关注点,特别是在高性能计算(HPC)中,是测量应用程序的扩展效率(通常称为可扩展性)。这种测量表明,当使用越来越多的并行处理单元(处理器、GPU、ASIC、FPGA等)时,应用程序的效率有多高。

同样,对于优秀人工智能部署而言,真正重要的是扩展,其答案不是高性能计算(HPC)系统的精确副本。

有效的IT组织可以为寻求更广泛使用人工智能的组织指明方向

与高性能计算(HPC)专家协商的最重要的共同点是:系统级思维很重要。由于这有一些宽泛和模糊,企业可以深入挖掘并将其改进为有效的高性能计算(HPC)组织的七个关键的经验教训。

1.大量投资于采购活动

如今有很多高性能计算(HPC)系统被收购,也有一些很好机会被闲置,因为没有时间认真评估它。企业可以从研究高性能计算(HPC)中心获得很多见解,这些中心在投资新的超级计算机时一直在寻找机会、复杂性和风险。几年前,行业专家发表了一篇名为《最佳高性能计算(HPC)经理如何制定最佳采购决策》的文章,重点关注旨在“降低采购风险”的工作。这含蓄地包括了在采购后的几年内仍然保持明智的需要。

为什么有人会聘请外部专家来帮助采购?NumericalAlgorithmsGroup(NAG)的高性能计算(HPC)业务副总裁AndrewJones解释了为什么增强企业内部能力是有意义的:“许多企业都有能力在内部完成这项工作。我们帮助提升能力和经验,扩充他们的团队,增强他们的能力和经验。大多数客户每两年只购买一台新机器,而我们则持续参与高性能计算(HPC)规划和采购项目。他们获得了多年的丰富经验,而不仅仅是我们与客户共度的几天或几周。”

在与内部利益相关者、供应商和详细技术调查的采购讨论中投入大量时间的价值不应被忽视。即使企业不投资聘请外部专家,那么在正常工作之外的投资是多少?如果不能的话,那么其失败是什么?

行业专家的对话反复回到坚持需要深入和诚实的竞争评估(组织自身的能力和缺点)、要求/基准、总体拥有成本和时间安排。以下讨论基准测试和计时的重要性,作为高性能计算(HPC)的接下来的两个教训。

2.投资开发和使用公正的要求/基准

投资决策与组织的需求和目标紧密相连,这一点至关重要。实现这一点的一个关键方法是“基准”。这不是指行业标准,而是指代表企业希望在采购的机器上运行的实际工作量的基准。企业不应该关心其机器能以多快的速度运行供应商喜欢展示的应用程序——企业关心在其内部的重要应用程序。

让供应商与企业的基准测试建议的系统是一项共同的努力。企业的潜在购买量越大,供应商可能需要的努力就越多。提供机器访问和协助是潜在客户对供应商的一种常见要求——不要羞于询问。但是,决定基准应该是什么,以及如何解释它们取决于企业本身,这是一项非常重要的工作。

重要的是要记住,基准测试只是实际工作负载的近似值。但是,如果使用得当,他们可以提供关于对企业来说重要的工作负载的可能性能的有价值数据,以及获得该性能所涉及的难度。

2019年数字趋势的调查表明,如今55%的人工智能在组织中的使用主要集中在数据分析上。当进行基准测试时,企业需要将基准权重与实际操作相匹配。这做起来比听起来难。在高性能计算(HPC)采购方面有经验的人可以分享他们对如何处理这一问题的想法。

AndrewJones分享说,“我们避免将采购选项标记为非此即彼的好或坏。与性能数据本身一样重要的是,确定获得该性能所需的努力,以及对性能背后架构的理解。特别是,我们努力寻找将购买决策与实际需求的风险联系起来的信息。”

这在企业的经验中非常重要——仅仅因为代码可以运行得很快,并不意味着机器会运行得那么快。对机器上运行的内容进行真实的评估比想象机器上运行的内容更重要。当更多地提到“现代化努力”的时候,需要用一个不同的方式重新审视这个问题。

由于没有企业只运行单一代码——系统评估需要考虑性能可能性的权衡以及考虑选择时的潜在性能损失。企业的最佳选择通常是在大多数应用程序上“足够好”的系统,在少数工作负载上表现优异,但在一些重要性较低的应用程序上可能会比较慢。为了这项努力,企业需要最好的批判性思考者,需要将它们付诸实践。

过度关注系统如何提升一个基准测试不应该阻止人们看到更大的图景,特别是如果增加需要额外的采购、部署和支持成本。那么是否可以使用额外成本来更广泛地提高性能?

3.仔细考虑时间安排,制定明智的计划

各种技术的可用时间可能会影响能力和竞争。技术应用的太早或太晚都会严重影响竞争力。分阶段交付可能是升级系统以使用新技术的有力选择。股票经纪人可以告诉有关成本和价值平均的信息,这同样适用于计算,在不断增加投资的过程中有能力让企业在指导未来步骤的过程中学习。而企业了解供应商的长期路线图对于管理风险很重要。

知名记者NicoleHemsoth写道,等待可能很重要。美国国家海洋和大气管理局(NOAA)敏锐地意识到人工智能可以提供帮助,但需要仔细考虑。她还指出,“这一评估过程与那些认为采用人工智能获益的大公司没有什么不同,但需要仔细考虑它是如何和在哪里适用的,以及它是否足够强化和稳定,以符合关键系统的要求。”

Tractica预测,在人工智能的广泛应用下,到2025年,全球软件的年收入将达到1058亿美元(相比之下,2018年仅为81亿美元)。他们预测电信、消费者、广告、商业服务、医疗保健和零售业将成为六大采用者。这表示制定一个多年发展计划可能是一个优势。

4.支持应用程序,并向用户学习

这不是说IT部门不支持他们的用户。但要说的是,许多IT组织缺乏支持人工智能等新兴用途的资金或章程。这造成了一个在高性能计算(HPC)世界中不太常见的差距。

如果人工智能对企业很重要,那么第一步应该是与用户和供应商合作,以找到支持企业所拥有系统的需求的方法。那么人们可能会惊讶地发现,使用已有的系统可以很好地工作,一个巨大的好处就是能够从中学习并成长。令人惊讶的是,这往往被忽视作为资源和试验场。即使正在进行学习,通常也会在IT和用户之间断开连接。与大多数高性能计算(HPC)组织一样,积极的IT组织密切参与支持和学习系统中最重要的工作负载。如果Python或Tensorflow对企业的用户很重要,那么是否了解如何为部署的平台获得最优化的版本?

5.协调实现代码现代化的实际计划

每当技术和机器快速发展时,代码也需要不断发展。代码现代化是一种编写可扩展代码的方法,该代码使用多级并行来充分利用现代硬件性能。人们将看到在高性能计算(HPC)社区内继续讨论和推广了多少代码现代化,以及它带来的积极影响。

致力采用高性能计算(HPC)的企业大量投资开源代码,都致力于改进新系统的开源代码。几年前,AndrewJones曾在英特尔并行计算中心(IntelPCC)就职,英特尔并行计算中心的资金用于更新多核处理器的开源项目,AndrewJones参与编辑了两本书籍,这两本书籍由世界知名团队通过工作来修改开源代码以实现现代化。

在这次旅程中,代码现代化比它最初出现的要重要得多,这是可以向IT组织提供的一个重要教训,无论现代化的实际工作是在内部完成的、希望在开放源代码中完成的、或在对外付费完成的。也可能是以上所有的混合。

有了这些见解,企业知道代码现代化对人工智能的应用也很重要。高性能计算(HPC)应用的经验表明,如果不投资代码(尤其是在技术快速变化的情况下),往往会加强供应商的锁定。与供应商锁定相比,企业支付费用改进自己的代码可能会更好。

6.将云与无云视为平衡行为,而不是选择

尽管一些供应商正在大肆宣传,但“云中的高性能计算(HPC)”的概念并未停止对高性能计算(HPC)硬件的投资。Intersect360Research公司的调查报告表明,在2018年,大多数高性能计算(HPC)预算或者增加(46%),或者保持与前一年相同(38%),其中商业网站的增长最强劲。这就强化了这样一个事实,即必须具备计算基础设施方面的专业知识。

基于云计算的服务,包括AWS、Google、Azure和其他服务,提供各种平台来进行试验和早期部署。这可能会延迟拥有基础设施专业知识的需要,并给这些专业知识一个在组织内成长的机会。虽然基于云计算的人工智能无疑是技术孵化的重要家园,但随着人工智能计划的扩展,企业发现自己需要构建和维护基础设施。这对高性能计算(HPC)专家来说是不足为奇的。

当成本、性能和大量数据都很重要时,拥有自己的计算基础设施专业知识更加重要。忽视这种对专业知识的需求是有风险的。

7.总拥有成本(TCO)——不只是从高性能计算(HPC)吸取的教训

当提到关注获得绩效的成本(评估基准)、时间安装(现在将获得什么好处与等待)以及投资于采购和现代化以获得真正平衡的方法时,将会涉及总体拥有成本。整个系统的一部分问题需要安全性,这也不是一个特定的高性能计算(HPC)问题(尽管高性能计算中心考虑了很多)。

总拥有成本(TCO)是第七个经验和教训,尽管总拥有成本(TCO)肯定不是高性能计算(HPC)独有的,但它对高性能计算(HPC)来说确实非常重要。没有什么比考虑整体情况更能说明“系统方法”——硬件、软件、应用程序、安全性和人员。系统的价值是企业从中获得的净收益,而不是为实现它而投入的资本和费用(TCO)。

以系统方法为中心的七个经验和教训

经验丰富的高性能计算(HPC)中心在实现大型高性能系统的采购和运营方面取得了巨大成功。有效的系统方法是他们成功的关键。这些成为任何企业冒险大规模支持人工智能的关键技巧。

当人们深入了解这七个经验和教训时,将采用这样的系统方法:投资采购活动、开发和使用公正的基准、仔细考虑时机,大力投资支持应用程序和用户社区,制定计划实现代码现代化,并管理总拥有成本。

高性能计算(HPC)的这些经验和教训可以为企业提供更多的帮助。但是,企业也没有必要都成为高性能计算(HPC)技术的狂热者。

教训是什么意思

教训怎么写好看

教训书法图片

教训的解释

(1)[lesson;moral]∶指从错误或挫折中得到的经验

水灾的教训

(2)[educationandtraining]∶教育训练

自无教训。——《玉台新咏·古诗为焦仲卿妻作》

十年生聚,十年教训

(3)[chide;teachsb.alesson;teachsb.moral]∶训导;训戒

狠狠地教训了他

详细解释

(1).教育训练。《左传·哀公元年》:“越十年生聚,而十年教训,二十年之外,吴其为沼乎!”唐元稹《唐故南阳郡王赠某官碑文铭》:“润之师故南阳韩晋公之所教训,弩劲剑利,号为难当。”《警世通言·旌阳宫铁树镇妖》:“﹝真君﹞乃与二弟子逕往其处,至一馆中,知是孽龙在此,变作先生,教训生徒。”

(2).教导训戒。《左传·文公十八年》:“顓頊有不才子,不可教训。”唐元稹《唐故建州浦城县尉元君墓志铭》:“君即某官之次子也。少孤,母曰渤海封夫人,提捧教训,不十四五,其心卓然。”《警世通言·老门生三世报恩》:“若蒙老公祖教训,老夫死亦瞑目。”叶圣陶《隔膜·一生》:“伊生在农家,没有享过‘呼婢唤女’、‘傅粉施朱’的福气,也没有受过‘三从四德’、‘自由平等’的教训。”

(3).教养。《玉台新咏·古诗<为焦仲卿妻作>》:“本自无教训,兼愧贵家子。”唐蒋防《霍小玉传》:“某有一女子,虽拙教训,颜色不至丑陋,得配君子,颇为相宜。”

(4).惩罚。艾芜《山野》第一部十五:“你再乱说,我就要拿枪来教训你了。”知侠《铁道游击队》第二章:“到那时候,他会对所有战士和指挥员说:‘这是老洪送给我们的好礼物呀!让我们更好地教训鬼子吧!’”

(5).从失败或错误中取得的经验或认识。鲁迅《朝花夕拾·从百草园到三味书屋》:“结末的教训是:所以倘有陌生的声音叫你的名字,你万不可答应他。”沉从文《从文自传·一个老战兵》:“在各样机会上去做人,在各种生活上去得到知识与教训。”

词语分解教的解释教à指导,训诲:教习。教头。教正。教师。教导。管教。请教。教学相长。因材施教。使,令:风能教船走。指“宗教”:教士。教主。教皇。教堂。姓。学教ā传授:教课。你教给我做。学笔画训的解释训(訓)ù教导,教诲:训诫。训蒙(教育儿童)。训迪(教诲开导)。教(刼)训。培训。可以作为法则的话:家训。典式,法则:不足为训。解释词的意义:训诂(解释古书中的字、词句的意义。亦称“训故

版权声明:本文内容由互联网用户自发贡献,该文观点仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌抄袭侵权/违法违规的内容,一经查实,本站将立刻删除。

上一篇

下一篇