人工智能批评人士担心“失去控制”,呼吁暂停人工智能开发6个月
“这一暂停应该是公开的和可核查的,并包括所有关键行为者。”
上图:人工智能生成的地球仪停止旋转的图像。
周三,生命未来研究所在其网站上发表了一封公开信,呼吁人工智能实验室“立即暂停训练比GPT-4更强大的人工智能系统至少6个月。”这封信由埃隆·马斯克和几位著名的人工智能研究人员签署,很快开始引起媒体的关注,并在社交媒体上引起了一些批评。
本月早些时候,OpenAI发布了GPT-4,这是一种可以执行合成任务的人工智能模型,据称,还能通过人类水平的标准化测试,尽管这些说法仍在研究评估中。无论如何,GPT-4和必应聊天在功能上的进步超过了以前的人工智能模型,这让一些专家感到震惊,他们认为我们走向“超级智能”人工智能系统的速度比之前预期的要快。
沿着这些思路,生命未来研究所认为,人工智能领域最近的进步导致了一场“失控的竞赛”,即开发和部署难以预测或控制的人工智能模型。他们认为,缺乏对这些人工智能系统的规划和管理是令人担忧的,只有在它们的影响得到充分理解和管理后,才应该开发强大的人工智能系统。他们在信中写道:
广泛的研究表明,顶级人工智能实验室也承认,具有人类竞争智能的人工智能系统,可能对社会和人类构成深远的风险。正如广泛认可的“阿西洛玛人工智能原则(AsilomarAIPrinciples)”所述,先进的人工智能可能代表着地球生命历史上的深刻变化,应该以相称的关怀和资源来规划和管理。
特别是,这封信提出了四个意味深长的问题,其中一些假设的场景在AI社区的某些领域引起了极大的争议,包括“所有的工作”都被AI抢走,以及文明“失去控制”:
“我们应该让机器用宣传和谎言淹没我们的信息渠道吗?”
“我们是否应该将所有工作都自动化,包括那些令人满意的工作?”
“我们是否应该发展非人类思维,让它们最终在数量上、智力上超过我们、被淘汰并取代我们?”
“我们是否应该冒着失去对我们文明控制的风险?”
为了解决这些潜在的威胁,这封信呼吁人工智能实验室“立即暂停训练比GPT-4更强大的人工智能系统至少6个月。”在暂停期间,作者建议人工智能实验室和独立专家合作建立人工智能设计和开发的共享安全协议。这些协议将由独立的外部专家监督,并应确保人工智能系统“毫无疑问是安全的”。
然而,目前还不清楚“比GPT-4更强大”在实际或监管意义上究竟意味着什么。这封信没有具体说明,通过衡量多模态或大型语言模型的相对能力来确保合规的方法。此外,OpenAI也再明确避免公布有关GPT-4工作原理的技术细节。
生命未来研究所(FutureofLifeInstitute)是由一群科学家于2014年成立的非营利组织,他们关注人类面临的生存风险,包括生物技术、核武器和气候变化。此外,来自人工智能的假设存在风险也一直是该小组关注的重点。据路透社报道,该组织主要由马斯克基金会、总部位于伦敦的有效利他主义组织FoundersPledge和硅谷社区基金会资助。
据路透社记者证实,这封信的签名者包括:前面提到的特斯拉首席执行官埃隆·马斯克、人工智能先驱约书亚·本吉奥和斯图尔特·拉塞尔、苹果联合创始人史蒂夫·沃兹尼亚克、StabilityAI首席执行官伊马德·穆斯塔克以及作家尤瓦尔·诺亚·哈拉里。互联网上的任何人都可以在无需验证的情况下签署这封公开信,这最初也导致了一些虚假添加的名字,如微软前首席执行官比尔·盖茨、OpenAI首席执行官山姆·奥特曼和虚构人物约翰·威克。这些名字后来被删除。
“人工智能炒作”和潜在监管
尽管这封信语气紧迫,但并非所有人都认同人工智能的潜在生存风险,他们更愿意先关注其他不那么假设的人工智能危害。正如我们之前提到的,人工智能社区的派系之间对于关注哪些潜在的人工智能危险存在强烈的脱节。
一些批评人士已经对GPT-4提出了异议。著名的人工智能伦理学家蒂姆尼特·吉布鲁(TimnitGibru)在推特上打趣道:“他们想阻止人们使用比GPT-4‘更有力量’的东西,但GPT-4很好,对吧?”
艾米丽·班德博士(EmilyBender)经常批评商业化的大型语言模型,她在Twitter上称公开信的部分内容是“精神错乱的#人工智能炒作”,并指出,对人工智能成为超人的恐惧,正在帮助推动这些模型的宣传,尽管存在社会偏见和倾向于以令人信服的方式完全编造信息的问题,但这些模型已经广泛推出。
艾米丽·班德博士在一条推文中提到了她的论文《论随机鹦鹉的危险》(2021),他写道:“风险和伤害从来都不是‘太强大的人工智能’。相反,它们关乎权力集中在人民手中,关乎重现压迫体系,关乎对信息生态系统的破坏,关乎对自然生态系统的破坏(通过肆意使用能源资源)。”
尽管如此,人工智能安全/伦理辩论双方的许多人都认为,在过去的一年里,人工智能领域的变化速度非常快,使得法律体系、学术研究人员、伦理学者和文化几乎没有时间来适应这些新工具,这些新工具可能会引发经济的根本变化。
上图:GPT-4从2023年3月14日开始向ChatGPTPlus客户介绍的屏幕截图。
正如公开信所指出的,就连OpenAI也在敦促放慢人工智能的进展。OpenAI在今年早些时候发表的一份关于人工通用智能(大致指与人类相当或更高的人工智能)的声明中写道:“在某种程度上,在开始训练未来的系统之前,进行独立审查可能很重要,对于最先进的努力来说,同意限制用于创建新模型的计算的增长率可能很重要。”
生命未来研究所认为,现在是限制这种增长的时候了,如果“所有关键角色”不同意很快减缓人工智能研究,“政府应该介入并暂停”。
然而,在政府监管方面可能会有一些困难。正如英国《卫报》所指出的,“要求严格监管的呼声与英国政府周三发布的旗舰人工智能监管白皮书形成了鲜明对比,该白皮书根本没有新的权力。”
与此同时,在美国,政府似乎对潜在的人工智能监管几乎没有达成共识,尤其是在GPT-4等大型语言模型方面。去年10月,拜登政府提出了一项“人工智能权利法案”,以保护美国人免受人工智能的伤害,但它只是建议的指导方针,而不是具有法律效力的文件。此外,它并没有具体解决指南制定后出现的人工智能聊天机器人的潜在危害。
总之,不管公开信中提出的观点是否代表了最好的前进方向,人工智能模型的颠覆性力量(无论是通过超级智能,还是通过充满过度炒作的鲁莽推出),最终都将落到监管机构的门前。
如果朋友们喜欢,敬请关注“知新了了”!
美媒:中美人工智能角逐美国正失去军事垄断优势
《纽约时报》于2月3日发表了一篇题为《中国武器越来越智能了》的文章。
文章称,“目前,全球科技均势正在发生变化。80年代末,廉价且普遍可获得的微芯片的出现颠覆了五角大楼控制技术进步的能力。现如今的新技术越来越多地出自消费类电子企业,而非军方和先进的企业实验室的扩散效应。简而言之,一些公司既生产速度最快的计算机,也生产放在圣诞树下面的产品。”
智搜(Giiso)信息成立于2013年是国内领先的“人工智能+资讯”领域技术服务商,在大数据挖掘、智能语义、知识图谱等领域都拥有国内顶尖技术。同时旗下研发产品包括资讯机器人、编辑机器人、写作机器人等人工智能产品!凭借雄厚的技术实力,公司成立之初,就获得了天使轮投资,并在2015年8月获得了金沙江创投500万美元pre-A轮投资。
《纽约时报》网站截图
“而随着消费类电子产品制造转移至亚洲,中国的公司和政府的实验室都对人工智能大举投资”,文章还称,中国的百度、腾讯等公司,都纷纷引进人才、加强投资,力图在人工智能领域大展拳脚。
除了商用,中国人工智能技术在军工领域的发展更加引人注目。“他们发明机器时更有创意”,美国军事战略家约翰·阿尔奎拉(JohnArquilla)说,“少量自动化就能让那些机器得到巨大的提升。”
对于中美之间的角逐,百度首席科学家吴恩达(AndrewNg)称,美国可能有些过于目光短浅和自信,理解不了中国竞争的速度。
此外,《纽约时报》表示,中国在尖端技术领域突飞猛进,人工智能只是其中一项。而且,中国政府和商业技术项目之间有着相对融洽的关系,美国则不然。
世界上最快的超级计算机“神威·太湖之光”的多核处理器,为中国设计。这台新超级计算机被认为是中国开始推动创新的广泛行动的一部分。
以下为《纽约时报》文章全文:
被特朗普总统留下来担任国防部常务副部长的资深国防官员罗伯特·O·沃克(RobertO.
Work)称它们是他的“人工智能(artificial
intelligence,简称AI)伙计”。这个轻松的称谓下是严肃的任务:这些伙计类似于一个橱柜,在沃克寻求通过把人工智能引入战场来重塑战争时为他提供建议。
去年,他问,“那么,你们这些家伙是AI领域最智能的,对吧?”
不是,它们告诉他,“最聪明的在Facebook和谷歌(Google)”,沃克在接受采访时回忆说。
现在,它们也越来越多地出现在中国。
在被广泛视为下一代战争关键因素的这项技术上,美国不再占据战略垄断地位。
在五角大楼正酝酿把AI引入军队的计划时,中国的研究人员也正在这个新兴科技领域大步前进。这种转变反映在了中国公司在人工智能领域出人意料的商业发展中。
比如在去年,微软(Microsoft)的研究人员宣布该公司开发出的软件,具备了能够与人类匹敌的语音理解能力。
尽管他们夸耀超过了美国国内的竞争对手,但著名的AI研究人员、中国网络服务公司百度的硅谷实验室负责人温和地奚落了微软,指出百度两年前就在中文上达到了类似的准确度。
简而言之,这是美国在开始实施一项新的军事战略之际面临的挑战。该战略正是基于美国继续在机器人和人工智能这类技术上占据优势这个假设。
去年,贝拉克·奥巴马(BarackObama)总统的国防部长阿什顿·B·卡特(AshtonB.Carter)首次宣布了这个名为“第三个抵消”(ThirdOffset)的战略。它提供了一个在面对与中国和俄罗斯的竞争重新兴起时保持军事优势的方案。
进入60年代后,美国凭借在核武器技术上的领先地位占据了军事优势。到了70年代,在计算机芯片等全新硅谷技术的基础上,这种为人所知的领先地位转移到了智能武器领域。现在,美国领导人计划通过大力发展人工智能和自动控制武器来保持这种军事优势。
但全球科技均势正在发生变化。从50年代到80年代,美国谨慎地保护着自己的优势。它在计算机和材料科学技术领域走在全球的前列,通过军事机密和出口控制小心地保持着自己的领导地位。
80年代末,廉价且普遍可获得的微芯片的出现颠覆了五角大楼控制技术进步的能力。现如今的新技术越来越多地出自消费类电子企业,而非军方和先进的企业实验室的扩散效应。简而言之,一些公司既生产速度最快的计算机,也生产放在圣诞树下面的产品。
随着消费类电子产品制造转移至亚洲,中国的公司和政府的实验室都对人工智能大举投资。
上月,当微软资深的人工智能专家陆奇离开微软,出任百度首席运营官时,再次突显了中国在这方面的进步。陆奇将负责该公司成为全球AI领导者的宏伟计划。
去年,开发出了Facebook的竞争对手、移动应用微信的腾讯公司成立了一个人工智能研究实验室,并开始投资美国的AI公司。
中国进步迅速,使美国的军事战略专家和科技专家围绕中国究竟只是在模仿进步,还是在进行很快便会在该领域超过美国的独立创新展开了一场争论。
“中国领导人正在越来越多地思考如何确保自己在下一波科技浪潮中具备竞争力,”对外关系委员会(CouncilonForeignRelations)新兴技术和国家安全问题专家亚当?谢加尔(AdamSegal)说。
8月,官方报纸《中国日报》报道称中国已开始研发具备“高水平”人工智能的巡航导弹系统。新系统似乎是对美国海军为了抗衡中国在太平洋地区日渐增加的军事影响力,预计在2018年部署的一种导弹的回应。
该导弹被称作远程反舰导弹,或LRASM。对它的描述是“半自动”武器。据五角大楼称,这意味着尽管攻击目标由士兵人为选取,但导弹会利用人工智能技术避开防御,并做出最终的确定攻击目标决定。
加利福尼亚州蒙特雷海军研究生院(NavalPostgraduateSchool)的军事战略专家约翰·阿尔奎拉(John
Arquilla)说,中国的新武器体现了一种名为“远程战”的战略。该战略的理念是,通过打造由部署导弹的小型船只组成的大舰队,来攻击配备更大船只的敌人,如航母。
“他们发明机器时更有创意,”他说,“少量自动化就能让那些机器得到巨大的提升。”
在美国,中国会不会在人工智能和机器人技术上迅速赶上美国这个问题被热烈讨论,各方分歧严重。
百度首席科学家吴恩达(AndrewNg)称,美国可能有些过于目光短浅和自信,理解不了中国竞争的速度。
“很多时候,中国和其他地方都在同时发明某样东西,或是先在中国发明出来了,后来传到了海外,”他说,“但美国媒体只报道美国的版本。这导致外界误以为那些想法是现在美国发明出来的。”
世界上最快的超级计算机“神威·太湖之光”的多核处理器,为中国设计。这台新超级计算机被认为是中国开始推动创新的广泛行动的一部分。
科大讯飞就是中国的进步在美国基本未获报道的一个重要例子。这家人工智能公司侧重语音识别和自然语言理解,在多项国际语音合成和中英文文本互译比赛中获奖。
该公司自称正在与科技部合作,研发一款“人形应答机器人”。中国的科技工作者则表示,该公司在监控技术的研发上同政府关系密切。
“我们的目标是在不久的将来让它去参加高考,被重点大学录取,”科大讯飞董事长刘庆峰说。
相比于美国和欧洲的人工智能研发人员,中国科技工作者的速度值得关注。
去年4月,为了创建一个自动驾驶汽车公司,时任英特尔(Intel)中国研究院院长的吴甘沙离职,并开始组建一个由来自英特尔和谷歌的研究人员组成的团队。上月,这家名为驭势科技(Uisee
Technology)的公司在工作近九个月后便实现了自己的目标:在拉斯维加斯的国际消费类电子产品展览会(International
ConsumerElectronicsShow)上进行了概念车的展示。
“在我们的汽车上的AI技术,包括机器视觉、传感器融合、计划与控制,全都是自家开发,”吴甘沙说。“每一行代码都是我们自己写的。”
他们的第一款车面向的是大学和企业园区这样的受控环境,最终的目标是设计一个共享的自动出租车队。
美国对中国的发展也许正在建立新的认识。
去年10月,一份关于人工智能的白宫报告有多个脚注提到,中国发表的研究论文数量已经超过了美国学者。
然而一些科学家说,学术论文的数量对我们了解创新状况并没有太多帮助。而且有迹象表明,中国只是最近才开始将AI列为其军事系统的一个重点。
“我认为中国在AI系统上绝对是在进步的,但跟美国还差得很远,”新德里观察家研究基金会(ObserverResearchFoundation)海军武器分析师、曾在印度军方任职的阿皮季德·辛格(AbhijitSingh)说。
在中国亲身参与了人工智能工作的中国研究人员却有着不同看法。
“中国论文作者是AI领域的一股强大力量,并且他们的地位在过去五年有大幅提高,这一点毋庸置疑,”台湾出生的人工智能研究者李开复说,他曾在微软和谷歌的中国研究实验室的创建上发挥了关键作用。
李开复如今是一名风险投资者,在中国和美国都有投资项目,他承认美国依然是全球领导者,但他相信,两者之间的距离已经大幅缩小了。他的公司创新工场最近在美国和中国的人工智能领域投入了6.75亿美元。
“用国际象棋打个比方,”他说,“我们也许会说,特级大师大部分仍在北美,但中国拥有越来越多的大师级AI科学家。”
有一点是没有争议的,硅谷和中国在投资和研究上有着紧密联系,而美国AI研究社区的开放性也意味着,最尖端的技术可以轻易为中国所用。
除了像百度这样在硅谷创设人工智能实验室,包括政府雇员在内的中国公民频频出现在斯坦福大学的人工智能课堂上。
斯坦福教授理查德·索科尔(RichardSocher)说,中国人很容易分辨,因为在最初几周过后,他的学生往往会逃课,选择看授课视频。而中国的旁听生会继续来上课,坐在教室前排。
中国在尖端技术领域突飞猛进,人工智能只是其中一项。
去年,中国还启用了世界上最快的超级计算机“神威·太湖之光”,取代了另一个曾经是世界最快的中国机型。这台新超级计算机被认为是中国开始推动创新的广泛行动的一部分,他们要摆脱原来的角色,即作为一个制造中心,去生产美国等其他国家设计的设备和零部件。
新计算机的处理器是由中国自主设计的,从中可以看到要成为创新中心的意愿。此前的超级计算机“天河二号”使用的是英特尔的至强处理器;在该计算机上线后,美国禁止了针对中国的相关芯片出口,以期限制中国在超级计算机领域的发展。
和世界上的其他超级计算机一样,这台计算机有多种用途,本身并非一种直接的军事挑战。例如它可以用于气候变化状况的建模,或进行大型数据集分析。
但是中国在高性能计算领域的类似进步可能会用于推动机器学习研究,那将是可以用于军事的,此外还有一些典型的防务功能,比如模拟核武器测试,或破解敌方的加密。
另外,中国政府和商业技术项目之间有着相对融洽的关系,美国则不然。五角大楼近来重启了自己在硅谷的滩头阵地国防创新实验小组(Defense
InnovationUnitExperimental,简称DIUx)。此举意在针对硅谷更迅速、更多变的风格,反思美国政府官僚机构的外包实践。
智搜(Giiso)信息成立于2013年,是国内首家专注于资讯智能处理技术研发及写作机器人核心软件开发和运营的高科技企业。公司成立之初,就获得了天使轮投资,并在2015年8月获得了金沙江创投500万美元pre-A轮投资。
爱德华·J·斯诺登(EdwardJ.Snowden)对国家安全局(NationalSecurity
Agency)监控措施的揭露,给硅谷和政府的关系造成了至今尚未修复的损害。许多硅谷公司仍然不太愿意与五角大楼走得太近,担心那样会让自己失去进入中国市场的资格。
“有一些比较小的公司,算是决定了要涉足国防业务,比如Palantir,”华盛顿智库“新美利坚”(New
America)未来战争专家彼得·W·辛格(PeterW.Singer)说,他所提到的是一家由风险投资者彼得·蒂尔(Peter
Thiel)参与创办的加州帕洛阿尔托创业公司。“但是如果你去看那些大型的、著名的科技公司,它们如果接了国防合同,就别指望进入中国市场了。”
这种担忧在硅谷是很真实存在的。
“没人会公开说这些,因为五角大楼不能这么说中国,科技公司也不能,”辛格说。“但是在背后就是有这个问题。”
人工智能批评人士担心“失去控制”,呼吁暂停人工智能开发6个月
据路透社记者证实,这封信的签名者包括:前面提到的特斯拉首席执行官埃隆·马斯克、人工智能先驱约书亚·本吉奥和斯图尔特·拉塞尔、苹果联合创始人史蒂夫·沃兹尼亚克、StabilityAI首席执行官伊马德·穆斯塔克以及作家尤瓦尔·诺亚·哈拉里。互联网上的任何人都可以在无需验证的情况下签署这封公开信,这最初也导致了一些虚假添加的名字,如微软前首席执行官比尔·盖茨、OpenAI首席执行官山姆·奥特曼和虚构人物约翰·威克。这些名字后来被删除。
“人工智能炒作”和潜在监管
尽管这封信语气紧迫,但并非所有人都认同人工智能的潜在生存风险,他们更愿意先关注其他不那么假设的人工智能危害。正如我们之前提到的,人工智能社区的派系之间对于关注哪些潜在的人工智能危险存在强烈的脱节。
一些批评人士已经对GPT-4提出了异议。著名的人工智能伦理学家蒂姆尼特·吉布鲁(TimnitGibru)在推特上打趣道:“他们想阻止人们使用比GPT-4‘更有力量’的东西,但GPT-4很好,对吧?”
艾米丽·班德博士(EmilyBender)经常批评商业化的大型语言模型,她在Twitter上称公开信的部分内容是“精神错乱的#人工智能炒作”,并指出,对人工智能成为超人的恐惧,正在帮助推动这些模型的宣传,尽管存在社会偏见和倾向于以令人信服的方式完全编造信息的问题,但这些模型已经广泛推出。
艾米丽·班德博士在一条推文中提到了她的论文《论随机鹦鹉的危险》(2021),他写道:“风险和伤害从来都不是‘太强大的人工智能’。相反,它们关乎权力集中在人民手中,关乎重现压迫体系,关乎对信息生态系统的破坏,关乎对自然生态系统的破坏(通过肆意使用能源资源)。”
尽管如此,人工智能安全/伦理辩论双方的许多人都认为,在过去的一年里,人工智能领域的变化速度非常快,使得法律体系、学术研究人员、伦理学者和文化几乎没有时间来适应这些新工具,这些新工具可能会引发经济的根本变化。
上图:GPT-4从2023年3月14日开始向ChatGPTPlus客户介绍的屏幕截图。
正如公开信所指出的,就连OpenAI也在敦促放慢人工智能的进展。OpenAI在今年早些时候发表的一份关于人工通用智能(大致指与人类相当或更高的人工智能)的声明中写道:“在某种程度上,在开始训练未来的系统之前,进行独立审查可能很重要,对于最先进的努力来说,同意限制用于创建新模型的计算的增长率可能很重要。”
生命未来研究所认为,现在是限制这种增长的时候了,如果“所有关键角色”不同意很快减缓人工智能研究,“政府应该介入并暂停”。
然而,在政府监管方面可能会有一些困难。正如英国《卫报》所指出的,“要求严格监管的呼声与英国政府周三发布的旗舰人工智能监管白皮书形成了鲜明对比,该白皮书根本没有新的权力。”
与此同时,在美国,政府似乎对潜在的人工智能监管几乎没有达成共识,尤其是在GPT-4等大型语言模型方面。去年10月,拜登政府提出了一项“人工智能权利法案”,以保护美国人免受人工智能的伤害,但它只是建议的指导方针,而不是具有法律效力的文件。此外,它并没有具体解决指南制定后出现的人工智能聊天机器人的潜在危害。
总之,不管公开信中提出的观点是否代表了最好的前进方向,人工智能模型的颠覆性力量(无论是通过超级智能,还是通过充满过度炒作的鲁莽推出),最终都将落到监管机构的门前。
如果朋友们喜欢,敬请关注“知新了了”!返回搜狐,查看更多