人工智能如何“向善”
一段时间以来,以ChatGPT为代表的人工智能大模型搅动了全球人工智能技术发展的浪潮。从写代码到讲故事,从撰写文章到自动制作数据表格……人工智能正在给人类的工作、学习、生活带来诸多变化。
我们距离“无所不能”的通用人工智能还有多远?人工智能的发展带来哪些安全隐患和挑战?近日召开的2023北京智源大会上,来自全球的人工智能专家学者围绕相关话题展开探讨。
通用人工智能路途尚远
“想象一下,未来10年,通用人工智能(AGI)几乎在每一个领域都超过人类的专业知识,最终可能超过所有大型公司的总体生产力,这将提高人们的生活水平。”OpenAI首席执行官山姆·阿尔特曼展现了一幅人工智能的未来图景。
所谓AGI,是指能够像人类一样在各种领域进行智能任务的人工智能系统。这与目前人工智能应用只聚焦于特定任务或领域(如图像识别、语音识别、自然语言处理等)不同,对人工智能技术提出了更高要求。
“通用人工智能可以比人类更好、更快地学习和执行任务,包括人类无法处理的任务。由于机器在速度、内存、通信和带宽方面的巨大优势,未来通用人工智能几乎在所有领域都将远超人类的能力。”美国加州大学伯克利分校计算机科学教授斯图尔特·罗素说。
尽管人工智能已经有了“超越”人类的“时间表”,但在很多专家看来,目前的人工智能距离AGI还有不小的距离。
罗素认为,当下火热的大语言模型并不“理解世界”,只是通用人工智能的一块“拼图”——“我们并不了解如何将它与其他部分连接起来,甚至还有一些缺失的拼图还没有找到。”
北京智源人工智能研究院院长黄铁军指出,要实现通用人工智能,有3条技术路线:第一是大模型,通过海量高质量数据,让人工智能具备智能涌现能力;第二是具身智能,通过强化学习方法,训练出具身模型;第三是类脑智能,让机器达到或类似于人脑能力。
对于人工智能的发展,图灵奖得主、纽约大学教授杨立昆提出了“世界模型”的概念——人工智能系统可以通过这一模型理解世界的运转方式,并以最优化、成本最小的方式来行动。
加强安全治理领域国际合作
根据普华永道会计师事务所预测,到2030年,人工智能将创造15.7万亿美元的经济价值。人工智能为经济发展提供了重要机遇,但也引发了安全性方面的担忧和争议。
图灵奖得主、多伦多大学教授杰弗里·辛顿认为,目前的人工智能已经可以通过学习,掌握“欺骗”人类的方式。“一旦人工智能具备了‘欺骗’的能力,就有了‘控制’人类的能力。这样的超级智能可能会比预想中发生得更快。”
在通用人工智能时代到来之前,人工智能的安全风险主要来自于“人”。“我们不应该假设机器是公正的,因为机器可能会试图改变人类的行为。更准确地说,是机器的所有者想要改变其他人的行为。”图灵奖得主、中国科学院院士姚期智说,当前人工智能的发展处于重要窗口期,各国应共同合作,搭建人工智能的治理结构。
随着人工智能的本事越来越大,人工智能的“对齐”问题浮上水面。所谓“对齐”,即人工智能系统的目标要和人类的价值观与利益“对齐”,保持一致。
如何让人工智能与人类“对齐”?阿尔特曼认为,人们应当负责任地将人工智能应用到世界中,重视和管理好安全风险。他建议在人工智能技术研发过程中建立平等、统一的国际规范和标准,并通过国际合作,以可验证的方式建立人工智能系统安全开发的信任体系。
黄铁军认为,人工智能虽然会产生预料之外的新能力,但这并不意味着人类无法对人工智能进行管理。“如何管理人工智能这样一个创造性极强的系统,社会学、历史学等学科都能提供很好的借鉴意义。”
今年2月,中国在《全球安全倡议概念文件》中提出加强人工智能等新兴科技领域国际安全治理,预防和管控潜在安全风险。在此次智源大会上,专家学者积极评价中国在推动人工智能国际治理上的贡献。
阿尔特曼说,中国在人工智能领域拥有大量优秀的人才和产品系统,在人工智能的安全方面应发挥关键作用。
麻省理工学院人工智能与基础交互研究中心教授马克斯·泰格马克表示,中国在塑造全球人工智能议程上的能力日益增长,可以在人工智能安全治理领域发挥领导作用。
推动大模型共建共享
当下,全球人工智能领域的科技竞赛日趋白热化。2023中关村论坛上发布的《中国人工智能大模型地图研究报告》显示,全国已发布了79个参数在10亿规模以上的人工智能大模型。
从全球来看,中国和美国已发布的大模型数量超过全球总数的80%。中国自2020年起进入大模型快速发展期,在大模型方面已建立起涵盖理论方法和软硬件技术的体系化研发能力,形成了紧跟世界前沿的大模型技术群,涌现出多个具有行业影响力的预训练大模型。
在此次大会上,全面开源的智源“悟道3.0”系列大模型及算法正式发布。据了解,“悟道3.0”涵盖了一系列领先成果,包括“悟道·天鹰”(Aquila)语言大模型系列、天秤(FlagEval)开源大模型评测体系与开放平台,“悟道·视界”视觉大模型系列以及一系列多模态模型成果等。
黄铁军认为,人工智能大模型有3个特点:一是规模大;二是有“涌现性”,即能够产生预料之外的新能力;三是通用性,不限于解决专门问题或者专门领域。他表示,大模型不是任何一家机构或者一家公司垄断的技术,应当共建共享,推出一套智力社会所需的基础的算法体系。
(实习生张伟纳对本文亦有贡献)
(责编:杨光宇、牛镛)关注公众号:人民网财经分享让更多人看到
推动人工智能向善发展才是正道(钟声)
12月13日,中国向联合国《特定常规武器公约》第六次审议大会提交《中国关于规范人工智能军事应用的立场文件》。这是中国首次就规范人工智能军事应用问题提出倡议,也是《特定常规武器公约》框架下首份关于人工智能安全治理问题的立场文件。这是中国因应国际安全和新兴科技发展形势、积极引领国际安全治理进程的又一重要努力。
作为新一轮科技革命的核心驱动力量,人工智能正在深刻改变世界。在军事领域,随着无人机、无人艇、机器狗等无人作战平台的出现,人工智能的强大赋能作用崭露头角,各国纷纷布局加快人工智能军事应用。但人工智能技术的军事应用尚存诸多不确定性,可能对国际安全、战略稳定、治理规则、伦理道德等产生复杂影响。人工智能安全治理成为摆在世界各国面前的重要课题。
中国向来高度重视人工智能安全问题,主张秉持负责任态度,统筹推进人工智能技术发展与风险防范,推动在人工智能领域构建人类命运共同体。中国领导人明确指出,要加强人工智能发展的潜在风险研判和防范,维护人民利益和国家安全,确保人工智能安全、可靠、可控。这一重要论述不仅为中国的人工智能发展指明方向,更为加强人工智能全球治理提供了基本思路、贡献了中国智慧。
推动完善人工智能全球治理,中国不仅是积极倡导者,更是率先践行者。2019年以来,中国先后发布《新一代人工智能治理原则――发展负责任的人工智能》《新一代人工智能伦理规范》等文件,明确了人工智能治理框架和行动指南。中国发布《全球数据安全倡议》,明确提出本着共商、共建、共享原则应对数据安全风险挑战。中国积极参与联合国“致命性自主武器系统”问题讨论,推动各方达成11条指导原则。今年5月,中国担任联合国安理会轮值主席期间,主持召开“新兴科技对国际和平与安全的影响”阿里亚模式会议,推动安理会首次聚焦人工智能等新兴科技问题,为国际社会探讨新兴科技全球治理问题提供了重要平台。
《中国关于规范人工智能军事应用的立场文件》主张,各国尤其是大国应本着慎重负责的态度在军事领域研发和使用人工智能技术,不谋求绝对军事优势;人工智能军事应用不应成为发动战争和谋求霸权的工具,不能利用人工智能技术优势危害他国主权和领土安全;应坚持以人为本、智能向善原则,确保相关武器及其作战手段符合国际人道主义法,避免误用恶用和滥杀滥伤;应确保相关武器系统不脱离人的控制,不断提升人工智能技术的安全性、可靠性和可控性;应加强对人工智能潜在风险的研判,降低扩散风险;应建立普遍参与的国际机制,推动形成具有广泛共识的人工智能治理框架和标准规范。这些主张统筹发展与安全,坚持维护人类福祉,坚守公平正义,体现了大国责任担当。
值得警惕的是,美国等个别国家将人工智能军事应用视为维护霸权和军事优势的工具,不断以意识形态划线,泛化国家安全概念,拉拢盟友搭建歧视性小圈子,大搞封闭排他、冲突对抗,企图人为设置科技壁垒阻挠别国发展。美国一些政客在各种场合公然煽动所谓“民主国家”对抗“技术威权主义”,企图拼凑所谓“科技民主国家集团”,遏制他国科技发展。美国一方面自诩“负责任”使用人工智能,另一方面却频频制造无人机杀害平民事件,这是典型的“说一套、做一套”。这种霸权主义、唯我独尊行径,只会把人工智能技术发展引向邪路。
坚持胸怀天下、智能向善,才能真正推动人工智能技术造福全人类。处于智能化时代的十字路口,国际社会应当秉持人类命运共同体理念,坚持共促发展、共护安全、共享成果,共同规范人工智能军事应用,引领人工智能技术发展走向造福人类的正道。
《人民日报》(2021年12月15日03版)(责编:杨光宇、胡永秋)分享让更多人看到
人工智能如何“向善”
一段时间以来,以ChatGPT为代表的人工智能大模型搅动了全球人工智能技术发展的浪潮。从写代码到讲故事,从撰写文章到自动制作数据表格……人工智能正在给人类的工作、学习、生活带来诸多变化。
我们距离“无所不能”的通用人工智能还有多远?人工智能的发展带来哪些安全隐患和挑战?近日召开的2023北京智源大会上,来自全球的人工智能专家学者围绕相关话题展开探讨。
通用人工智能路途尚远
“想象一下,未来10年,通用人工智能(AGI)几乎在每一个领域都超过人类的专业知识,最终可能超过所有大型公司的总体生产力,这将提高人们的生活水平。”OpenAI首席执行官山姆·阿尔特曼展现了一幅人工智能的未来图景。
所谓AGI,是指能够像人类一样在各种领域进行智能任务的人工智能系统。这与目前人工智能应用只聚焦于特定任务或领域(如图像识别、语音识别、自然语言处理等)不同,对人工智能技术提出了更高要求。
“通用人工智能可以比人类更好、更快地学习和执行任务,包括人类无法处理的任务。由于机器在速度、内存、通信和带宽方面的巨大优势,未来通用人工智能几乎在所有领域都将远超人类的能力。”美国加州大学伯克利分校计算机科学教授斯图尔特·罗素说。
尽管人工智能已经有了“超越”人类的“时间表”,但在很多专家看来,目前的人工智能距离AGI还有不小的距离。
罗素认为,当下火热的大语言模型并不“理解世界”,只是通用人工智能的一块“拼图”——“我们并不了解如何将它与其他部分连接起来,甚至还有一些缺失的拼图还没有找到。”
北京智源人工智能研究院院长黄铁军指出,要实现通用人工智能,有3条技术路线:第一是大模型,通过海量高质量数据,让人工智能具备智能涌现能力;第二是具身智能,通过强化学习方法,训练出具身模型;第三是类脑智能,让机器达到或类似于人脑能力。
对于人工智能的发展,图灵奖得主、纽约大学教授杨立昆提出了“世界模型”的概念——人工智能系统可以通过这一模型理解世界的运转方式,并以最优化、成本最小的方式来行动。
加强安全治理领域国际合作
根据普华永道会计师事务所预测,到2030年,人工智能将创造15.7万亿美元的经济价值。人工智能为经济发展提供了重要机遇,但也引发了安全性方面的担忧和争议。
图灵奖得主、多伦多大学教授杰弗里·辛顿认为,目前的人工智能已经可以通过学习,掌握“欺骗”人类的方式。“一旦人工智能具备了‘欺骗’的能力,就有了‘控制’人类的能力。这样的超级智能可能会比预想中发生得更快。”
在通用人工智能时代到来之前,人工智能的安全风险主要来自于“人”。“我们不应该假设机器是公正的,因为机器可能会试图改变人类的行为。更准确地说,是机器的所有者想要改变其他人的行为。”图灵奖得主、中国科学院院士姚期智说,当前人工智能的发展处于重要窗口期,各国应共同合作,搭建人工智能的治理结构。
随着人工智能的本事越来越大,人工智能的“对齐”问题浮上水面。所谓“对齐”,即人工智能系统的目标要和人类的价值观与利益“对齐”,保持一致。
如何让人工智能与人类“对齐”?阿尔特曼认为,人们应当负责任地将人工智能应用到世界中,重视和管理好安全风险。他建议在人工智能技术研发过程中建立平等、统一的国际规范和标准,并通过国际合作,以可验证的方式建立人工智能系统安全开发的信任体系。
黄铁军认为,人工智能虽然会产生预料之外的新能力,但这并不意味着人类无法对人工智能进行管理。“如何管理人工智能这样一个创造性极强的系统,社会学、历史学等学科都能提供很好的借鉴意义。”
今年2月,中国在《全球安全倡议概念文件》中提出加强人工智能等新兴科技领域国际安全治理,预防和管控潜在安全风险。在此次智源大会上,专家学者积极评价中国在推动人工智能国际治理上的贡献。
阿尔特曼说,中国在人工智能领域拥有大量优秀的人才和产品系统,在人工智能的安全方面应发挥关键作用。
麻省理工学院人工智能与基础交互研究中心教授马克斯·泰格马克表示,中国在塑造全球人工智能议程上的能力日益增长,可以在人工智能安全治理领域发挥领导作用。
推动大模型共建共享
当下,全球人工智能领域的科技竞赛日趋白热化。2023中关村论坛上发布的《中国人工智能大模型地图研究报告》显示,全国已发布了79个参数在10亿规模以上的人工智能大模型。
从全球来看,中国和美国已发布的大模型数量超过全球总数的80%。中国自2020年起进入大模型快速发展期,在大模型方面已建立起涵盖理论方法和软硬件技术的体系化研发能力,形成了紧跟世界前沿的大模型技术群,涌现出多个具有行业影响力的预训练大模型。
在此次大会上,全面开源的智源“悟道3.0”系列大模型及算法正式发布。据了解,“悟道3.0”涵盖了一系列领先成果,包括“悟道·天鹰”(Aquila)语言大模型系列、天秤(FlagEval)开源大模型评测体系与开放平台,“悟道·视界”视觉大模型系列以及一系列多模态模型成果等。
黄铁军认为,人工智能大模型有3个特点:一是规模大;二是有“涌现性”,即能够产生预料之外的新能力;三是通用性,不限于解决专门问题或者专门领域。他表示,大模型不是任何一家机构或者一家公司垄断的技术,应当共建共享,推出一套智力社会所需的基础的算法体系。
(实习生张伟纳对本文亦有贡献)
推动人工智能向善发展才是正道
12月13日,中国向联合国《特定常规武器公约》第六次审议大会提交《中国关于规范人工智能军事应用的立场文件》。这是中国首次就规范人工智能军事应用问题提出倡议,也是《特定常规武器公约》框架下首份关于人工智能安全治理问题的立场文件。这是中国因应国际安全和新兴科技发展形势、积极引领国际安全治理进程的又一重要努力。
作为新一轮科技革命的核心驱动力量,人工智能正在深刻改变世界。在军事领域,随着无人机、无人艇、机器狗等无人作战平台的出现,人工智能的强大赋能作用崭露头角,各国纷纷布局加快人工智能军事应用。但人工智能技术的军事应用尚存诸多不确定性,可能对国际安全、战略稳定、治理规则、伦理道德等产生复杂影响。人工智能安全治理成为摆在世界各国面前的重要课题。
中国向来高度重视人工智能安全问题,主张秉持负责任态度,统筹推进人工智能技术发展与风险防范,推动在人工智能领域构建人类命运共同体。中国领导人明确指出,要加强人工智能发展的潜在风险研判和防范,维护人民利益和国家安全,确保人工智能安全、可靠、可控。这一重要论述不仅为中国的人工智能发展指明方向,更为加强人工智能全球治理提供了基本思路、贡献了中国智慧。
推动完善人工智能全球治理,中国不仅是积极倡导者,更是率先践行者。2019年以来,中国先后发布《新一代人工智能治理原则——发展负责任的人工智能》《新一代人工智能伦理规范》等文件,明确了人工智能治理框架和行动指南。中国发布《全球数据安全倡议》,明确提出本着共商、共建、共享原则应对数据安全风险挑战。中国积极参与联合国“致命性自主武器系统”问题讨论,推动各方达成11条指导原则。今年5月,中国担任联合国安理会轮值主席期间,主持召开“新兴科技对国际和平与安全的影响”阿里亚模式会议,推动安理会首次聚焦人工智能等新兴科技问题,为国际社会探讨新兴科技全球治理问题提供了重要平台。
《中国关于规范人工智能军事应用的立场文件》主张,各国尤其是大国应本着慎重负责的态度在军事领域研发和使用人工智能技术,不谋求绝对军事优势;人工智能军事应用不应成为发动战争和谋求霸权的工具,不能利用人工智能技术优势危害他国主权和领土安全;应坚持以人为本、智能向善原则,确保相关武器及其作战手段符合国际人道主义法,避免误用恶用和滥杀滥伤;应确保相关武器系统不脱离人的控制,不断提升人工智能技术的安全性、可靠性和可控性;应加强对人工智能潜在风险的研判,降低扩散风险;应建立普遍参与的国际机制,推动形成具有广泛共识的人工智能治理框架和标准规范。这些主张统筹发展与安全,坚持维护人类福祉,坚守公平正义,体现了大国责任担当。
值得警惕的是,美国等个别国家将人工智能军事应用视为维护霸权和军事优势的工具,不断以意识形态划线,泛化国家安全概念,拉拢盟友搭建歧视性小圈子,大搞封闭排他、冲突对抗,企图人为设置科技壁垒阻挠别国发展。美国一些政客在各种场合公然煽动所谓“民主国家”对抗“技术威权主义”,企图拼凑所谓“科技民主国家集团”,遏制他国科技发展。美国一方面自诩“负责任”使用人工智能,另一方面却频频制造无人机杀害平民事件,这是典型的“说一套、做一套”。这种霸权主义、唯我独尊行径,只会把人工智能技术发展引向邪路。
坚持胸怀天下、智能向善,才能真正推动人工智能技术造福全人类。处于智能化时代的十字路口,国际社会应当秉持人类命运共同体理念,坚持共促发展、共护安全、共享成果,共同规范人工智能军事应用,引领人工智能技术发展走向造福人类的正道。
(钟声)
[责编:涂子怡]理解人机智能 倡导“智能向善”
1997年电脑“深蓝”战胜世界棋王卡斯帕罗夫,掀起了人工智能的研究热潮。但在现有数学体系和软硬件的设计模式基础之上,人工智能在智能水平和能力范围上与人类智能相比仍存在极大差距。究其原因,人类智能和人工智能之间还存在无法跨越的界限,人工智能是逻辑的,人类智能却未必是逻辑的。依赖于“符号指向对象”的机器只能在封闭环境进行形式化计算,人类却可以实现开放环境中的意向性算计。在这种背景下,实现人机优势互补、倡导“智能向善”显得尤为重要。
人工智能的瓶颈:用逻辑手段解决非逻辑问题
哲学家休谟曾说:“一切科学都与人性有关,对人性的研究应是一切科学的基础。”任何科学都或多或少与人性有些关系,无论学科看似与人性相隔多远,它们最终都会以某种途径再次回归到人性中。从这个角度来看,人工智能“合乎伦理的设计”很可能是黄粱一梦。伦理对人而言还是一个很难遵守的复杂体系,对机器而言则更加难以理解。在人工智能领域,“合乎伦理的设计”或许是科幻成分多于科学成分、想象成分多于真实成分。
当前的人工智能及未来的智能科学研究具有两个致命的缺点,即“把数学等同于逻辑”和“把符号与对象混淆”。人机混合的难点和瓶颈也因此在于(符号)表征的非符号性(可变性)、(逻辑)推理的非逻辑性(非真实性)和(客观)决策的非客观性(主观性)。
真正智能领域的瓶颈和难点之一是人机环境系统失调问题,具体体现在跨域协同中的“跨”与“协”如何有效实现的问题,这不仅关系到解决各种辅助决策系统中“有态无势”(甚至是“无态无势”)的不足,还涉及到许多辅助决策体系“低效失能”的朔源。也许需要尝试把认知域、物理域、信息域构成的基础理论域与陆海空天电网构成的技术域有机地结合起来,为真实有效地实现跨域协同打下基础。
如何理解和研究智能问题?
智能是一个非常辽阔的空间,它可以随时打开异质的集合,把客观的逻辑与主观的超逻辑结合起来。智能不是人脑(或类脑)的产物,也不是人自身的产物,而是人、物、环境系统相互作用的产物。正如马克思所言:“人的本质不是单个人所固有的抽象物,在其现实性上,它是一切社会关系的总和”,事实上,真实的智能同样也蕴含着人、物、环境这3种成分,随着科技的快速发展,其中的“物”却也逐渐被人造物——“机”所取代,简称为人机环境系统。
研究智能这样的复杂问题是困难的,但把它分解成人机环境系统问题就相对简单一些。人要解决的是“做正确的事(杂)”,机要解决的是“正确地做事(复)”,环境所要解决的是“提供做事平台(复杂)”。正如郭雷院士所言:“复杂性和智能化是系统科学发展的两个永恒主题。复杂性主要体现的是系统科学认识世界的一面,而智能化主要体现的是系统科学改造世界的一面。”所以,未来各国在人工智能领域角力的焦点不仅仅是人、机、环境每一或所有单项人工智能的领先优势,更重要的是人、机、环境系统混合智能的整合。
在真实的人—机—环境系统交互领域中,人的情景意识、机器的物理情景意识、环境的地理情景意识等往往同构于统一时空中,在人的行为环境与机的物理环境、地理环境相互作用过程中,人的情景意识、行为特征并非由人的元素单独决定,而是取决于人—机—环境系统整体,在充满变数的人—机—环境交互系统中,存在的逻辑不是主客观的必然性和确定性,而是与各种可能性保持互动的同步性,是一种得“意”忘“形”的见招拆招和随机应变能力,而这种思维和能力恰恰是人工智能所欠缺的地方。
人机混合智能是未来发展方向
未来数字世界中,人与机器如何分工?人与机器的边界又将如何划分呢?
实际上,当前人机关系主要是功能分配,人把握主要方向,机处理精细过程,而未来的人机关系可能是某种能力的分工,机也可以把握某些不关键的方向,人也可以处理某些缜密的过程。人机的边界在于“应”和“变”,即如何实现适时的“弥”(散)与“聚”(焦)、“跨”(域)与“协”(同)、“反”(思)与“创”(造)。
人机智能是人—机—环境系统相互作用而产生的新型智能系统。其与人类智能、人工智能的差异具体表现在3个方面:首先,在混合智能输入端,它把设备传感器客观采集的数据与人主观感知到的信息结合起来,形成一种新的输入方式;其次,在智能的数据/信息中间处理过程,机器数据计算与人的信息认知相混合,构建起一种独特的理解途径;最后,在智能输出端,它将结果与人的价值决策相匹配,形成概率化与规则化有机协调的优化判断。人机混合智能是一种广义上的“群体”智能形式,这里的人不仅包括个人,还包括众人,机不仅包括机器装备,还涉及机制机理;此外,还关联自然/社会环境、真实/虚拟环境、网络/电磁环境等。
人机混合智能也存在着一个难题,即机器的自主程度越高,人类对态势的感知程度越低,人机之间接管任务顺畅的难度也越大。有经验的人常常抓关键任务中的薄弱环节,在危险情境中提高警觉性和注意力,以防意外,随时准备接管机器自动化操作,也可以此训练新手,进而形成真实敏锐地把握事故的兆头苗头、恰当地把握处理时机、准确地随机应变能力,并在实践中不断磨砺训练增强。即便如此,如何在非典型、非意外情境中解决人机交互难题仍需要进一步探讨。
人机混合智能是人工智能发展的必经之路,其中既需要新的理论方法,也需要对人、机、环境之间的关系进行新的探索。随着人工智能的热度不断加大,越来越多的产品走进人们的生活之中。但是,强人工智能依然没有实现,如何将人的算计智能迁移到机器中去,这是一个必然要解决的问题。我们已经从认知角度构建认知模型或者从意识的角度构建计算—算计模型,这都是对人的认知思维的尝试性理解和模拟,期望实现人的算计能力。计算—算计模型的研究不仅需要考虑机器技术的飞速发展,还要考虑交互主体即人的思维和认知方式,让机器与人各司其职,互相混合促进,这才是人机混合智能的前景和趋势。
引领伦理治理,倡导“智能向善”
科技向善对西方而言是个有问题的提法,科技是物质世界的客观存在,向善则是伦理道德的必然要求,从客观存在能否推出必然要求,这是目前西方仍在争议的话题。
科技本身没有对错善恶之分,能利人利己,也能害人害己;而设计、开发、使用、管理、维护、运行的人会有对错善恶混合之分,科技向善本质是指“人”的向善。故在监管上需要坚持伦理先行的理念,建立并完善人工智能伦理问责机制,明确人工智能主体的责任和权利边界;在研发上需要确保先进科技手段始终处于负责可靠的人类控制之下,预防数据算法偏见产生,使研发流程可控、可监督、可信赖;在使用上需要确保个人隐私和数据安全,预先设立应急机制和兜底措施,对使用人员进行必要培训等。
党的二十大报告提出,中国积极参与全球治理体系改革和建设,践行共商共建共享的全球治理观,坚持真正的多边主义,推进国际关系民主化,推动全球治理朝着更加公正合理的方向发展。作为人工智能领域的先驱者之一,中国正在用实际行动为人工智能全球治理体系注入东方智慧,展现了大国形象和担当。2021年9月,中国国家新一代人工智能治理专业委员会发布了《新一代人工智能伦理规范》,强调应将伦理融入人工智能全生命周期,并针对人工智能管理、研发、供应、使用等活动提出了6项基本伦理要求和4个方面的特定伦理规范。今年3月,中国发布《关于加强科技伦理治理的意见》,提出应加快完善科技伦理体系,提升科技伦理治理能力,有效防控科技伦理风险,不断推动科技向善、造福人类,实现高水平科技自立自强。近日,中国向联合国提交《关于加强人工智能伦理治理的立场文件》,从构建人类命运共同体的高度,系统梳理了近年来中国在人工智能伦理治理方面的政策实践,积极倡导“以人为本”“智能向善”理念,为各国破解人工智能发展难题提供了具体解决思路,值得国际社会高度重视与深入研究。(刘伟)