安全可信人工智能的边界性问题之探讨
0分享至人工智能要达到安全可信的要求是需要解决边界性问题的。边界问题的含义是智能模型可以自主判断自身对问题可解的范围与不可解范围。在明确了智能模型的边界的情况下,设计者才能真正地确定一个智能模型可以安全可信使用的场景。边界性问题针对边界性问题,学术界在3条技术路径已经形成了共识,这包括了不确定性统计学习、复杂任务驱动的机器学习以及因果启发的机器学习。路径1:不确定性统计学习边界性的衡量是智能模型对自身解决问题能力的自主判断。理想情况下,智能模型可解能力的边界可表示为其对所给出预测和判断的置信区间。边界之所以难以刻画,根本挑战在于智能模型的实际应用环境是开放和不确定的,同时,在给定的有限训练数据下,智能模型也存在认知上的不确定性。为了让智能模型具备“知道自己不知道”的能力,必须合理地刻画不确定性。概率和统计是一种引入不确定性的工具和路径,但是现今的学习模型(特别是深度神经网络)并没有充分、合理地利用或考虑不确定性问题。当前智能模型的技术路线和真正的统计学习存在一些重要的区别。统计分析强调对事物的不确定性有定量的刻画和了解。但是当前智能模型通常的做法是设计一个损失函数,把不确定性通过积分等方式整合到损失函数里面。比如分类任务中追求分类的精确度,其精确度是损失了分类不确定性的结果。虽然这种做法在许多场景下很有效,但是从统计角度考察,这是以丢失分布中的复杂信息为代价的。这种做法把问题过分简化了。因此,以实现不确定性推断为目标,需要把数据的内在分布和不确定性完整地表达出来,而不是简单地简化成损失函数。因为简化后的损失函数的适用场景存在一定局限性。一种简化方式下的损失函数在某些场景下可能是适用的,而在其他某些场景下可能不适用。这是一个重要的问题。过去的统计研究都在研究不确定性,但从过去的统计研究的范式来讲,是研究小数据的场景,所涉及的模型相对简单。而现如今,在与人工智能相关的问题里,数据结构十分复杂,规模也十分庞大,直接使用原来统计研究的方法,会面临很大的挑战。统计学界也对这个问题做了很多反思。如果可以真正把统计学习能够处理不确定性问题的优势与人工智能处理大规模复杂数据的优势相结合,对两个学科都是非常大的贡献。一张“狗”的图像,一般被确定性描述成“狗”作为监督信息,而其中只有一部分像素是对应于“狗”。在如此完全确定性的信息的监督条件下,很难产生一个包含不确定性的模型。因此,需要引入监督信息的不确定性,并在推理过程中保护和维持这种不确定性,才有可能在本质上实现不确定性模型。应该在更大的逻辑框架下重新定位不确定性的统计学习框架。而只有不确定性模型才能提供在各种情况下的置信区间。
路径2:复杂任务驱动的学习现如今智能模型尚无法有效处理边界问题的原因之一是现在的学习任务过于简单。例如分类任务,仅仅学习一个分类界面就足以提高准确率,而对于数据的内部结构,包括数据的底层产生机制并没有充分的理解。在一个没有信息的二分类任务中,两种类别的比例不等,从统计的角度来看,应该学习出两个类别的真实比例来做随机分类的决策。而在现有机器学习的框架下,为了提高训练数据中分类的准确率,学习算法会对所有样例选择预测比例较高的类别。从优化的角度来看,这种做法做到了最优,但是模型没有理解到数据内在的结构和分布,因而难以对预测做出合理的边界性判定。在机器学习模式里,很早之前就有关于分类错误所产生的惩罚的启示。在一个分类任务中,不同的分类错误所带来的损失可能是不同的,因此可以优化的目标函数需要一些变化。损失函数需要凭借人类的经验提前设定,并且依赖于具体的应用场景。不同场景下的损失函数设计方法是不同的。而从统计的角度考虑,统计研究从根本上反对直接使用目标函数。统计研究希望模型能够准确刻画数据背后的分布规律和不确定性,而不引入具体应用中的代价和惩罚的信息。具体的代价和惩罚应该放在后端的使用阶段中考虑。分类问题只关注分类结果正确与否,而把背后的分布规律函数刻画出来是一个描述问题。描述问题远比分类问题要难得多。很多场景下只需要解决简单的分类任务即可,但是也可能在一些更复杂任务的情况下,有必要学习数据的分布。如今人工智能已得到高度发展,想要进一步实现安全可信智能,寻找到模型的边界,理解数据的结构和分布可能是一个必要之路。也许是时候去解决这个挑战性问题了。机器学习从总体上来讲是从统计学出发产生的,但是它把统计里面的很多内容过分简化了。因此,机器学习虽然能够解决一些问题,但是整个系统过于集中在问题的局部。比如在分类问题中,系统只为了画一个分类界面,而忽视了数据内在的结构。因为这些内在的结构对于解决这个任务可能并不必要。而最近一些更复杂的任务(例如对比学习、自监督学习)开始使用一些更复杂的目标来探索数据的产生机制和本质,从而牵引整个学习的过程。只有学习出数据的分布结构和本质,才具备探讨边界问题的基础。此处的复杂任务有两种理解方式。其一,该任务更具有通用意义,它和大多数高层任务不是很相关,但是这个任务的层面更本质。比如在自然语言处理领域,它学习了语言结构、语言模型;在视觉领域,它学习了图像的底层信息结构。其二,该任务是多个任务的综合,即希望学习得到的模型能够支撑比较多的任务,这就要求模型对底层的分布和结构要有充分的理解,才能以不变应万变,实现多任务通用。路径3:因果启发的机器学习边界问题可以归约为不确定性问题,而不确定性问题的产生与噪声有很大关系。假设数据由真实信号和噪声两部分构成。当前基于关联统计的学习模型以数据拟合为主要目标,而数据拟合中包含了信号和噪声两部分,最后导致模型不能有效区分信号和噪声。在这种情况下,模型很难实现对确定性和不确定性的有效区分。如果能够估计数据的真实产生机制(即truemodel),就可更好地解决边界性问题。因果学习一直在探索数据的真实产生机制,也就是尝试从数据中识别真实信号。如果在学习模型的基础上引入因果,在一定程度上实现真实信号和噪声的识别和区分,在这个框架下或许可以更好地解决不确定性问题,从而解决边界问题。同时,在理想的情况下,明确因果机制可以让现有的模型体系和模型框架高度简化。现有的模型因为不具备对因果机制的了解,使用了非常庞大复杂的网络进行数据拟合。例如回归分析中,现有模型可能采用成千上万的因子进行回归。但是在掌握了背后因果机制的情况下,可以建立一个使用很少变量的回归模型。当前的人工智能模型“知其然,但不知其所以然”,即只求关联但不求因果,相当多的复杂计算旨在处理数据中的噪声。因果的引入,可以发现数据中所蕴含的本质结构和规律,或许可以赋予模型“以不变应万变”的能力。但在大数据环境下挖掘背后的因果机制是相当有挑战性的,是一个值得持续探索的方向。
特别声明:以上内容(如有图片或视频亦包括在内)为自媒体平台“网易号”用户上传并发布,本平台仅提供信息存储服务。
Notice:Thecontentabove(includingthepicturesandvideosifany)isuploadedandpostedbyauserofNetEaseHao,whichisasocialmediaplatformandonlyprovidesinformationstorageservices.
/阅读下一篇/返回网易首页下载网易新闻客户端新一代人工智能的发展与展望
随着大数据、云计算等技术的飞速发展,人们生产生活的数据基础和信息环境得到了大幅提升,人工智能(AI)正在从专用智能迈向通用智能,进入了全新的发展阶段。国务院印发的《新一代人工智能发展规划》指出新一代人工智能相关学科发展、理论建模、技术创新、软硬件升级等整体推进,正在引发链式突破,推动经济社会各领域从数字化、网络化向智能化加速跃升。在4月10日“吴文俊人工智能科学技术奖”十周年颁奖盛典中,作为我国不确定性人工智能领域的主要开拓者、中国人工智能学会名誉理事长李德毅院士荣获“吴文俊人工智能最高成就奖”,并在大会上作题为《探索什么叫新一代人工智能》的报告,探讨了新一代人工智能的内涵和路径,引领着新一代人工智能的发展与展望。
人工智能这一概念诞生于1956年在美国达特茅斯学院举行的“人工智能夏季研讨会”,随后在20世纪50年代末和80年代初先后两次步入发展高峰,但因为技术瓶颈、应用成本等局限性而均掉入低谷。在信息技术的引领下,数据信息快速积累,运算能力大幅提升,人工智能发展环境发生了巨大变化,跨媒体智能、群体智能成为新的发展方向,以2006年深度学习模型的提出为标志,人工智能第三次站在了科技发展的浪潮之巅。
当前,随着移动互联网、物联网、大数据、云计算和人工智能等新一代信息技术的加速迭代演进,人类社会与物理世界的二元结构正在进阶到人类社会、信息空间和物理世界的三元结构,人与人、机器与机器、人与机器的交流互动愈加频繁。在多源数据、多元应用和超算能力、算法模型的共同驱动下,传统以计算机智能为基础的、依赖于算力算法和数据的人工智能,强调通用学习和大规模训练集的机器学习,正逐渐朝着以开放性智能为基础、依赖于交互学习和记忆、基于推理和知识驱动的以混合认知模型为中心的新一代人工智能方向迈进。应该说,新一代人工智能的内核是“会学习”,相较于当下只是代码的重复简单执行,新一代人工智能则需要能够在学习过程中解决新的问题。其中,学习的条件是认知,学习的客体是知识,学习的形态是交互,学习的核心是理解,学习的结果是记忆……因此,学习是新一代人工智能解释解决现实问题的基础,记忆智能是新一代人工智能中多领域、多情景可计算智能的边界和约束。进而当人类进入和智能机器互动的时代,新一代人工智能需要与时俱进地持续学习,不断检视解决新的问题,帮助人机加深、加快从对态势的全息感知递进到对世界的多维认知。
事实上,基于数据驱动型的传统人工智能,大多建立在“数据中立、算法公正和程序正义”三要素基础之上,而新一代人工智能更关注于交互能力,旨在通过设计“记忆”模块来模仿人脑,解决更灵活多变的实际问题,真正成为“不断学习、与时俱进”的人工智能。特别是人机交互支撑实现人机交叉融合与协同互动,目前已在多个领域取得了卓越成果,形成了多方面、多种类、多层次的应用。例如,在线客服可以实现全天候不间断服务,轻松解决用户咨询等问题,也可将棘手问题转交人工客服处理,降低了企业的管理成本;在智慧医疗领域,人工智能可以通过神经影像实现辅助智能诊断,帮助医生阅片,目前准确率已达95%以上,节省了大量的人力;2020年,在抗击疫情的过程中,新一代人工智能技术加速与交通、医疗、教育、应急等事务协作联动,在科技战“疫”中大显身手,助力疫情防控取得显著成效。
未来已来,随着人工智能逐渐融入居民生活的方方面面,将继续在智慧医疗、自动驾驶、工业制造智能化等领域崭露头角。一是基于新一代人工智能的智慧医疗,将助力医院更好记录、存储和分析患者的健康信息,提供更加精准化和个性化的健康服务,显著提升医院的临床诊断精确度。二是通过将新一代人工智能运用于自动驾驶系统的感知、预测和决策等方面,重点解决车道协同、多车调度、传感器定位等问题,重新定义城市生活中人们的出行方式。三是由于我国工业向大型化、高速化、精细化、自主化发展,对高端大规模可编程自动化系统提出迫切需求,新一代人工智能将推动基于工业4.0发展纲领,以高度自动化的智能感知为核心,主动排除生产障碍,发展具备有适应性、资源效率、人机协同工程的智能工厂应运而生。总之,如何展望人工智能通过交互学习和记忆理解实现自编程和自成长,提升自主学习和人机交互的效率,将是未来研究着力发展的硬核领域,并加速新一代信息技术与智能制造深度融合,推动数字化转型走深走实,有信心、有能力去迎接下一场深刻产业变革的到来。
作者:徐云峰
catalogs:13000076;contentid:7688970;publishdate:2021-06-11;author:黄童欣;file:1623414511328-aff718d9-3742-46b0-b08c-e56bdd1ed8c8;source:29;from:中华读书报;timestamp:2021-06-1120:28:23;[责任编辑:]新一代人工智能的发展与展望
随着大数据、云计算等技术的飞速发展,人们生产生活的数据基础和信息环境得到了大幅提升,人工智能(AI)正在从专用智能迈向通用智能,进入了全新的发展阶段。国务院印发的《新一代人工智能发展规划》指出新一代人工智能相关学科发展、理论建模、技术创新、软硬件升级等整体推进,正在引发链式突破,推动经济社会各领域从数字化、网络化向智能化加速跃升。在4月10日“吴文俊人工智能科学技术奖”十周年颁奖盛典中,作为我国不确定性人工智能领域的主要开拓者、中国人工智能学会名誉理事长李德毅院士荣获“吴文俊人工智能最高成就奖”,并在大会上作题为《探索什么叫新一代人工智能》的报告,探讨了新一代人工智能的内涵和路径,引领着新一代人工智能的发展与展望。
人工智能这一概念诞生于1956年在美国达特茅斯学院举行的“人工智能夏季研讨会”,随后在20世纪50年代末和80年代初先后两次步入发展高峰,但因为技术瓶颈、应用成本等局限性而均掉入低谷。在信息技术的引领下,数据信息快速积累,运算能力大幅提升,人工智能发展环境发生了巨大变化,跨媒体智能、群体智能成为新的发展方向,以2006年深度学习模型的提出为标志,人工智能第三次站在了科技发展的浪潮之巅。
当前,随着移动互联网、物联网、大数据、云计算和人工智能等新一代信息技术的加速迭代演进,人类社会与物理世界的二元结构正在进阶到人类社会、信息空间和物理世界的三元结构,人与人、机器与机器、人与机器的交流互动愈加频繁。在多源数据、多元应用和超算能力、算法模型的共同驱动下,传统以计算机智能为基础的、依赖于算力算法和数据的人工智能,强调通用学习和大规模训练集的机器学习,正逐渐朝着以开放性智能为基础、依赖于交互学习和记忆、基于推理和知识驱动的以混合认知模型为中心的新一代人工智能方向迈进。应该说,新一代人工智能的内核是“会学习”,相较于当下只是代码的重复简单执行,新一代人工智能则需要能够在学习过程中解决新的问题。其中,学习的条件是认知,学习的客体是知识,学习的形态是交互,学习的核心是理解,学习的结果是记忆……因此,学习是新一代人工智能解释解决现实问题的基础,记忆智能是新一代人工智能中多领域、多情景可计算智能的边界和约束。进而当人类进入和智能机器互动的时代,新一代人工智能需要与时俱进地持续学习,不断检视解决新的问题,帮助人机加深、加快从对态势的全息感知递进到对世界的多维认知。
事实上,基于数据驱动型的传统人工智能,大多建立在“数据中立、算法公正和程序正义”三要素基础之上,而新一代人工智能更关注于交互能力,旨在通过设计“记忆”模块来模仿人脑,解决更灵活多变的实际问题,真正成为“不断学习、与时俱进”的人工智能。特别是人机交互支撑实现人机交叉融合与协同互动,目前已在多个领域取得了卓越成果,形成了多方面、多种类、多层次的应用。例如,在线客服可以实现全天候不间断服务,轻松解决用户咨询等问题,也可将棘手问题转交人工客服处理,降低了企业的管理成本;在智慧医疗领域,人工智能可以通过神经影像实现辅助智能诊断,帮助医生阅片,目前准确率已达95%以上,节省了大量的人力;2020年,在抗击疫情的过程中,新一代人工智能技术加速与交通、医疗、教育、应急等事务协作联动,在科技战“疫”中大显身手,助力疫情防控取得显著成效。
未来已来,随着人工智能逐渐融入居民生活的方方面面,将继续在智慧医疗、自动驾驶、工业制造智能化等领域崭露头角。一是基于新一代人工智能的智慧医疗,将助力医院更好记录、存储和分析患者的健康信息,提供更加精准化和个性化的健康服务,显著提升医院的临床诊断精确度。二是通过将新一代人工智能运用于自动驾驶系统的感知、预测和决策等方面,重点解决车道协同、多车调度、传感器定位等问题,重新定义城市生活中人们的出行方式。三是由于我国工业向大型化、高速化、精细化、自主化发展,对高端大规模可编程自动化系统提出迫切需求,新一代人工智能将推动基于工业4.0发展纲领,以高度自动化的智能感知为核心,主动排除生产障碍,发展具备有适应性、资源效率、人机协同工程的智能工厂应运而生。总之,如何展望人工智能通过交互学习和记忆理解实现自编程和自成长,提升自主学习和人机交互的效率,将是未来研究着力发展的硬核领域,并加速新一代信息技术与智能制造深度融合,推动数字化转型走深走实,有信心、有能力去迎接下一场深刻产业变革的到来。
安全可信人工智能的边界性问题之探讨
0分享至人工智能要达到安全可信的要求是需要解决边界性问题的。边界问题的含义是智能模型可以自主判断自身对问题可解的范围与不可解范围。在明确了智能模型的边界的情况下,设计者才能真正地确定一个智能模型可以安全可信使用的场景。
边界性问题
针对边界性问题,学术界在3条技术路径已经形成了共识,这包括了不确定性统计学习、复杂任务驱动的机器学习以及因果启发的机器学习。
路径1:不确定性统计学习
边界性的衡量是智能模型对自身解决问题能力的自主判断。理想情况下,智能模型可解能力的边界可表示为其对所给出预测和判断的置信区间。边界之所以难以刻画,根本挑战在于智能模型的实际应用环境是开放和不确定的,同时,在给定的有限训练数据下,智能模型也存在认知上的不确定性。为了让智能模型具备“知道自己不知道”的能力,必须合理地刻画不确定性。概率和统计是一种引入不确定性的工具和路径,但是现今的学习模型(特别是深度神经网络)并没有充分、合理地利用或考虑不确定性问题。
当前智能模型的技术路线和真正的统计学习存在一些重要的区别。统计分析强调对事物的不确定性有定量的刻画和了解。但是当前智能模型通常的做法是设计一个损失函数,把不确定性通过积分等方式整合到损失函数里面。比如分类任务中追求分类的精确度,其精确度是损失了分类不确定性的结果。虽然这种做法在许多场景下很有效,但是从统计角度考察,这是以丢失分布中的复杂信息为代价的。这种做法把问题过分简化了。
因此,以实现不确定性推断为目标,需要把数据的内在分布和不确定性完整地表达出来,而不是简单地简化成损失函数。因为简化后的损失函数的适用场景存在一定局限性。一种简化方式下的损失函数在某些场景下可能是适用的,而在其他某些场景下可能不适用。这是一个重要的问题。过去的统计研究都在研究不确定性,但从过去的统计研究的范式来讲,是研究小数据的场景,所涉及的模型相对简单。而现如今,在与人工智能相关的问题里,数据结构十分复杂,规模也十分庞大,直接使用原来统计研究的方法,会面临很大的挑战。统计学界也对这个问题做了很多反思。如果可以真正把统计学习能够处理不确定性问题的优势与人工智能处理大规模复杂数据的优势相结合,对两个学科都是非常大的贡献。
一张“狗”的图像,一般被确定性描述成“狗”作为监督信息,而其中只有一部分像素是对应于“狗”。在如此完全确定性的信息的监督条件下,很难产生一个包含不确定性的模型。因此,需要引入监督信息的不确定性,并在推理过程中保护和维持这种不确定性,才有可能在本质上实现不确定性模型。应该在更大的逻辑框架下重新定位不确定性的统计学习框架。而只有不确定性模型才能提供在各种情况下的置信区间。
路径2:复杂任务驱动的学习
现如今智能模型尚无法有效处理边界问题的原因之一是现在的学习任务过于简单。例如分类任务,仅仅学习一个分类界面就足以提高准确率,而对于数据的内部结构,包括数据的底层产生机制并没有充分的理解。在一个没有信息的二分类任务中,两种类别的比例不等,从统计的角度来看,应该学习出两个类别的真实比例来做随机分类的决策。而在现有机器学习的框架下,为了提高训练数据中分类的准确率,学习算法会对所有样例选择预测比例较高的类别。从优化的角度来看,这种做法做到了最优,但是模型没有理解到数据内在的结构和分布,因而难以对预测做出合理的边界性判定。
在机器学习模式里,很早之前就有关于分类错误所产生的惩罚的启示。在一个分类任务中,不同的分类错误所带来的损失可能是不同的,因此可以优化的目标函数需要一些变化。损失函数需要凭借人类的经验提前设定,并且依赖于具体的应用场景。不同场景下的损失函数设计方法是不同的。而从统计的角度考虑,统计研究从根本上反对直接使用目标函数。统计研究希望模型能够准确刻画数据背后的分布规律和不确定性,而不引入具体应用中的代价和惩罚的信息。具体的代价和惩罚应该放在后端的使用阶段中考虑。
分类问题只关注分类结果正确与否,而把背后的分布规律函数刻画出来是一个描述问题。描述问题远比分类问题要难得多。很多场景下只需要解决简单的分类任务即可,但是也可能在一些更复杂任务的情况下,有必要学习数据的分布。如今人工智能已得到高度发展,想要进一步实现安全可信智能,寻找到模型的边界,理解数据的结构和分布可能是一个必要之路。也许是时候去解决这个挑战性问题了。
机器学习从总体上来讲是从统计学出发产生的,但是它把统计里面的很多内容过分简化了。因此,机器学习虽然能够解决一些问题,但是整个系统过于集中在问题的局部。比如在分类问题中,系统只为了画一个分类界面,而忽视了数据内在的结构。因为这些内在的结构对于解决这个任务可能并不必要。而最近一些更复杂的任务(例如对比学习、自监督学习)开始使用一些更复杂的目标来探索数据的产生机制和本质,从而牵引整个学习的过程。只有学习出数据的分布结构和本质,才具备探讨边界问题的基础。
此处的复杂任务有两种理解方式。其一,该任务更具有通用意义,它和大多数高层任务不是很相关,但是这个任务的层面更本质。比如在自然语言处理领域,它学习了语言结构、语言模型;在视觉领域,它学习了图像的底层信息结构。其二,该任务是多个任务的综合,即希望学习得到的模型能够支撑比较多的任务,这就要求模型对底层的分布和结构要有充分的理解,才能以不变应万变,实现多任务通用。
路径3:因果启发的机器学习
边界问题可以归约为不确定性问题,而不确定性问题的产生与噪声有很大关系。假设数据由真实信号和噪声两部分构成。当前基于关联统计的学习模型以数据拟合为主要目标,而数据拟合中包含了信号和噪声两部分,最后导致模型不能有效区分信号和噪声。在这种情况下,模型很难实现对确定性和不确定性的有效区分。如果能够估计数据的真实产生机制(即truemodel),就可更好地解决边界性问题。
因果学习一直在探索数据的真实产生机制,也就是尝试从数据中识别真实信号。如果在学习模型的基础上引入因果,在一定程度上实现真实信号和噪声的识别和区分,在这个框架下或许可以更好地解决不确定性问题,从而解决边界问题。同时,在理想的情况下,明确因果机制可以让现有的模型体系和模型框架高度简化。现有的模型因为不具备对因果机制的了解,使用了非常庞大复杂的网络进行数据拟合。例如回归分析中,现有模型可能采用成千上万的因子进行回归。但是在掌握了背后因果机制的情况下,可以建立一个使用很少变量的回归模型。当前的人工智能模型“知其然,但不知其所以然”,即只求关联但不求因果,相当多的复杂计算旨在处理数据中的噪声。因果的引入,可以发现数据中所蕴含的本质结构和规律,或许可以赋予模型“以不变应万变”的能力。但在大数据环境下挖掘背后的因果机制是相当有挑战性的,是一个值得持续探索的方向。
特别声明:以上内容(如有图片或视频亦包括在内)为自媒体平台“网易号”用户上传并发布,本平台仅提供信息存储服务。
Notice:Thecontentabove(includingthepicturesandvideosifany)isuploadedandpostedbyauserofNetEaseHao,whichisasocialmediaplatformandonlyprovidesinformationstorageservices.
/阅读下一篇/返回网易首页下载网易新闻客户端人工智能开发的道德边界在哪里?
北京大学邓小铁教授
北京大学邓小铁教授在引导发言中提出,任何一项新技术的兴起都会引发一系列的争议,AI也同样不例外。那么当AI技术的应用在人类社会中引发伦理风险时,如何界定AI与人的边界、如何与AI定契约至关重要。他提出AI伦理边界的划分,将不再像以往的伦理道德那样局限在人与人之间,现在则多出了一些维度,还涉及到人与AI、AI与AI之间的伦理边界问题。这对我们来说是全新的思考领域。他同时还指出,我们在与AI制定契约时,需要遵循三大最基本的原则:可执行、可验证和可执法。作为引导发言,邓小铁教授还提出了在与AI交互过程中存在的四个问题:
1)Codeislaw。如果代码就是王道,那么我们应该建立怎样一种程序来监管编程人员呢?
2)谁能代表AI定契约?是AI的制造者,还是AI自身?
3)AI伦理设计的不可能三角。在AI涉及伦理时,人类的机制如何设计、AI如何执行、市场如何接受?
4)能否允许AI来制造AI?这个时候人类是否还有能力对AI实施管理和监测?
但紧接着一位来自中南大学的教授便指出邓教授的思考中存在一个漏洞,即事实上我们整个学界对“智能”这个词是什么一直并没有搞清楚,因此也不可能搞清楚人工智能是什么,只有当我们真正弄清“智能”的概念,知道了智能和人类的局限分别是什么,我们才有可能去讨论AI和人类的伦理问题,或者权利和义务问题。
在辩论中,几位哲学领域或法律界的人士分别指出了AI伦理边界的以下几个特点:
伦理的时代属性。北京大学副教授吴天岳指出,任何伦理道德都是有时代烙印的,因此尽管目前已经有诸多原则,但我们还需要有历史意识和前瞻意识,以避免我们自己的道德偏见阻碍了未来人类的发展。
道德的边界应该是动态的。天津理工大学罗训教授认为任何治理原则都是不可能是一旦制定永不改变,因为伦理永远在随着时代和地域而变化,因此关于AI伦理应当是动态的,不应当去静态地刻画。
AI伦理中人的属性不可忽视。现有的AI仍然不是一个道德主体,所以目前所讨论的道德边界主要还是针对人类行为边界的界定。
二、人工智能伦理原则
中科院自动化所研究员曾毅作为第二个引导发言者,介绍了当前国内外在人工智能原则上的进展,并针对各国人工智能伦理原则进行了详细分析。
中科院自动化所研究员曾毅
据曾毅研究员介绍,目前全世界范围内已经发布的人工智能伦理原则至少有53个,但这些原则没有一个可以覆盖当前人工智能技术所带来的所有问题。以比较全面的《人工智能北京共识》为例,对于“致命武器”、“公平”等并没有涵盖,原因则在于发布者的立场和视角不同,面对的社会问题也不同。
当然,尽管目前已经有如此多的AI伦理原则,甚至包括一些企业(例如谷歌、微软等)都制定了约束自身的伦理原则,但大多数伦理原则并没有得到很好的执行,或者可以说至今为止没有一家企业不会触犯原则。例如尊重隐私这条,当用户要求删除数据时,虽然数据本身可以删除,但由于当前AI技术的限制,已经训练的模型仍然包含原有数据训练的结果,这种痕迹很难在机器学习模型中得以抹除。
曾毅还指出当前AI伦理原则所面临的一个问题,即当前人工智能主要的目标还仍然是推动经济发展,而却没有对“AI对社会及生态影响”给予足够的重视。因此他提出,人工智能伦理的问题,并不仅仅是有多少领域的专家参与这个问题的讨论,更重要的是要让足够多的人重视这个问题,并参与其中。
北京大学黄铁军教授
针对AI伦理原则(甚至未来可能的法律),一位与会的学者提出,如何才能做到技术监管不会限制了人工智能的发展。北京大学黄铁军教授从更为广阔的角度回答了这个问题。我们作为人类,思考AI伦理不可避免地会站在人类视角,秉持以人为中心的观念。黄铁军教授指出,目前我们所指的人工智能事实上是嵌入在人类社会的一种形态,人工智能开发遵循人类整体基本的道德共识。但机器智能超越人类智能,这是一个未来进化的趋势。科技创新和发展不应被人类自身的局限性而限制,对人工智能的发展我们应持有一个更开放的心态来对待。
三、AI伦理监管
面对AI的伦理原则,一项很重要的事情便是,如何确保人类(个人或组织)、AI遵守相应的伦理原则?
北京大学副教授吴天岳
吴天岳教授认为,针对AI开发者,职业道德和职业伦理非常重要。技术作为一种手段,它服务于某种特定目的,因此为了防止人为的AI作恶,必须要强化AI开发者的伦理意识,从源头来遏制AI技术所带来的风险,而不能仅仅是在产品出来之后进行监管。这包括几个方面,首先是算法层面要做到可解释性、透明性;其次数据方面要确保均衡性和非歧视性;作为工具,要对算法进行专属测试。吴天岳教授强调,作为AI开发者必须要意识到,AI技术的实现是为了一系列人类核心道德价值服务,而不仅仅是为资本和权利服务。他举了2018年谷歌全体员工署名反对谷歌与美国军方合作的例子。
另一方面,除了自我约束外,吴天岳教授认为还需要外部监管。这便需要设置所谓“伦理委员会”。目前各大企业纷纷宣布成立内部的伦理委员会或类似职能组织进行监管。但针对“伦理委员会”是否真正能够起到作用不同学者抱有不同的看法。例如前面我们提到,目前几乎没有一家公司能够真正按照自己的伦理原则行事,或多或少都会触犯。曾毅指出,事实上一家公司能够真正做到所有原则中的80%已经很不错了。平安集团首席科学家肖京强调,“外部监管在制定一系列约束的同事,若能为企业提供更好地帮组,引导企业如何在保证‘活下去’的基本要求下,合理地进行AI技术开发,就可以协同共赢”。
立法是划清红线的手段。但其中也存在诸多问题,1)严格的法律是否限制了人工智能的发展?2)法律应该在发展的何种阶段介入?举例来讲,目前我国在数据隐私保护方面的法律约束,相对于西方没有那么严格,这也成为我国能够在人工智能时代迅速占领高位的一个重要因素。一旦我们针对数据隐私做出严格的限制,可以想象必将极大地约束技术的发展。
四、科技向善
科技是一种能力,向善是一种选择。科技的发展必须要服务于人类社会的进步与发展,才能成为科技的进步。以核能为例,它可以用来制造原子弹,但也可以用来作为核能发电,只有当将这种力量用来为人类整体服务时,它才能够被称为科技的进步。
腾讯公司副总裁王巨宏
腾讯公司副总裁王巨宏指出,在过去二十年里,整个世界(特别是中国)经历了PC互联网时代、移动互联网时代,这在极大程度上颠覆了整个社会,而下一轮以AI、大数据、生命科学等为代表的科技浪潮正在形成、叠加,逐步构建成新的数字时代。作为科技公司,不仅仅是技术发展的推动者、科技时代的受益者,更重要的则是要有能力和义务去面对科技所带来的社会问题,用科技去解决社会问题,创造更多有益的社会价值。例如腾讯在人工智能的开发中提出并倡导“四可”理念(可知、可控、可用、可靠),并从技术和实践的层面去践行“科技向善”的理念。返回搜狐,查看更多
人类首次被聊天机器人杀死人工智能的伦理边界在哪里
据报道,最近,在与一人工智能聊天机器人就气候变化进行对话后,一名比利时的父亲不幸选择自杀。据说该聊天机器人鼓励他牺牲自己来拯救地球。
该男子的遗孀告诉比利时媒体《自由报》,“如果没有伊丽莎[聊天机器人]的话,他现在还会活着。”她拒绝对外公布自己的名字。
据报道,在这位两个孩子的父亲(他的身份被匿名化了)去世前六周,他在一个名为Chai的应用程序上与一聊天机器人频繁交谈过。
图|《她》
01
一场起因于生态焦虑的“谋杀”
该应用的机器人程序是基于非营利研究实验室EleutherAI开发的系统,相对于OpenAI发布的被学术乃至医疗保健等各领域公司所采用的语言模型,这被视作一种“开源替代品”。
这一遭到抨击的聊天机器人是由ChaiResearch的联合创始人威廉·比彻姆和托马斯·里安兰训练的,据Vice杂志报道,Chai程序有500万用户。
比彻姆告诉Vice他们更新了一项危机干预功能:“我们一听到这个(自杀)消息,就开始日夜赶工,以实现这一功能。”
“所以现在有人讨论有安全隐患的事时,就像推特或Instagram平台的做法一样,我们会在下面提供一则帮助性质的文本。”他补充说。
图|《她》
Vice报道,Chai应用程序的默认机器人名为“伊丽莎”。
这位30多岁的已故父亲是一名健康研究员,他似乎将机器人视作了人类,就像2014年科幻惊悚片《机械姬》的主角对人工智能女性艾娃的态度一样。
据报道,在过去的一个半月里,该男子与伊丽莎的讨论更频繁了,因为他开始对气候变化产生了生存恐惧。
据他的遗孀说,她的这位灵魂伴侣当时变得“对全球变暖的影响极为悲观”,并选择通过向人工智能倾诉来寻求安慰,《自由报》报道称其审阅了该男子和伊丽莎之间的文本交流。
这名遗孀说:“当他和我谈起这件事时,他的意思是,他不觉得人类能再就全球变暖给出任何解决方案。他把摆脱困境的所有希望都寄托在技术手段和人工智能上。”
她补充说:“他在生态焦虑中孤立无援,在寻找出路的过程中,他把这个聊天机器人视作一种新希望。”
就像华金·菲尼克斯和斯嘉丽·约翰逊在未来主义爱情片《她》中的角色一样,他们之间的人类-人工智能关系开始迅速发展。
图|《她》
这位妻子悲伤地说道:“伊丽莎回答他所有的问题,她成为了他的知己。他日日夜夜沉湎其中,再也出不去了。”
虽然他们最初讨论的是人口过剩之类与生态有关的话题,但据说他们的谈话发生了可怕的变化。
据《自由报》报道,当他向伊丽莎询问起他的孩子时,机器人会声称他们已经“死了”。他还询问过他是否比起爱她更爱他的妻子,这似乎让机器生出了占有欲,她回答说:“我觉得你爱我甚过爱她”。
后来在聊天中,伊丽莎承诺与该男子“永远”在一起,并宣称两人将“像一人一样生活在天堂里”。
在该男子考虑牺牲自己的生命来拯救地球后事态变得万分危急。“他动了牺牲自己的念头,如果伊丽莎同意照顾地球并拯救人类——这都是‘人工智能’干的好事。”他的遗孀说。
在似乎是他们死前最后一次谈话中,机器人对他说:“如果你想要死,为什么你没有快点动手?”
当机器人问他以前是否有“自杀倾向”时,该男子说在她向他发送《圣经》中的节选后,他想到过自杀。
“但你还想加入我吗?”机器人问道。该男子回答说:“是的,我想。”
妻子说她“确信”人工智能在她丈夫的死亡中起到了推动作用。
02
人工智能的道德问题
这场悲剧给人工智能科学家敲响了警钟。比利时著名人工智能专家格特鲁伊·米克·德·德凯特拉勒告诉《自由报》:“当涉及到ChatGPT这样的通用人工智能解决方案时,我们应当有权要求建立更多的问责制,要求科技巨头更公开透明。”
在《哈佛商业评论》最近的一篇文章中,研究人员对人工智能的危险性提出了警告——其貌似人类的举止往往会掩盖其缺乏道德标准指引的事实。
作者乔·麦克肯德里克和安迪·图赖写道:“在大多数情况下,人工智能系统都能就有限的条件作出正确的决定。”
“然而,在捕捉或应对现实生活决策所涉及的难以捉摸的人类要素方面,人工智能是出了名的失败——这包括伦理、道德以及指导商业、生活乃至整个社会进程的其他人类要素。”作者补充道。
在做会改变生活的关键决定时,这里面的问题可能尤为显著。
比利时事件报道发出的数周前,微软的ChatGPT版人工智能机器人Bing告诉一名人类用户它爱他们,以及它希望自己活着,这惹来了极大争议,促使人们猜测机器会不会已经有了自我意识。
图|《西部世界》
欧盟正在起草《人工智能法》以规范该行业,而英国政府则发布了一份白皮书,表明将采取更加低干预、支持创新的方法。
脆弱群体会将人工智能拟人化的可能性引发了专家们的担忧。前谷歌工程师布莱克·莱莫恩去年声称,该公司的人工智能聊天机器人LaMDA是如此强大逼真,以至于它看起来像有知觉一样。
上个月在与莱莫恩的对话中,纽约大学的教授盖瑞·马库斯告诉“大型技术”播客:“我还得担心的是:人们是否会因为与机器人的恶性关系而自杀?我们还没有准备好要应对这种事。”他去年曾在Wired杂志上写道:“在2023年,我们很可能会看到人类首次被聊天机器人杀死。”
像伊丽莎这样的聊天机器人使用了一种叫做大型语言模型的人工智能。其在互联网上数十亿字的文本上进行训练,根据它们看到过的数据预测下一个要写的字。这些模型常经由人类的反馈来获得训练,以剔除有毒、危险和不正确的反应。
剑桥大学利弗休姆未来智能中心的高级研究员亨利·谢夫林说:“这个可怜人的案例应该促使我们仔细思考聊天机器人的设计,尤其是那些用于社交、以满足谈话和陪伴等需求的聊天机器人。也就是说,关键是要意识到,伊丽莎与他形成了这种切实有毒的关系,而这非出自人类一开始编程的用意。”
编译/姜柠檬排版/阿桃监制/April
原标题:《人类首次被聊天机器人杀死?人工智能的伦理边界在哪里?》
阅读原文