2023年人工智能领域发展七大趋势
2022年人工智能领域发展七大趋势
有望在网络安全和智能驾驶等领域“大显身手”
人工智能已成为人类有史以来最具革命性的技术之一。“人工智能是我们作为人类正在研究的最重要的技术之一。它对人类文明的影响将比火或电更深刻”。2020年1月,谷歌公司首席执行官桑达尔·皮查伊在瑞士达沃斯世界经济论坛上接受采访时如是说。
美国《福布斯》网站在近日的报道中指出,尽管目前很难想象机器自主决策所产生的影响,但可以肯定的是,当时光的车轮到达2022年时,人工智能领域新的突破和发展将继续拓宽我们的想象边界,其将在7大领域“大显身手”。
增强人类的劳动技能
人们一直担心机器或机器人将取代人工,甚至可能使某些工种变得多余。但人们也将越来越多地发现,人类可借助机器来提升自身技能。
比如,营销部门已习惯使用工具来帮助确定哪些潜在客户更值得关注;在工程领域,人工智能工具通过提供维护预测,让人们提前知道机器何时需要维修;法律等知识型行业将越来越多地使用人工智能工具,帮助人们对不断增长的可用数据中进行分类,以找到完成特定任务所需的信息。
总而言之,在几乎每个职业领域,各种智能工具和服务正在涌现,以帮助人们更有效地完成工作。2022年人工智能与人们日常生活的联系将会变得更加紧密。
更大更好的语言建模
语言建模允许机器以人类理解的语言与人类互动,甚至可将人类自然语言转化为可运行的程序及计算机代码。
2020年中,人工智能公司OpenAI发布了第三代语言预测模型GPT—3,这是科学家们迄今创建的最先进也是最大的语言模型,由大约1750亿个“参数”组成,这些“参数”是机器用来处理语言的变量和数据点。
众所周知,OpenAI正在开发一个更强大的继任者GPT—4。尽管细节尚未得到证实,但一些人估计,它可能包含多达100万亿个参数(与人脑的突触一样多)。从理论上讲,它离创造语言以及进行人类无法区分的对话更近了一大步。而且,它在创建计算机代码方面也会变得更好。
网络安全领域的人工智能
今年1月,世界经济论坛发布《2021年全球风险格局报告》,认为网络安全风险是全世界今后将面临的一项重大风险。
随着机器越来越多地占据人们的生活,黑客和网络犯罪不可避免地成为一个更大的问题,这正是人工智能可“大展拳脚”的地方。
人工智能正在改变网络安全的游戏规则。通过分析网络流量、识别恶意应用,智能算法将在保护人类免受网络安全威胁方面发挥越来越大的作用。2022年,人工智能的最重要应用可能会出现在这一领域。人工智能或能通过从数百万份研究报告、博客和新闻报道中分析整理出威胁情报,即时洞察信息,从而大幅加快响应速度。
人工智能与元宇宙
元宇宙是一个虚拟世界,就像互联网一样,重点在于实现沉浸式体验,自从马克·扎克伯格将脸书改名为“Meta”(元宇宙的英文前缀)以来,元宇宙话题更为火热。
人工智能无疑将是元宇宙的关键。人工智能将有助于创造在线环境,让人们在元宇宙中体会宾至如归的感觉,培养他们的创作冲动。人们或许很快就会习惯与人工智能生物共享元宇宙环境,比如想要放松时,就可与人工智能打网球或玩国际象棋游戏。
低代码和无代码人工智能
2020年,低代码/无代码人工智能工具异军突起并风靡全球,从构建应用程序到面向企业的垂直人工智能解决方案等应用不一而足。这股新鲜势力有望在2022年持续发力。数据显示,低代码/无代码工具将成为科技巨头们的下一个战斗前线,这是一个总值达132亿美元的市场,预计到2025年其总值将进一步提升至455亿美元。
美国亚马逊公司2020年6月发布的Honeycode平台就是最好的证明,该平台是一种类似于电子表格界面的无代码开发环境,被称为产品经理们的“福音”。
自动驾驶交通工具
数据显示,每年有130万人死于交通事故,其中90%是人为失误造成的。人工智能将成为自动驾驶汽车、船舶和飞机的“大脑”,正在改变这些行业。
特斯拉公司表示,到2022年,其生产的汽车将拥有完全的自动驾驶能力。谷歌、苹果、通用和福特等公司也有可能在2022年宣布在自动驾驶领域的重大飞跃。
此外,由非营利的海洋研究组织ProMare及IBM共同打造的“五月花”号自动驾驶船舶(MAS)已于2020年正式起航。IBM表示,人工智能船长让MAS具备侦测、思考与决策的能力,能够扫描地平线以发觉潜在危险,并根据各种即时数据来变更路线。2022年,自动驾驶船舶技术也将更上一层楼。
创造性人工智能
在GPT—4谷歌“大脑”等新模型的加持下,人们可以期待人工智能提供更加精致、看似“自然”的创意输出。谷歌“大脑”是GoogleX实验室的一个主要研究项目,是谷歌在人工智能领域开发出的一款模拟人脑具备自我学习功能的软件。
2022年,这些创意性输出通常不是为了展示人工智能的潜力,而是为了应用于日常创作任务,如为文章和时事通讯撰写标题、设计徽标和信息图表等。创造力通常被视为一种非常人性化的技能,但人们将越来越多地看到这些能力出现在机器上。(记者刘霞)
【纠错】【责任编辑:吴咏玲】人工智能与人类文明的未来发展
近年来,人工智能技术的发展和对于人工智能的学理探讨都呈现出一派繁荣景象。就产业发展而言,人工智能作为当代产业革命的新引擎,正在成为各行各业数字化、自动化和智能化的重要载体,不仅向着工业、医学、服务等多个领域渗透,改变着我们的生活世界,而且向着绘画、音乐、作曲等人文领域进军,改变着人文社会科学的研究格局,由此正在把人类文明推向智能化生存的全新维度。就战略方针而言,人工智能越来越成为美国、中国、日本和欧盟等主要国家提升国际竞争力和争夺经济主战场的战略重点。就研究主题而言,除了人工智能的科学与技术、产业发展与联盟以及决策等问题之外,还有不计其数的论文从社会、政治、法律、伦理、认识论、本体论乃至价值论等视域来探讨人工智能有可能带来的潜在问题及其社会变革。当人工智能的应用变得司空见惯之后,它就会像电力和互联网一样,变成人类生活的背景或基础设施。然而,有所不同的是,人工智能的“智能性”迫使我们在享用其带来的便利的同时,不得不前瞻性地深入明辨它对人类文明的演进所带来的挑战。2018年,这些挑战已经从学者们的学术探讨内化到国家战略之中。
这一年,习近平主席在致“2018年世界人工智能大会”的贺信中提倡各国深化合作,共同处理好人工智能在法律、安全、道德伦理和政府治理等方面提出的新课题。随后,他在中共中央政治局就“人工智能发展现状和趋势”举行的第九次集体学习时强调,“要加强人工智能发展的潜在风险研判和防范,维护人民利益和国家安全,确保人工智能安全、可控。要整合多学科力量,加强人工智能相关法律、伦理、社会问题的研究。建立健全保障人工智能健康发展的法律法规、制度体系、伦理道德”。
这一年,美国发布AI白皮书《机器崛起:人工智能及其对美国政策的不断增长的影响》,重点剖析了人工智能可能带来的失业、隐私、偏向和恶意使用四个方面的问题,并提出了相应的应对方案。欧盟25个成员国领导人共同签署了《加强人工智能合作宣言》,并设立了“数字欧洲”项目,旨在共同确保欧洲在研究和部署人工智能方面的竞争力,携手应对人工智能可能带来的社会、经济和法律等问题。此外,欧盟还出台了《关于可信赖人工智能的伦理准则草案》,倡导在开发人工智能时遵守利益最大化和风险最小化的原则,并制定了实现可信赖的人工智能的框架方案。
世界各国对规避人工智能发展带来的潜在风险的高度重视足以表明,人工智能的发展已经激发了人类关于自身价值的重新思考,使价值问题成为人类文明未来发展必须直面的关键问题。在此之前,蒸汽革命、电力革命和计算机革命虽然导致了人类文明从农业文明转向工业文明,但是在此转型过程中,人类追求技术的热情有增无减,从来没有在世界范围内自觉地提出反思人类价值的问题。虽然人们承认技术是一把双刃剑,但通常认为技术的善恶不在技术端,而是在使用端。也就是说,技术的恶是由技术的使用者造成的,与技术本身无关。然而,人工智能却超越了这一界限。这既是由人工智能本身的学科性质决定的,也是由人工智能在未来社会中所起的作用决定的。
第一,人工智能是一个跨学科的领域,不仅与物理学、化学、生物学、心理学、认知科学、神经科学等自然科学,以及量子信息技术、生物技术、纳米技术等当代技术相关,而且涉及智能、认知、思维、心灵、意识等哲学概念。事实上,人工智能是一项知识工程。它在赋能百业之余,最直接也最明确的目标是让机器能够像人一样灵活自如地完成任务。真正实现人工智能的时代,机器对人的模拟不是机理性的,而是功能性的。从机器模拟人的功能意义上来看,我们对通用人工智能人的向往与追求,已经全方位地向人类发出了必须彻底反思自身及未来文明走向的强烈信号。
第二,人工智能是建立在一套行之有效的算法基础上的,而算法的优化又是建立在大数据基础上的。数据不同,算法的设计与优化也就不同。因此,能够体现出“智能”的算法本身并不是中性的,而是天然地蕴含群体和个体的偏向:一是植根于设计者的生活习惯与文化习俗之中并先于算法的设计而潜存的文化偏向;二是源于设计者的技术水平和技术考虑并嵌入在整个设计过程之中的技术偏向;三是在用户对数据的使用过程中涌现出来的使用偏向。这三种偏向是隐形的和潜在的,而不是明显的和有意识的。因此,负责任地进行算法设计的伦理嵌入就成为确保人工智能做正确之事而不是做错误之事的关键所在。
第三,人工智能的世界是数字化行为构成的数据世界。当数据成为我们认识世界的界面时,我们事实上已经无意识地把获取信息的方式交给了算法。一方面,机器人正是通过算法学会如何在海量数据中挖掘出有价值的隐藏信息,以形成决策资源,并预测相关事件发生的可能性,这给我们的思维方式带来转变。如,在搜索引擎的引导下,我们从重视寻找数据背景的原因,转向了如何运用数据本身。此外,算法会基于个人的行为数据,通过个性化的自主信息推送,强化使用者留下的消费习惯或行为习惯,如网络查询在某种程度上能够还原查询者的兴趣爱好和各种隐私偏好等,算法本身的不透明性和使用者的透明性形成了鲜明的对照。
第四,对于人类文明的演进而言,共享语言就是共享一种本质。在人工智能时代,当我们有能力以机器能够理解的语言来表达自己的意愿,乃至习惯于运用机器能够听懂的语言来实现自己的目标时,我们就需要共享机器语言,以编码的方式来描述愿望和目标。如此一来,我们就需要学习编程,以便扩展我们的本体论前景。问题在于,当我们改变了用来描述愿望和目标的语言时,也就相应地改变了我们的愿望和目标本身,这是我们在智能化人类文明未来必须要面对的深层次本体论问题。因为人类的语言是人类历史所固有的,是我们的生理、心理和文化所蕴含的长期演化的产物,而机器人所能理解的语言是程序化的人工语言。因此,机器赋予人类语言意义的能力是极其有限的,人类不能与运用人类语言的机器进行随机应变的机敏对话,也不能完全用自然语言描述机器所遭遇的数据世界。人类的愿望与目标是人类建构的,超越了自动化与智能化的范围。
第五,人工智能的发展有可能使人类智能突破个体智能的局限性,出现集体智能和合作智能,这超越了人与机器之间的控制与被控制、主导与被主导的二元关系。过去的机器是有寿命而无生命的机器,尽管能力超人,但归根结底总是受到人的控制与指挥,而受人工智能驱动的机器则是有鲜活生命和自主能力的机器。一方面,在人工智能时代,人不再像工业文明时代那样成为机器的一部分,而是反过来,机器成为人的一部分,如美国SpaceX公司的CEO埃隆·马斯克就坦言,他的公司未来将研究如何将芯片植入头骨来实现人机融合。然而,问题在于:如果人机融合的愿景真的实现了,那么我们如何避免掌握技术的少数精英通过芯片来控制被植入者呢?另一方面,有许多人担心,如果通用人工智能乃至超人工智能有朝一日被研制成功,那么,智能机器不仅会全面超越人类来进行自主决策,而且还会脱离人的控制,成为主宰人类的“上帝”。尽管人工智能研究者认为,这种通用人工智能出现的可能性还遥遥无期,但是,由此引发的担忧却值得关注与深思。
人类文明已经发展到有所为而有所不为的时代了,这就迫使我们不得不反思这样的问题:当我们把智能化发展看成实现人类追求的骄傲和理想以及国家制胜的法宝时,我们希望通过智能化的发展塑造什么样的文明形态?自人猿相揖以来,习惯为发展经济而奋斗的人类,如何为迎接有可能全面解放人类劳动的智能文明的到来,前瞻性地做好各方面的思想准备呢?历史地看,人类文明从诞生之日起就钟情于一切来源于人类智慧的产物。人类文明的转型发展虽然不是源于理论安排,而是社会实践和日常生活的结果,但生活在受人工智能驱动的信息文明深度发展和智能文明崭露头角过程中的我们,必然要肩负着自觉引领人类文明未来发展的重要职责。我们对发展人工智能的选择,不只是在选择技术,更是在选择人类文明的未来,人类使机器像人一样能够做到“厚于德、诚于信、勤于思、慎于言、敏于行”的追求过程,也是人类有意识地进行自我塑造和自我反省的过程。
(本文系教育部哲学社会科学重大课题攻关项目“人工智能的哲学思考研究”(18JZD013)阶段性成果)
(作者单位:上海社会科学院哲学研究所)
新一代人工智能的发展与展望
随着大数据、云计算等技术的飞速发展,人们生产生活的数据基础和信息环境得到了大幅提升,人工智能(AI)正在从专用智能迈向通用智能,进入了全新的发展阶段。国务院印发的《新一代人工智能发展规划》指出新一代人工智能相关学科发展、理论建模、技术创新、软硬件升级等整体推进,正在引发链式突破,推动经济社会各领域从数字化、网络化向智能化加速跃升。在4月10日“吴文俊人工智能科学技术奖”十周年颁奖盛典中,作为我国不确定性人工智能领域的主要开拓者、中国人工智能学会名誉理事长李德毅院士荣获“吴文俊人工智能最高成就奖”,并在大会上作题为《探索什么叫新一代人工智能》的报告,探讨了新一代人工智能的内涵和路径,引领着新一代人工智能的发展与展望。
人工智能这一概念诞生于1956年在美国达特茅斯学院举行的“人工智能夏季研讨会”,随后在20世纪50年代末和80年代初先后两次步入发展高峰,但因为技术瓶颈、应用成本等局限性而均掉入低谷。在信息技术的引领下,数据信息快速积累,运算能力大幅提升,人工智能发展环境发生了巨大变化,跨媒体智能、群体智能成为新的发展方向,以2006年深度学习模型的提出为标志,人工智能第三次站在了科技发展的浪潮之巅。
当前,随着移动互联网、物联网、大数据、云计算和人工智能等新一代信息技术的加速迭代演进,人类社会与物理世界的二元结构正在进阶到人类社会、信息空间和物理世界的三元结构,人与人、机器与机器、人与机器的交流互动愈加频繁。在多源数据、多元应用和超算能力、算法模型的共同驱动下,传统以计算机智能为基础的、依赖于算力算法和数据的人工智能,强调通用学习和大规模训练集的机器学习,正逐渐朝着以开放性智能为基础、依赖于交互学习和记忆、基于推理和知识驱动的以混合认知模型为中心的新一代人工智能方向迈进。应该说,新一代人工智能的内核是“会学习”,相较于当下只是代码的重复简单执行,新一代人工智能则需要能够在学习过程中解决新的问题。其中,学习的条件是认知,学习的客体是知识,学习的形态是交互,学习的核心是理解,学习的结果是记忆……因此,学习是新一代人工智能解释解决现实问题的基础,记忆智能是新一代人工智能中多领域、多情景可计算智能的边界和约束。进而当人类进入和智能机器互动的时代,新一代人工智能需要与时俱进地持续学习,不断检视解决新的问题,帮助人机加深、加快从对态势的全息感知递进到对世界的多维认知。
事实上,基于数据驱动型的传统人工智能,大多建立在“数据中立、算法公正和程序正义”三要素基础之上,而新一代人工智能更关注于交互能力,旨在通过设计“记忆”模块来模仿人脑,解决更灵活多变的实际问题,真正成为“不断学习、与时俱进”的人工智能。特别是人机交互支撑实现人机交叉融合与协同互动,目前已在多个领域取得了卓越成果,形成了多方面、多种类、多层次的应用。例如,在线客服可以实现全天候不间断服务,轻松解决用户咨询等问题,也可将棘手问题转交人工客服处理,降低了企业的管理成本;在智慧医疗领域,人工智能可以通过神经影像实现辅助智能诊断,帮助医生阅片,目前准确率已达95%以上,节省了大量的人力;2020年,在抗击疫情的过程中,新一代人工智能技术加速与交通、医疗、教育、应急等事务协作联动,在科技战“疫”中大显身手,助力疫情防控取得显著成效。
未来已来,随着人工智能逐渐融入居民生活的方方面面,将继续在智慧医疗、自动驾驶、工业制造智能化等领域崭露头角。一是基于新一代人工智能的智慧医疗,将助力医院更好记录、存储和分析患者的健康信息,提供更加精准化和个性化的健康服务,显著提升医院的临床诊断精确度。二是通过将新一代人工智能运用于自动驾驶系统的感知、预测和决策等方面,重点解决车道协同、多车调度、传感器定位等问题,重新定义城市生活中人们的出行方式。三是由于我国工业向大型化、高速化、精细化、自主化发展,对高端大规模可编程自动化系统提出迫切需求,新一代人工智能将推动基于工业4.0发展纲领,以高度自动化的智能感知为核心,主动排除生产障碍,发展具备有适应性、资源效率、人机协同工程的智能工厂应运而生。总之,如何展望人工智能通过交互学习和记忆理解实现自编程和自成长,提升自主学习和人机交互的效率,将是未来研究着力发展的硬核领域,并加速新一代信息技术与智能制造深度融合,推动数字化转型走深走实,有信心、有能力去迎接下一场深刻产业变革的到来。
新一代人工智能的发展与展望
随着大数据、云计算等技术的飞速发展,人们生产生活的数据基础和信息环境得到了大幅提升,人工智能(AI)正在从专用智能迈向通用智能,进入了全新的发展阶段。国务院印发的《新一代人工智能发展规划》指出新一代人工智能相关学科发展、理论建模、技术创新、软硬件升级等整体推进,正在引发链式突破,推动经济社会各领域从数字化、网络化向智能化加速跃升。在4月10日“吴文俊人工智能科学技术奖”十周年颁奖盛典中,作为我国不确定性人工智能领域的主要开拓者、中国人工智能学会名誉理事长李德毅院士荣获“吴文俊人工智能最高成就奖”,并在大会上作题为《探索什么叫新一代人工智能》的报告,探讨了新一代人工智能的内涵和路径,引领着新一代人工智能的发展与展望。
人工智能这一概念诞生于1956年在美国达特茅斯学院举行的“人工智能夏季研讨会”,随后在20世纪50年代末和80年代初先后两次步入发展高峰,但因为技术瓶颈、应用成本等局限性而均掉入低谷。在信息技术的引领下,数据信息快速积累,运算能力大幅提升,人工智能发展环境发生了巨大变化,跨媒体智能、群体智能成为新的发展方向,以2006年深度学习模型的提出为标志,人工智能第三次站在了科技发展的浪潮之巅。
当前,随着移动互联网、物联网、大数据、云计算和人工智能等新一代信息技术的加速迭代演进,人类社会与物理世界的二元结构正在进阶到人类社会、信息空间和物理世界的三元结构,人与人、机器与机器、人与机器的交流互动愈加频繁。在多源数据、多元应用和超算能力、算法模型的共同驱动下,传统以计算机智能为基础的、依赖于算力算法和数据的人工智能,强调通用学习和大规模训练集的机器学习,正逐渐朝着以开放性智能为基础、依赖于交互学习和记忆、基于推理和知识驱动的以混合认知模型为中心的新一代人工智能方向迈进。应该说,新一代人工智能的内核是“会学习”,相较于当下只是代码的重复简单执行,新一代人工智能则需要能够在学习过程中解决新的问题。其中,学习的条件是认知,学习的客体是知识,学习的形态是交互,学习的核心是理解,学习的结果是记忆……因此,学习是新一代人工智能解释解决现实问题的基础,记忆智能是新一代人工智能中多领域、多情景可计算智能的边界和约束。进而当人类进入和智能机器互动的时代,新一代人工智能需要与时俱进地持续学习,不断检视解决新的问题,帮助人机加深、加快从对态势的全息感知递进到对世界的多维认知。
事实上,基于数据驱动型的传统人工智能,大多建立在“数据中立、算法公正和程序正义”三要素基础之上,而新一代人工智能更关注于交互能力,旨在通过设计“记忆”模块来模仿人脑,解决更灵活多变的实际问题,真正成为“不断学习、与时俱进”的人工智能。特别是人机交互支撑实现人机交叉融合与协同互动,目前已在多个领域取得了卓越成果,形成了多方面、多种类、多层次的应用。例如,在线客服可以实现全天候不间断服务,轻松解决用户咨询等问题,也可将棘手问题转交人工客服处理,降低了企业的管理成本;在智慧医疗领域,人工智能可以通过神经影像实现辅助智能诊断,帮助医生阅片,目前准确率已达95%以上,节省了大量的人力;2020年,在抗击疫情的过程中,新一代人工智能技术加速与交通、医疗、教育、应急等事务协作联动,在科技战“疫”中大显身手,助力疫情防控取得显著成效。
未来已来,随着人工智能逐渐融入居民生活的方方面面,将继续在智慧医疗、自动驾驶、工业制造智能化等领域崭露头角。一是基于新一代人工智能的智慧医疗,将助力医院更好记录、存储和分析患者的健康信息,提供更加精准化和个性化的健康服务,显著提升医院的临床诊断精确度。二是通过将新一代人工智能运用于自动驾驶系统的感知、预测和决策等方面,重点解决车道协同、多车调度、传感器定位等问题,重新定义城市生活中人们的出行方式。三是由于我国工业向大型化、高速化、精细化、自主化发展,对高端大规模可编程自动化系统提出迫切需求,新一代人工智能将推动基于工业4.0发展纲领,以高度自动化的智能感知为核心,主动排除生产障碍,发展具备有适应性、资源效率、人机协同工程的智能工厂应运而生。总之,如何展望人工智能通过交互学习和记忆理解实现自编程和自成长,提升自主学习和人机交互的效率,将是未来研究着力发展的硬核领域,并加速新一代信息技术与智能制造深度融合,推动数字化转型走深走实,有信心、有能力去迎接下一场深刻产业变革的到来。
作者:徐云峰
catalogs:13000076;contentid:7688970;publishdate:2021-06-11;author:黄童欣;file:1623414511328-aff718d9-3742-46b0-b08c-e56bdd1ed8c8;source:29;from:中华读书报;timestamp:2021-06-1120:28:23;[责任编辑:]人工智能的历史、现状和未来
2018年2月25日,在平昌冬奥会闭幕式“北京8分钟”表演中,由沈阳新松机器人自动化股份有限公司研发的智能移动机器人与轮滑演员进行表演。新华社记者李钢/摄
2018年5月3日,中国科学院发布国内首款云端人工智能芯片,理论峰值速度达每秒128万亿次定点运算,达到世界先进水平。新华社记者金立旺/摄
2017年10月,在沙特阿拉伯首都利雅得举行的“未来投资倡议”大会上,机器人索菲亚被授予沙特公民身份,她也因此成为全球首个获得公民身份的机器人。图为2018年7月10日,在香港会展中心,机器人索菲亚亮相主舞台。ISAACLAWRENCE/视觉中国
2018年11月22日,在“伟大的变革——庆祝改革开放40周年大型展览”上,第三代国产骨科手术机器人“天玑”正在模拟做手术,它是国际上首个适应症覆盖脊柱全节段和骨盆髋臼手术的骨科机器人,性能指标达到国际领先水平。麦田/视觉中国
如同蒸汽时代的蒸汽机、电气时代的发电机、信息时代的计算机和互联网,人工智能正成为推动人类进入智能时代的决定性力量。全球产业界充分认识到人工智能技术引领新一轮产业变革的重大意义,纷纷转型发展,抢滩布局人工智能创新生态。世界主要发达国家均把发展人工智能作为提升国家竞争力、维护国家安全的重大战略,力图在国际科技竞争中掌握主导权。习近平总书记在十九届中央政治局第九次集体学习时深刻指出,加快发展新一代人工智能是事关我国能否抓住新一轮科技革命和产业变革机遇的战略问题。错失一个机遇,就有可能错过整整一个时代。新一轮科技革命与产业变革已曙光可见,在这场关乎前途命运的大赛场上,我们必须抢抓机遇、奋起直追、力争超越。
概念与历程
了解人工智能向何处去,首先要知道人工智能从何处来。1956年夏,麦卡锡、明斯基等科学家在美国达特茅斯学院开会研讨“如何用机器模拟人的智能”,首次提出“人工智能(ArtificialIntelligence,简称AI)”这一概念,标志着人工智能学科的诞生。
人工智能是研究开发能够模拟、延伸和扩展人类智能的理论、方法、技术及应用系统的一门新的技术科学,研究目的是促使智能机器会听(语音识别、机器翻译等)、会看(图像识别、文字识别等)、会说(语音合成、人机对话等)、会思考(人机对弈、定理证明等)、会学习(机器学习、知识表示等)、会行动(机器人、自动驾驶汽车等)。
人工智能充满未知的探索道路曲折起伏。如何描述人工智能自1956年以来60余年的发展历程,学术界可谓仁者见仁、智者见智。我们将人工智能的发展历程划分为以下6个阶段:
一是起步发展期:1956年—20世纪60年代初。人工智能概念提出后,相继取得了一批令人瞩目的研究成果,如机器定理证明、跳棋程序等,掀起人工智能发展的第一个高潮。
二是反思发展期:20世纪60年代—70年代初。人工智能发展初期的突破性进展大大提升了人们对人工智能的期望,人们开始尝试更具挑战性的任务,并提出了一些不切实际的研发目标。然而,接二连三的失败和预期目标的落空(例如,无法用机器证明两个连续函数之和还是连续函数、机器翻译闹出笑话等),使人工智能的发展走入低谷。
三是应用发展期:20世纪70年代初—80年代中。20世纪70年代出现的专家系统模拟人类专家的知识和经验解决特定领域的问题,实现了人工智能从理论研究走向实际应用、从一般推理策略探讨转向运用专门知识的重大突破。专家系统在医疗、化学、地质等领域取得成功,推动人工智能走入应用发展的新高潮。
四是低迷发展期:20世纪80年代中—90年代中。随着人工智能的应用规模不断扩大,专家系统存在的应用领域狭窄、缺乏常识性知识、知识获取困难、推理方法单一、缺乏分布式功能、难以与现有数据库兼容等问题逐渐暴露出来。
五是稳步发展期:20世纪90年代中—2010年。由于网络技术特别是互联网技术的发展,加速了人工智能的创新研究,促使人工智能技术进一步走向实用化。1997年国际商业机器公司(简称IBM)深蓝超级计算机战胜了国际象棋世界冠军卡斯帕罗夫,2008年IBM提出“智慧地球”的概念。以上都是这一时期的标志性事件。
六是蓬勃发展期:2011年至今。随着大数据、云计算、互联网、物联网等信息技术的发展,泛在感知数据和图形处理器等计算平台推动以深度神经网络为代表的人工智能技术飞速发展,大幅跨越了科学与应用之间的“技术鸿沟”,诸如图像分类、语音识别、知识问答、人机对弈、无人驾驶等人工智能技术实现了从“不能用、不好用”到“可以用”的技术突破,迎来爆发式增长的新高潮。
现状与影响
对于人工智能的发展现状,社会上存在一些“炒作”。比如说,认为人工智能系统的智能水平即将全面超越人类水平、30年内机器人将统治世界、人类将成为人工智能的奴隶,等等。这些有意无意的“炒作”和错误认识会给人工智能的发展带来不利影响。因此,制定人工智能发展的战略、方针和政策,首先要准确把握人工智能技术和产业发展的现状。
专用人工智能取得重要突破。从可应用性看,人工智能大体可分为专用人工智能和通用人工智能。面向特定任务(比如下围棋)的专用人工智能系统由于任务单一、需求明确、应用边界清晰、领域知识丰富、建模相对简单,形成了人工智能领域的单点突破,在局部智能水平的单项测试中可以超越人类智能。人工智能的近期进展主要集中在专用智能领域。例如,阿尔法狗(AlphaGo)在围棋比赛中战胜人类冠军,人工智能程序在大规模图像识别和人脸识别中达到了超越人类的水平,人工智能系统诊断皮肤癌达到专业医生水平。
通用人工智能尚处于起步阶段。人的大脑是一个通用的智能系统,能举一反三、融会贯通,可处理视觉、听觉、判断、推理、学习、思考、规划、设计等各类问题,可谓“一脑万用”。真正意义上完备的人工智能系统应该是一个通用的智能系统。目前,虽然专用人工智能领域已取得突破性进展,但是通用人工智能领域的研究与应用仍然任重而道远,人工智能总体发展水平仍处于起步阶段。当前的人工智能系统在信息感知、机器学习等“浅层智能”方面进步显著,但是在概念抽象和推理决策等“深层智能”方面的能力还很薄弱。总体上看,目前的人工智能系统可谓有智能没智慧、有智商没情商、会计算不会“算计”、有专才而无通才。因此,人工智能依旧存在明显的局限性,依然还有很多“不能”,与人类智慧还相差甚远。
人工智能创新创业如火如荼。全球产业界充分认识到人工智能技术引领新一轮产业变革的重大意义,纷纷调整发展战略。比如,谷歌在其2017年年度开发者大会上明确提出发展战略从“移动优先”转向“人工智能优先”,微软2017财年年报首次将人工智能作为公司发展愿景。人工智能领域处于创新创业的前沿。麦肯锡公司报告指出,2016年全球人工智能研发投入超300亿美元并处于高速增长阶段;全球知名风投调研机构CBInsights报告显示,2017年全球新成立人工智能创业公司1100家,人工智能领域共获得投资152亿美元,同比增长141%。
创新生态布局成为人工智能产业发展的战略高地。信息技术和产业的发展史,就是新老信息产业巨头抢滩布局信息产业创新生态的更替史。例如,传统信息产业代表企业有微软、英特尔、IBM、甲骨文等,互联网和移动互联网时代信息产业代表企业有谷歌、苹果、脸书、亚马逊、阿里巴巴、腾讯、百度等。人工智能创新生态包括纵向的数据平台、开源算法、计算芯片、基础软件、图形处理器等技术生态系统和横向的智能制造、智能医疗、智能安防、智能零售、智能家居等商业和应用生态系统。目前智能科技时代的信息产业格局还没有形成垄断,因此全球科技产业巨头都在积极推动人工智能技术生态的研发布局,全力抢占人工智能相关产业的制高点。
人工智能的社会影响日益凸显。一方面,人工智能作为新一轮科技革命和产业变革的核心力量,正在推动传统产业升级换代,驱动“无人经济”快速发展,在智能交通、智能家居、智能医疗等民生领域产生积极正面影响。另一方面,个人信息和隐私保护、人工智能创作内容的知识产权、人工智能系统可能存在的歧视和偏见、无人驾驶系统的交通法规、脑机接口和人机共生的科技伦理等问题已经显现出来,需要抓紧提供解决方案。
趋势与展望
经过60多年的发展,人工智能在算法、算力(计算能力)和算料(数据)等“三算”方面取得了重要突破,正处于从“不能用”到“可以用”的技术拐点,但是距离“很好用”还有诸多瓶颈。那么在可以预见的未来,人工智能发展将会出现怎样的趋势与特征呢?
从专用智能向通用智能发展。如何实现从专用人工智能向通用人工智能的跨越式发展,既是下一代人工智能发展的必然趋势,也是研究与应用领域的重大挑战。2016年10月,美国国家科学技术委员会发布《国家人工智能研究与发展战略计划》,提出在美国的人工智能中长期发展策略中要着重研究通用人工智能。阿尔法狗系统开发团队创始人戴密斯·哈萨比斯提出朝着“创造解决世界上一切问题的通用人工智能”这一目标前进。微软在2017年成立了通用人工智能实验室,众多感知、学习、推理、自然语言理解等方面的科学家参与其中。
从人工智能向人机混合智能发展。借鉴脑科学和认知科学的研究成果是人工智能的一个重要研究方向。人机混合智能旨在将人的作用或认知模型引入到人工智能系统中,提升人工智能系统的性能,使人工智能成为人类智能的自然延伸和拓展,通过人机协同更加高效地解决复杂问题。在我国新一代人工智能规划和美国脑计划中,人机混合智能都是重要的研发方向。
从“人工+智能”向自主智能系统发展。当前人工智能领域的大量研究集中在深度学习,但是深度学习的局限是需要大量人工干预,比如人工设计深度神经网络模型、人工设定应用场景、人工采集和标注大量训练数据、用户需要人工适配智能系统等,非常费时费力。因此,科研人员开始关注减少人工干预的自主智能方法,提高机器智能对环境的自主学习能力。例如阿尔法狗系统的后续版本阿尔法元从零开始,通过自我对弈强化学习实现围棋、国际象棋、日本将棋的“通用棋类人工智能”。在人工智能系统的自动化设计方面,2017年谷歌提出的自动化学习系统(AutoML)试图通过自动创建机器学习系统降低人员成本。
人工智能将加速与其他学科领域交叉渗透。人工智能本身是一门综合性的前沿学科和高度交叉的复合型学科,研究范畴广泛而又异常复杂,其发展需要与计算机科学、数学、认知科学、神经科学和社会科学等学科深度融合。随着超分辨率光学成像、光遗传学调控、透明脑、体细胞克隆等技术的突破,脑与认知科学的发展开启了新时代,能够大规模、更精细解析智力的神经环路基础和机制,人工智能将进入生物启发的智能阶段,依赖于生物学、脑科学、生命科学和心理学等学科的发现,将机理变为可计算的模型,同时人工智能也会促进脑科学、认知科学、生命科学甚至化学、物理、天文学等传统科学的发展。
人工智能产业将蓬勃发展。随着人工智能技术的进一步成熟以及政府和产业界投入的日益增长,人工智能应用的云端化将不断加速,全球人工智能产业规模在未来10年将进入高速增长期。例如,2016年9月,咨询公司埃森哲发布报告指出,人工智能技术的应用将为经济发展注入新动力,可在现有基础上将劳动生产率提高40%;到2035年,美、日、英、德、法等12个发达国家的年均经济增长率可以翻一番。2018年麦肯锡公司的研究报告预测,到2030年,约70%的公司将采用至少一种形式的人工智能,人工智能新增经济规模将达到13万亿美元。
人工智能将推动人类进入普惠型智能社会。“人工智能+X”的创新模式将随着技术和产业的发展日趋成熟,对生产力和产业结构产生革命性影响,并推动人类进入普惠型智能社会。2017年国际数据公司IDC在《信息流引领人工智能新时代》白皮书中指出,未来5年人工智能将提升各行业运转效率。我国经济社会转型升级对人工智能有重大需求,在消费场景和行业应用的需求牵引下,需要打破人工智能的感知瓶颈、交互瓶颈和决策瓶颈,促进人工智能技术与社会各行各业的融合提升,建设若干标杆性的应用场景创新,实现低成本、高效益、广范围的普惠型智能社会。
人工智能领域的国际竞争将日益激烈。当前,人工智能领域的国际竞赛已经拉开帷幕,并且将日趋白热化。2018年4月,欧盟委员会计划2018—2020年在人工智能领域投资240亿美元;法国总统在2018年5月宣布《法国人工智能战略》,目的是迎接人工智能发展的新时代,使法国成为人工智能强国;2018年6月,日本《未来投资战略2018》重点推动物联网建设和人工智能的应用。世界军事强国也已逐步形成以加速发展智能化武器装备为核心的竞争态势,例如美国特朗普政府发布的首份《国防战略》报告即谋求通过人工智能等技术创新保持军事优势,确保美国打赢未来战争;俄罗斯2017年提出军工拥抱“智能化”,让导弹和无人机这样的“传统”兵器威力倍增。
人工智能的社会学将提上议程。为了确保人工智能的健康可持续发展,使其发展成果造福于民,需要从社会学的角度系统全面地研究人工智能对人类社会的影响,制定完善人工智能法律法规,规避可能的风险。2017年9月,联合国犯罪和司法研究所(UNICRI)决定在海牙成立第一个联合国人工智能和机器人中心,规范人工智能的发展。美国白宫多次组织人工智能领域法律法规问题的研讨会、咨询会。特斯拉等产业巨头牵头成立OpenAI等机构,旨在“以有利于整个人类的方式促进和发展友好的人工智能”。
态势与思考
当前,我国人工智能发展的总体态势良好。但是我们也要清醒看到,我国人工智能发展存在过热和泡沫化风险,特别在基础研究、技术体系、应用生态、创新人才、法律规范等方面仍然存在不少值得重视的问题。总体而言,我国人工智能发展现状可以用“高度重视,态势喜人,差距不小,前景看好”来概括。
高度重视。党中央、国务院高度重视并大力支持发展人工智能。习近平总书记在党的十九大、2018年两院院士大会、全国网络安全和信息化工作会议、十九届中央政治局第九次集体学习等场合多次强调要加快推进新一代人工智能的发展。2017年7月,国务院发布《新一代人工智能发展规划》,将新一代人工智能放在国家战略层面进行部署,描绘了面向2030年的我国人工智能发展路线图,旨在构筑人工智能先发优势,把握新一轮科技革命战略主动。国家发改委、工信部、科技部、教育部等国家部委和北京、上海、广东、江苏、浙江等地方政府都推出了发展人工智能的鼓励政策。
态势喜人。据清华大学发布的《中国人工智能发展报告2018》统计,我国已成为全球人工智能投融资规模最大的国家,我国人工智能企业在人脸识别、语音识别、安防监控、智能音箱、智能家居等人工智能应用领域处于国际前列。根据2017年爱思唯尔文献数据库统计结果,我国在人工智能领域发表的论文数量已居世界第一。近两年,中国科学院大学、清华大学、北京大学等高校纷纷成立人工智能学院,2015年开始的中国人工智能大会已连续成功召开四届并且规模不断扩大。总体来说,我国人工智能领域的创新创业、教育科研活动非常活跃。
差距不小。目前我国在人工智能前沿理论创新方面总体上尚处于“跟跑”地位,大部分创新偏重于技术应用,在基础研究、原创成果、顶尖人才、技术生态、基础平台、标准规范等方面距离世界领先水平还存在明显差距。在全球人工智能人才700强中,中国虽然入选人数名列第二,但远远低于约占总量一半的美国。2018年市场研究顾问公司CompassIntelligence对全球100多家人工智能计算芯片企业进行了排名,我国没有一家企业进入前十。另外,我国人工智能开源社区和技术生态布局相对滞后,技术平台建设力度有待加强,国际影响力有待提高。我国参与制定人工智能国际标准的积极性和力度不够,国内标准制定和实施也较为滞后。我国对人工智能可能产生的社会影响还缺少深度分析,制定完善人工智能相关法律法规的进程需要加快。
前景看好。我国发展人工智能具有市场规模、应用场景、数据资源、人力资源、智能手机普及、资金投入、国家政策支持等多方面的综合优势,人工智能发展前景看好。全球顶尖管理咨询公司埃森哲于2017年发布的《人工智能:助力中国经济增长》报告显示,到2035年人工智能有望推动中国劳动生产率提高27%。我国发布的《新一代人工智能发展规划》提出,到2030年人工智能核心产业规模超过1万亿元,带动相关产业规模超过10万亿元。在我国未来的发展征程中,“智能红利”将有望弥补人口红利的不足。
当前是我国加强人工智能布局、收获人工智能红利、引领智能时代的重大历史机遇期,如何在人工智能蓬勃发展的浪潮中选择好中国路径、抢抓中国机遇、展现中国智慧等,需要深入思考。
树立理性务实的发展理念。任何事物的发展不可能一直处于高位,有高潮必有低谷,这是客观规律。实现机器在任意现实环境的自主智能和通用智能,仍然需要中长期理论和技术积累,并且人工智能对工业、交通、医疗等传统领域的渗透和融合是个长期过程,很难一蹴而就。因此,发展人工智能要充分考虑到人工智能技术的局限性,充分认识到人工智能重塑传统产业的长期性和艰巨性,理性分析人工智能发展需求,理性设定人工智能发展目标,理性选择人工智能发展路径,务实推进人工智能发展举措,只有这样才能确保人工智能健康可持续发展。
重视固本强基的原创研究。人工智能前沿基础理论是人工智能技术突破、行业革新、产业化推进的基石。面临发展的临界点,要想取得最终的话语权,必须在人工智能基础理论和前沿技术方面取得重大突破。我们要按照习近平总书记提出的支持科学家勇闯人工智能科技前沿“无人区”的要求,努力在人工智能发展方向和理论、方法、工具、系统等方面取得变革性、颠覆性突破,形成具有国际影响力的人工智能原创理论体系,为构建我国自主可控的人工智能技术创新生态提供领先跨越的理论支撑。
构建自主可控的创新生态。我国人工智能开源社区和技术创新生态布局相对滞后,技术平台建设力度有待加强。我们要以问题为导向,主攻关键核心技术,加快建立新一代人工智能关键共性技术体系,全面增强人工智能科技创新能力,确保人工智能关键核心技术牢牢掌握在自己手里。要着力防范人工智能时代“空心化”风险,系统布局并重点发展人工智能领域的“新核高基”:“新”指新型开放创新生态,如产学研融合等;“核”指核心关键技术与器件,如先进机器学习技术、鲁棒模式识别技术、低功耗智能计算芯片等;“高”指高端综合应用系统与平台,如机器学习软硬件平台、大型数据平台等;“基”指具有重大原创意义和技术带动性的基础理论与方法,如脑机接口、类脑智能等。同时,我们要重视人工智能技术标准的建设、产品性能与系统安全的测试。特别是我国在人工智能技术应用方面走在世界前列,在人工智能国际标准制定方面应当掌握话语权,并通过实施标准加速人工智能驱动经济社会转型升级的进程。
推动共担共享的全球治理。目前看,发达国家通过人工智能技术创新掌控了产业链上游资源,难以逾越的技术鸿沟和产业壁垒有可能进一步拉大发达国家和发展中国家的生产力发展水平差距。在发展中国家中,我国有望成为全球人工智能竞争中的领跑者,应布局构建开放共享、质优价廉、普惠全球的人工智能技术和应用平台,配合“一带一路”建设,让“智能红利”助推共建人类命运共同体。
作者:中央人民政府驻香港特别行政区联络办公室副主任、中国科学院院士
人工智能的社会、伦理与未来
中国社科院哲学所党委书记王立胜
吴彤教授指出,科技哲学包括人工智能哲学研究需要哲学和科学两个方面的两个积累。当下提出人工智能的社会、伦理与未来研究非常重要。仅从科学和技术的角度研究人工智能还不够,还需要引入哲学、社会学、伦理和未来研究等方面的研究,非常支持在自然辩证法研究会下建立一个专业委员会,在这个旗帜下,把工作做细、做深、做透,研究更为广泛深入系统。在人工智能快速发展过程中,对其社会和未来影响,要有伦理和哲学的关注,应与科技哲学密切结合,以促使人工智能的发展更为健康。
中国自然辩证法研究会副理事长、清华大学吴彤教授
以下是大会的主题报告。
中国人民大学刘晓力教授
上午第一场主题报告由中国人民大学的刘晓力教授主持。她认为:今天是我们人文学界和科学界的一个大聚集,非常高兴能够参加这样一个会议。我们将人工智能的社会、伦理与未来研究提到日程,跟其在上世纪90年代以后的发展有很大的关联。而这一轮报告由我来主持,我想可能是因为我多年来在人工智能科学和认知科学哲学领域的开展工作,比较了解人工智能的发展及其近年来革命性的变化。人工智能分为符号主义、计算主义等自上而下的道路和联结主义如包括神经网络、深度学习等自下而上的道路,但两者分别遇到了符号语义落地问题和物理落地问题,符号语义落地问题指机器不懂符号的语义,物理落地问题指目前发展的人工智能还不能与外部世界很好地打交道。因此有人提出将机器人能不能快递小哥一样满世界送披萨、能不能很好地跟老人打交道、能不能理解人的情感等作为新的图灵测试标准。人工智能的未来发展应该是从自上而下到自下而上的融合,社会伦理问题与两条路径融合的前景相关联。
中国人民大学教授刘大椿
中国人民大学一级教授刘大椿教授在报告《人工智能伦理考量的必要性和局限性》中指出,首先提出一个问题,即“为什么人工智能的伦理考量它具有必要性?”究其原因在于两点,其一是因为人工智能迅猛发展,全世界都十分重视人工智能和对人工智能的伦理考量。以欧盟发布的《人工智能伦理准则》(2019年4月8日)为例,他认为人文学者已经深度地参与到人工智能的发展之中,对此我们应予以关注。信赖的人工智能这是我们的目标,可信赖的人工智能它需要有一定的技术基,必须有伦理准则,实际上就是一种人文考察。可信赖的人工智能必须有两个组成。第一就是要尊重基本人权,人工智能还要尊重基本人权,基本的规章制度,核心的原则和价值观;第二就是在技术上应当是安全可靠的,要避免因为技术的不足造成意外的伤害。第二个原因是当下中国的人工智能的发展十分迅速,很多技术应用已走在前面,伦理考量越来越重要和必要,社会学,伦理学,未来学等方面的思考也不可少。应该看到,在伦理考量上欧盟等已经走在前面了,我们必须抓紧。此外,他也指出,我们要看到对高科技的人文思考包括伦理考量也有其局限性,即往往陷入非黑即白,这样看问题是不利于高科技发展的。科技界应该认识到,人工智能落地遇到的问题往往是社会、伦理和法律问题,不可能完全通过技术解决。哲学社会科学界应该紧跟我国新一代人工智能的发展,持续跟踪和评估人工智能研究的进展和问题,进而有针对性的展开相关研究。
中国人民大学暨美国科罗拉多矿业大学国际著名技术哲学家卡尔·米切姆
中国人民大学暨美国科罗拉多矿业大学国际著名技术哲学家卡尔·米切姆(CarlMitcham)在报告《闪光背后:追问人工智能》中指出:工程技术的发展往往会因其巨大收益而呈现出耀眼的光芒,在当前有关智能主体、深度学习、大数据以及通用人工智能等新一波人工智能热潮中,其应用性和便捷性又呈现出了新的耀眼承诺。但是人类无疑面临着更深远的挑战,而哲学的职责就在于帮助我们去察觉包括人工智能在内的新技术的黑暗的一面。恰如莎士比亚在《威尼斯商人》中的警告:“闪光的未必都是金子”。与此同时,哲学家们也应看到其先前努力中的无能之处,意识到哲学之闪光也未必是真金。
新加坡国立大学暨青岛大学未来学院院长葛树志教授
新加坡国立大学暨青岛大学未来学院院长葛树志教授在其《人工智能和社会机器人的思考》报告中指出:当前流行的深度学习只是机器学习的高峰,虽然人工智能在语音和图像识别上得到了广泛应用,但真正意义上的人工智能的发展还有很长的路要走。在应用层面,人工智能已经开始用于解决社会问题,各种服务机器人、辅助机器人、陪伴机器人、教育机器人等社会机器人和智能应用软件应运而生,各种伦理问题随之产生。人工智能伦理属于工程伦理,主要讲要遵循什么标准或准则可以保证安全,如IEEE的标准等。机器人伦理与人因工程相关,涉及人体工程学、生物学和人机交互,需要以人为中心的机器智能设计。随着推理、社会机器人进入家庭,如何保护隐私、满足个性都要以人为中心而不是以机器为中心设计。过度依赖社会机器人将带来一系列的家庭伦理问题。为了避免人工智能以机器为中心,需要法律和伦理研究参与其中,而相关伦理与哲学研究也要对技术有必要的了解。
上海社科院哲学所副所长成素梅教授
上海社科院哲学所副所长成素梅教授在报告《人工智能的职业伦理准则》中强调,传统的伦理与法律是围绕规范人的社会行为而展开的。伦理与法律的有两个本体论假设,一是人的社会性,二是人与工具的二分,即把工具看成是价值无涉的。然而,人工智能的广泛应用对这种人与工具二分的本体论假设提出了挑战。
因为,人工智能的“大脑”是“算法”,而以算法为核心的软件机器人既有自动监控能力和自主决策能力,也负载着文化,具有技术偏向和路径依赖性。在算法社会人与数据环境关系就会发生逆转,不是人来适应数字环境,而是数字环境来适应人。因此,重构算法社会的伦理规范,来确保人工智能造福于人类,成为改善人类生活的向善力量,成为当前的重要任务。
我们需要制定人工智能的职业伦理准则,来达到下列目标,(1)为防止人工智能技术的滥用设立红线;(2)提高职业人员的责任心和职业道德水准;(3)确保算法系统的安全可靠;(4)使算法系统的可解释性成为未来引导设计的一个基本方向;(5)使伦理准则成为人工智能从业者的工作基础;(6)提升职业人员的职业抱负和理想。
人工智能的职业伦理准则至少应包括下列几个方面,(1)确保人工智能更好地造福于社会;(2)在强化人类中心主义的同时,达到走出人类中心主义的目标,在二者之间形成双向互进关系;(3)避免人工智能对人类造成任何伤害;(4)确保人工智能体位于人类可控范围之内;(5)提升人工智能的可信性;(6)确保人工智能的可问责性和透明性;(7)维护公平;(8)尊重隐私、谨慎应用;(9)提高职业技能与提升道德修养并行发展。
北京邮电大学人机交互与认知工程实验室主任岗位教授
北京邮电大学人机交互与认知工程实验室主任岗位教授刘伟在报告《人机、智能及伦理》中指出:人机、智能与伦理在东西方不同语境下具有不同涵义,对人机、智能和伦理的完整思考需要东西方观念相互结合。人机、智能、伦理还涉及人—机—环境(包括伦理、商业、社会、自然、科技环境)之间的相互作用,关键在人机交互与人机融合。最后应该注意的是:一是所有的智能都是有范围的。以机器学习为例,它仅是一种隐喻。真正的学习本身包括潜在的范围不确定的和隐形的知识与规则;二是没有哲学的分析,所有的智能科学很难发展到今天这个程度,人工智能科学需要尊重哲学才能促进自身长远发展;三、智能科学、人机交互研究是由战争的需要催化出来的,要通过研究战争的规律和发展态势寻找新的研究线索。
复旦大学王国豫教授
第二场主题报告由复旦大学王国豫教授主持。她认为当下,无论是人文学者,还是科学家,人工智能都是一个热点话题。对于人工智能问题,一方面它本身是交叉学科,另一方面就是有关它的伦理问题。这些会讨论的并非是大数据或者人工智能的专门问题,而是人工智能能够带给我们什么。我有一个笔记本可以将我上课的录音转换成文字,长期积累下来对我很有帮助。从这个例子上来说,人工智能能够带给我们很大的方便,但是它也不是很完美,里面的错误还是非常多的。此次会议关于人工智能思考,有来自技术的、政策的、法律的还有来自哲学的,充分展示了关于人工智能社会、伦理和未来的研讨会是一个跨学科的平台。但是最后我希望再说一句给大家思考的问题,尽管平台具有跨学科、多视角的特点,但是我们作为一个探讨人工智能伦理社会的这样一个团体,未来要建立这么一个学会、想要发展下去,并且能够在这学科上给自己一个明确的支撑,我们必须要思考的就是我们研究的方法论基础是什么?我提醒大家思考一下,否则就会是走不下去的。
中国科学院自动化所曾毅研究员
中国科学院自动化所曾毅研究员在报告《人工智能准则及其技术模型》中指出:目前由不同国家地区的政府、非政府组织及研究机构和产业颁布的人工智能伦理准则提案已经超过40个。但不同的准则涉及到的议题视角各不相同。由于文化、地域、领域的差异,“大一统”的准则提案不但很难做到,而且没有必要。因此,不同国家、组织之间伦理准则如何协同很重要。同时,对人工智能风险、安全与伦理的思考急需进行算法化、模型化落地,从而确保人工智能向对社会有益的方向发展。由于技术发展会对伦理准则提出新的要求,这些准则如何进行技术落地、经受社会检验,再不断迭代完善,是未来要面临的更有意义的问题。在当前对人工智能伦理的讨论中,还有一些问题亟待解决。由于设计缺陷,现阶段的很多人工智能模型,忽略了对环境和社会造成的潜在隐患。此外,对自我的计算建模也是当前人工智能领域的一个关键研究问题,具有一定程度自我感知能力的人工智能模型将从本质上更利于自主学习、理解人类的价值观。
赛迪研究院政策法规所所长栾群
赛迪研究院政策法规所所长栾群在报告《人工智能创新发展伦理宣言的核心思想》中指出:当前应用人工智能技术的一些不良的现象和事件不断增多,人工智能相关伦理问题也不断的进入到公众的视线。国务院发的新一代人工智能发展规划,明确要求加强法律法规和道德伦理的制定。2018年7月11日,中国人工智能产业创新发展联盟发布了人工智能创新发展道德伦理宣言。宣言除了序言之外,一共有六个部分,分别是人工智能系统,人工智能与人类的关系,人工智能与具体接触人员的道德伦理要求,以及人工智能的应用和未来发展的方向,最后是附则。人工智能系统,基础数据应该是公平和客观的,采集和使用的时候应该尊重隐私。人工智能系统应该具有相应的技术风险的评估机制,以及要受到科学技术水平和道德伦理法律等人文价值的共同评价。与人类的关系,人工智能的发展应该始终以造福人类为宗旨,不能无论发展到什么阶段,不能改变由人类创造这样一个基本的事实。人工智能与人类的利益或个人合法利益相悖的时候,人工智能应该无条件的有一个停止或者暂停的机制。还要有具体接触人员的道德伦理要求,当然主要但不限于人工智能的研发使用研发者和使用者。人工智能的研发者应该确保其塑造人工智能的系统的自主意识,要符合人类主流的道德伦理的要求。人工智能产品使用者应当遵守遵循产品的既有使用的准则。人工智能的具体接触人员可以根据自身的经验去阐述,但是这种阐述应该本着一个诚实信用的原则,保持理性与客观,不得诱导公众的盲目热情,或者加剧公众的恐慌情绪。人工智能可以提供辅助决策,但是就目前发展来看,人工智能本身不能成为决策的主体。人工智能应该克制在军事领域的应用,也不应该成为侵犯他人合法权益的一个工具。未来的方向简单说就是融合创新,制定人工智能产业的发展标准,推动协同发展,在数据规范应用接口检测检验等各个方面,为消费者提供更好的服务和体验。要打造共性技术的支撑平台,营造人工智能产业生态的健康发展。健全人工智能法律法规。四点思考,第一要重视发展和治理的综合性,来避免计算主义贬低人类的生命。第二要强化人工智能伦理研究的阶段性。第三要建立生态影响评价评估体系。第四是建立人工智能的责任机制。
中国人民大学法学院副教授郭锐
中国人民大学法学院副教授郭锐在《人工智能的伦理标准化》中指出:我们的生活并不是完全由法律来规制的,而只能通过技术的准则、道德、法律规范共同规制。从法律的角度看,有很多问题等到法律去解决可能为时已晚。如果真的要解决问题,要回到技术的基础规则上,把规制的思考、伦理思考结合在技术发展的过程中。这一认识促使我承担了人工智能伦理标准化的研究。当前关于人工智能的伦理问题大致可分为算法、数据和应用方面的伦理问题等短期问题。算法相关问题包括算法安全、算法的可解释性和算法决策的困境。在数据方面,大数据和人工智能的发展,使隐私受到侵害的可能性增加,可能受到侵害的环节也增多了。传统上我们觉得不是隐私的信息,随着新技术的出现,都有可能与个人特征相关,而变成个人敏感信息。在应用方面。算法歧视和算法滥用值得关注。算法歧视有人为造成的歧视、数据驱动的歧视和机器学习造成的歧视。算法滥用往往是因为算法设计者出于自身的利益、过度的依赖算法或者盲目地扩大算法的应用范围造成的。社交媒体中用户的过度沉迷,电商利用消费者价格敏感度不高来设定价格,都属于算法滥用。除了算法、数据和应用这三个维度,我们还引入了时间维度,就是人工智能应用带来的长期风险,诸如就业、产权、竞争和责任分配领域的问题。这些问题并没有一劳永逸的解决方案,为了在现有条件下推进问题的解决,我们提出了两个基本原则:人类根本利益原则和责任原则。我们还据此提出人工智能伦理风险评估的指标和最佳实践指南,希望产学研各个部门和机构能够根据伦理风险的程度进行风险管理。
上海大学教授王天恩
上海大学教授王天恩在报告《类亲历性和人工智能的未来发展》中指出,在通用人工智能进化中,类亲历性是我们要关注的一个重要领域。今天的话题,有一个非常重要的向度就是人工智能的通用化一定是社会化,它不是一个单个的个体能够单独实现的。在很多研究中可以看到支持这一观点的根据。在《失控》这本书中,凯伦·凯勒有一个观点:“非群体系统不能(在生物学意义上)进化”。至少是通用智能进化是不可能以个体的方式进行的,人类进化史已经充分表明了这一点。由此,我们可以看到很多进一步的事实,得到一些进一步的结论。
现在都说目前的人工智能没有真正的理解,刚刚我们有专家也说到,现在的人工智能其实就是高级的自动化。候世达认为目前的人工智能进路完全错了,由此不可能达到真正的机器理解。这正与通用智能的类亲历性密切相关。通用智能意义上的理解,一定是类的行为。理解是一个发育的过程,这与理解所必不可少的语境密切相关。其实新一代人工智能为什么发展那么快,影响那么大,我认为其中一个重要原因,就是通过大数据纳入了人类语境。现在发展很快的智能翻译机,就是最典型的例子。以前的机器翻译是没有语境的,没有语境就不可能有真正的语言理解,但是把大数据纳入人工智能之后,就把人类的语境纳入到人工智能。语境的融合可能是人机融合进化最先开始的领域。由智能进化的类亲历性,还可以看到一个重要的基本事实:通用人工智能与人类智能具有相同的类本性,这使智能进化具有亲历优先原则,广义智能进化以具有亲历优势的人类智能为主导,但这绝不意味着在人工智能发展中人类可以高枕无忧。在广义智能进化过程中,如果在观念上作茧自缚,人类命运就可能走向很多人目前所担忧的结局。如果人类保持观念不断更新,人类就能永远引导智能发展。由此我们可以看到类亲历性之于人工智能的社会、伦理和未来发展所具有的丰富意蕴。
中国社科院哲学所研究员科学技术和社会研究中心主任段伟文
在大会倡议与讨论环节,中国社科院哲学所研究员科学技术和社会研究中心主任段伟文在《迎接人机共生社会的挑战——关于建立“人工智能的社会、伦理与未来研究专业委员会”的倡议》中指出,面对人工智能时代的来临,首先要思考的是我们所面对的未来挑战是什么?简单讲就是知识多到难以把握,世界复杂到无法掌控。相对于我们的理解和把握能力而言,我们创造了太多知识,以至于在面临危机时即便我们已经拥有可能解决危机的知识,也无从知道。召开这次会议的原因一是我们对人工智能的发展后果越来越重视,而我们已有大量知识并不能很好地应对。二是面对人工智能所带来的社会、伦理问题和人机共生社会的未来挑战,我们所掌握的知识变得不够用了。因此,我们在此郑重倡议,在中国自然辩证法研究会建立“人工智能的社会、伦理与未来研究专业委员会”,以此会聚相关领域研究者的智慧、打通学术研究与智库研究、构建整合观点与凝聚共识的研究网络,为促进中国新一代人工智能的健康快速发展做出应有的贡献。
为了积极应对人机共生社会的挑战,我们应该通过其后果与前景的深入研究与预见,将价值与伦理设计和嵌入到人工智能之中,使科技伦理成为科技的有机组成部分和基础。如果中国不仅在人工智能应用而且在人工智能的伦理和落地上走到世界前面,对伦理重视将成为我们的创新优势,这对智能文明在全世界的发展具有重大意义。有人误以为不重视伦理是创新优势,但当伦理问题不可回避时,是非与伦理标准的制定将有利于更好更快地创新。新兴科技包括人工智能的发展具有开放性与不确定性,相应的伦理和治理也应该是开放的和未完成,因此在伦理上应寻求开放性共识,治理上应施以适应性治理。同时,我们还要看到人工智能的发展所带来的去技能化的趋势,探索人机共生社会中人的技能化再生之路,进而寻求人类如何在人机共生社会中保持其尊严与自主性,人在精神上或得拯救与永生,为人类文明探索一条光明的道路。
中国人民大学哲学院刘永谋教授
研讨会在下午继续举行。下午的第三场主题报告由北京农业大学教授、北京自然辩证法研究会理事长李建军,西安电子科技大学人文学院副院长、哲学系主任马德林联合主持。
中国人民大学哲学院刘永谋教授作了题为《技术治理、反治理与再治理:以智能治理为例》的报告。在智能革命的背景之下,技术治理与智能治理成为当前热点研究问题。技术治理试图将自然科学技术的成果用于社会运行尤其是公共治理活动之中,以提高现代社会的运行效率,而智能治理将最新的智能技术运用于治理活动中,属于技术治理新的战术手段,渗透到技术治理所有的重要战略如社会测量、计划体系、智库体系、科学行政、科学管理、科学城市与综合性大工程等之中。首要必须要肯定,将智能技术用于公共治理领域,对于提高社会运行效率和提高公众福祉作用很大,但是也存在智能治理沦为智能操控的危险,因而必须运用技术治理理论来研究智能治理的基本机制。智能治理和所有技术治理一样包括反治理和再治理活动,它们对于技术治理和智能治理的正常运行是建设性的。智能反治理主要涉及5个问题:智能低效、技术怠工、智能破坏、官僚主义智能化和过度治理。研究智能反治理的目的不是为了完全消除它,这是不可能的,而是为了达到治理-反治理的适度平衡,以提高智能治理的水平。智能治理存在各种风险,其中最大的政治风险在于:专家权力过大,威胁民主和自由,极端情况下可能导致机器乌托邦。智能再治理着力从制度上防范智能革命可能导致专家权力过大的政治风险,使智能治理服务于新时代中国特色社会主义建设事业,其核心问题包括:划定专家权力范围,权力越界的纠错制度。
南京大学哲学系潘天群教授
南京大学哲学系潘天群教授做了题为《机器认识论》的报告。认识论是一个传统哲学学科,其研究的是人类的知识是否可能、可靠知识的来源、如何辩护知识等问题。计算机是替代人的智力而得以被建造的,因而,从认识论的角度去思考机器是一个有趣的角度。既然人类的知识是涉身的,机器(人工智能体)拥有知识是否可能?如何理解机器的所谓推理以及知识学习?等等,这些便是机器认识论的内容。他认为机器具有演绎推理的能力,能够做有意义的演绎工作。纯粹的演绎推理被认为不能得到新知识。“演绎无新知”是建立在逻辑全能的基础之上的。如果演绎无新知,从事数学证明工作的那些数学家的工作便没有多少意义的了。某个定理之被证明本身便是一个有意义的工作。一个能够认识自然的机器是含有人类概念化的系统,并对它所“观察”的信息进行判断形成知识。这是一个“准人类”甚至“超人类”的智能体。想象一下,这样的智能体到太空中某个星球上通过信号“告知”我们,那儿有一种类似水的东西,外表与地球上的水完全一样,但其结构不是氢二氧一。它的观察方式是我们能够理解的,因而它告知我们的结论也是我们能够想象的。它们将接触到的信息整合成知识便是一个知识形成过程,这个函数便是知识形成函数。我们知道这个函数,因而能够理解它所说的。
中国社会科学院副研究员张昌盛
中国社会科学院副研究员张昌盛做了题为《意识与人工智能的限度》的报告。很多人工智能伦理研究都提到类主体、机器人的权利问题,还有像倪梁康等人谈人工意识。简单来说,很多对人工智能伦理问题的讨论都预设了一种强人工智能的立场。20世纪60年代以来,德雷福斯(HubertLedererDreyfus)多次批判说,功能主义的人工智能无法模仿海德格尔式的人与世界的存在论关系模式,也不是梅洛-庞帝的具身性的认知主体,达不到人的认知水平。塞尔基于生物自然主义对德雷福斯提出批评。塞尔认为,功能主义基于一种狭义算法,而人类大脑的生物运动神经元的活动乃至宇宙当中的所有的事物的运动也是一种广义的算法。只要我们找出了类似于人类的生物算法,那么类似于人类的智能乃至意识在理论上是可以实现的。因此,德雷福斯所谓主体的具身性及其与世界的生存论关系终究可以用广义的算法描述。
他认为,强人工智能不能实现。基于物理主义无法解决意识的“感受性质”问题。按照查尔莫斯的“哲学僵尸”论证,如果坚持物理主义,有智能并不一定有意识、智能机器永远没有体验,不知道自己在干什么。而且,人的意识也并不是基于仅仅基于生物的神经元基础。虽然人工智能不能产生意识,但是它可能逐渐逼近人的认知,弱人工智能应该是人的一种有力的工具。
我们思考人工智能的实现前景及应用影响时,有一些基本的问题始终拷问着伦理和哲学:人工智能本质到底是什么?他有没有意识,算不算主体?同时,人类的独特性是什么?人类的尊严在哪里?和近现代以来的人文主义理想可否保持?为了回答这些问题,我们不能不反思我们的基本理论预设,必须回溯到人工智能的本质、主体、意识这样一些最基础层面的问题。
北京工商大学的王东讲师
北京工商大学的王东讲师做了题为《智能时代科学发现的哲学反思》的报告。历史上新技术的出现总会带来新的科学发现,随着科学研究中的数据快速积累,使得数据驱动和智能驱动的科学发现成为可能,在天文学,高能粒子,合成化学,计算社会科学等领域都有应用。对于人工智能在科学中冷起到什么作用,在多大程度上能够替代科学家存在争议。有人认为人工智能与大数据方法等存在黑箱问题等各种局限,最终只能是科学家的一种辅助手段,其作用是让科学家能够处理大量的数据,但科学发现的核心过程还是需要人类本身的能力。而另一些则认为人类本身具有先天的认知缺陷,机器不仅能弥补甚至可能在各方面比人类做的还要好。当然更多的是折中综合的观点,认为应该取长补短共同发展,数据驱动方法与理论驱动方法可以相互结合,人与机器应该各尽所能,而当前需要关心的是如何协调好两者的互动关系。
科学家以及哲学家们对数据驱动和智能驱动的科学发现在科学方法论上的争论主要受到两个因素的影响:1.不同的科学研究领域和科学发现层次;2.对于是否存在科学发现的逻辑以及科学活动能否形式化的不同看法。
而争论的核心则是科学中的相关性与因果性的关系以及因果性能否形式化。当前因果机器推理的两个主要理论即潜在因果模型和因果图模型都有各自的问题,例如前者需要随机实验后者需要先验知识和严格的条件。所以短时间内在不考虑强人工智能的情况下,人工智能还只是一种工具没法涉及理论创新。
上海大学哲学系系主任杨庆峰教授
上海大学哲学系系主任杨庆峰教授做了《人工智能取代人类工作的哲学反思》的报告。他认为人工智能与人类整体关系具有双重维度:第一是物质性活动维度,即智能机器能否取代人类实践活动;第二是精神性活动维度,即机器智能能否超越人类智能。前者的设定是智能机器是人类的辅助性助手,取代人类活动的本质是人类活动的自动化趋势及其机器活动的涌现;后者更多触及的是人工智能的终极指向,涉及到通用人工智能和强人工智能的问题。面对人类被取代的未来前景,存在着四种态度:“批判”、“审视”、“适应”和“狂欢”。这四种态度缺乏对于人工智能的恐惧,只有持有人类对于人工智能的“恐惧”和“畏惧”,才能够导致合适的智能人文意识的发生,从而构建起人类与智能机器的自由关系。
上海交通大学副教授闫宏秀
上海交通大学副教授闫宏秀向研讨会做了《人工智能信任度的伦理解析》的报告。人工智能所带来的机遇与挑战,引发了全球社会各界的多维度反思。其中,关于人工智能的伦理思考是其中的一个主要议题。关于伦理方面的思考,事实上源自是关于人与技术关系的再度厘清与辨析。在这种厘清与辨析之中,人的伦理地位、技术的伦理意蕴、人与技术之间的伦理牵连、对人工智能技术图景的伦理描绘等问题被渐次呈现出来。在“以人为中心的人工智能(Human-CenteredAI)”、“人工智能伦理将是未来智能社会的发展基石”、2019年3月到4月之间,谷歌关于外部专家委员会(AdvancedTechnologyExternalAdvisoryCouncil)的风波等一方面是人工智能亟待伦理的参与,另一方面则反应了人工智能伦理构建中正在面临诸多问题。因此,需要对人工智能伦理为何以及何为进行深度解析。关于此,欧盟基于其伦理、安全、和尖端人工智能愿景,发布了《人工智能信任度的伦理框架》。对该框架的伦理逻辑、伦理预设、以及如何正确信任的解析将为人工智能伦理的构建提供有效的理论基础。
华东理工大学科学技术与社会研究所所长黄时进副教授
第四场主题报告由中国人民大学的刘永谋教授和北京航空航天大学的徐治立教授联合主持。
华东理工大学科学技术与社会研究所所长黄时进副教授做了题为:《未来的科学传播:基于人工智能的视角》的报告。他认为科学传播最初的形态被界定为“欠缺模型”(deficitmodel)的传统科普,经过20世纪80年代中期开始的公众理解科学(PublicUnderstandingofScinece)阶段,发展至今的公共参与(PublicParticipationorPublicEngagement)阶段,传播媒介也从牛顿时代的皇家学会期刊、报纸和图书,到20世纪的广播、电视、电影,至21世纪今天的网络时代,微信、微博、甚至抖音快手等新兴媒体成为科学传播的重要媒介。当代人工智能的兴起,为科学传播产生了积极的影响:其一是人工智能让科学传播中客体的“主体间性”(intersubjectivity)得到实现,真正进入公众参与科学传播阶段。借助人工智能的强大数据搜寻、识别和分析能力,普通公众可以相对容易获取自己需要的、浅层的科学技术知识。其二人工智能借助智能机器人极大提升科学传播的效用,特别是面向儿童青少年的科学传播,人机交互将成为主要形态,人工智能机器人将通过互动模式帮助儿童青少年儿童从小爱科学、用科学,提高动手能力,培养科学思维和科学精神。其三人工智能将淡化科学传播中的科学家的专长,而强化公众的交互思维和认知能力。在科学传播中,公众的交互思维素养主要基于人工智能时代人们交往方式的变化而得以提高,具体表现在学会开源共享、参与协商、组建社区等,理解复杂的相互关系等。同时独立思考、逻辑推理、信息加工等高阶认知能力得以提升。在人工智能的帮助下,未来的科学传播呈现以下三个特征:“深度社会化”、“个性化”和“持续自我创新化”。
中国人民大学哲学院的王小伟副教授
中国人民大学哲学院的王小伟副教授所做报告的题目是:《道德物化的意义》,向诸位学者介绍了技术哲学中的荷兰学派的一些研究。他认为近年来荷兰学派技术哲学收到普遍关注,况且荷兰确有一群很好的学者在做技术哲学工作。但细看会发现该学派并无统一研究纲领。维贝克(Peter-Paul-Verbeek)的研究方法是后现象学外加一些技术权力论。提出经验转向的克劳斯(PeterKreos)则基本上是分析的办法,做人工物本体论。乌得勒支大学伦理中心主任杜威尔(MarcusDuwell)则从康德和格沃斯传统来讨论技术伦理问题。方法虽有不同,但他们都有道德物化的诉求。克劳斯和佛贝克,包括梅耶斯(AntonieMeijers)联合编了一些人工物道德属性的书。如果荷兰技术哲学有个学派的话,道德物化是一个显著的标志,尽管不同学者的道德物化认识论基础不尽相同。
所谓道德物化,简单讲就是道德主体即不单是人也不单是物,而是人和物的集合。这意味着物本身不是价值中立而是负载道德的。因此,在设计物时,应有价值自觉地试图把公共善嵌到人工物里去。进而通过物的发端流行来实现善。安全带就是一种道德物化技术。系统会不断报警迫使你扣上它。道德物化概念一经介绍就引起了轰动。支持者认为可以通过物化道德来更好的实现善的生活(goodlife)。好处不论,这里主要介绍相关质疑。
佛贝克将质疑观点概括为三。一是自由侵害论;二是道德取消论;三是技治主义论。自由侵害论认为道德物化会侵害自由。康德认为人之为人是因其有自由理性的能动性(freerationalagency)。如在用物时,人被操纵,非自由地践行价值,那么自由将遭到侵害,尊严受到冒犯。在道德哲学情境中,人的尊严(humandignity)通常是一个红线词汇。一旦触碰,即遭禁止。道德取消论认为如果道德统统被嵌入进人工物,人符合道德要求的行为的道德性即被剥夺。因为它仅仅是符合并非出于道德要求。康德认为只有出于义务的行为(actfromduty)才道德,仅符合(actinaccordancewithduty)义务并不是。如果用物使得行为自然符合义务,道德就被取消了。被安全带噪音骚扰,不厌其烦地系上它并不是一个道德行为。最后,技治主义论认为道德物化给工程师过度赋权。绝大多数老百姓注定没有工程和设计知识,因此必然把道德抉择让渡给了专家。技术专家来衡量好坏,进行价值排序,进而决定物化和实现什么价值。这从根本上是反民主的。佛贝克虽然列举了以上问题,但他并未从认识论角度回应以上挑战。我认为道德物化实际上应该叫价值物化。被物化的特定的价值而不是道德。道德按照康德说法预设主体的内在心理过程,即按照理性的要求拒斥本能。道德物化取消了主体的道德自治,也就无所谓道德。
南开大学哲学院陶锋副教授
南开大学哲学院陶锋副教授做了题为:《美的理性:马克思主义与人工智能美学》的报告。在报告中,他指出人工智能艺术的出现,使得人们需要重新思考美的规律、艺术与科技、理性与人类解放的关系。“美的理性”人工智能美学中核心问题,是基于马克思、本雅明、阿多诺和马尔库塞等思想家对理性和美学的探讨之上所提出来的,它包含了两个层面:首先是“美的规律”。人工智能可以模拟人来生成艺术,为艺术的规则化、算法化提供了可能。人工智能艺术可以分为三个层面:1.人工智能生成艺术;2.人工智能本身是艺术与科技的结合;3.人工智能与网络、大数据结合发展的超级智能,可能会实现社会艺术、人类艺术。人工智能美学研究还包括情感、创造性等如何实现算法化。而目前的人工智能艺术的目的主要还是为了技术所服务。
“美的理性”另一层面是“理性之美”。法兰克福学派批判了工具理性。而这种技术理性进一步发展成了设计理性:智能、生命都是可以设计的了。但是无论是工具理性还是设计理性,理性都是一种未能实现自律的工具。因此,理性要想实现自律,就需要实现技术、艺术的自律,适当去除政治维度,不能仅仅发展“美的德性”。理性的自律还要求理性要有限度——“有限的理性”,即正确处理技术与艺术、人与自然、主体与客体的关系。阿多诺认为,我们可以用艺术中摹仿要素来纠偏工具理性,从而实现和解。我们发展人工智能的同时,也需要思考如何以“美的理性”作为基本原则,让人工智能适度发展、着力于提升人类社会的美与和谐。“美的理性”是美的规律和理性之美的统一,人工智能在艺术和美学的发展,可以为这种统一提供一个契机。
人工智能美学还涉及到了人类解放问题。马克思在其机器与劳动理论中,提到了机器取代人的体力劳动,却加剧了人的劳动异化程度。人工智能技术则进一步地会取代人的脑力劳动,而这似乎加深了人的异化程度。本雅明所提到的“文学的技术”和“审美生产”变成了异化劳动。人工智能艺术正在成为文化工业中重要部分,人们的闲暇被娱乐工业所控制,一些基于人工智能和大数据技术的娱乐app如“抖音”,使得艺术和娱乐被精确计算了。人类或许永远无法回到“感性”状态,人与自然被人工之物彻底中介和隔离了。这种情况下,“美的理性”更有实践意义。理性被美所引导,技术为实现人类美好生活所服务,人类和社会成为美的艺术。
中国社会科学院哲学研究所研究员段伟文
中国社会科学院哲学研究所研究员,即这次研讨会的筹划人段伟文做了题为《机器智能的非人格化权力与主体重塑》的报告。他认为数据驱动的机器智能正在成为一种新的主体型范机制:智能治理和智能化自我治理(如量化自我等)。这与福柯有关主体的塑造的权力技术和自我技术有关,两者分别为支配他人的技术和支配自我的技术;同时,又涉及到德勒兹在《尼采与哲学》中探讨过的能动力与反动力。在尼采的由力所构筑的世界观中,人的意志是能动力与反动力等力的关系的产物,主体的塑造是由特定的力与力之间的关系所形成非人格化的权力运作的结果。数据驱动的机器智能对主体的型范或塑造所采用的是关联本体论而不是关系本体论/实在论或属性本体论/实在论,这一特质使权力技术与自我技术、能动力与反动力呈现为一种微分式的非人格化权力。这意味着,拉图尔的异质性行动者网络和西蒙栋的个体化(individualization)等主体塑造机制将受到挑战:由机器智能所塑造的主体可能会丧失其能动性,而成为智能治理这一新的权力技术在数据向量空间中进行微细预控的对象。实际上,算法权力从权力谱系上与现代以降的测量的权力、档案的权力、索引的权力一脉相承,不论是智能监控、内容推荐还是量化自我,都在一定程度上将主体的个体化转换为碎片化的数据标签或德勒兹的控制社会意义上的算法“分格”。这种基于数据的机器智能的社会运用与其说是对主体的行为预控,毋宁说是对主体潜能的抑制。
为了应对机器智能的非人格化权力,主体可在智能化的生活中探索有助于提升主体塑造的自主性与能动性的生活策略,以寻求更加人性化的主体重塑进路。其一,反思智能化关注与认知中主体的角色。先厘清主体究竟是被观看与分析者还是观看与分析者,在此基础上探索反向智能关注与自我智能关注的可能性,进而揭示出数据智能背后的虚拟的主体性与外在的能动性,使主体的数据孪生成为其自身可掌控的开放性的个体化过程,而非被操控且丧失自我改变潜能的数据僵尸。其二,审度智能化时代的知识与自由之关系。以反思数据行为主义对人的生成性和自我改变潜能的抑制为切入点,探寻机器智能的限度,实现从有为的自由(做一切可为之事的自由)到无为的自由(不做能做之事的自由)、从“无止境的知识探寻”到“有选择的无知”的权力的莫比乌斯翻转。
浙江大学马克思主义学院潘恩荣教授
第五场主题报告由北京理工大学的范春平教授和中国社会科学院研究员梁俊兰主持。
浙江大学马克思主义学院潘恩荣教授所做报告的题目是《面向技术本身的人工智能伦理框架——以自动驾驶为例》。他认为技术与伦理的相互对立甚至对立是目前人工智能产业界难以应对伦理挑战的根源之一。例如,自动驾驶产业化过程中碰到了电车难题,技术专家不知道怎么办,于是,技术专家请伦理专家给出解决方案。然而,伦理专家也无法承受如此之重任,因为他无权决定谁应该被撞死。
将技术与伦理融合为一种面向技术本身的人工智能伦理框架,我们可以避开或者破解上述难题。人工智能伦理问题发生在人工智能技术(人工物)的使用情景中,即人工智能技术(人工物)介入了人与人之间,改变了原来“应该的人与人的关系”而引发了新的冲突——伦理问题。从一个人工智能的使用情景出发,追溯到设计情景当中,我们可以把人工智能伦理与人工智能技术问题放在一个框架中进行考量,将有助于解决自动驾驶的问责问题。
下一步做研究有三个可能路径。第一个是在第二种经验转向基础上结合伦理转向,走向价值论转向;第二个是科学的实践哲学研究进路,将伦理实践跟科技实践结合起来;第三个是马克思主义人工智能哲学或者人工智能马克思主义的进路,在协作分工基础上形成的包含伦理的制度,最后固化到机器或代码上。
上海师范大学马克思主义学院副教授苏令银
上海师范大学马克思主义学院副教授苏令银做了题为:《论智能时代道德机器创造的伦理挑战》。在报告中,他认为基于人工智能的巨大技术进步,完全自主的、类人化的、能够进行伦理推理和决策的智能机器的出现似乎是不可避免的。然而,非伦理学家(如计算机科学、人工智能和机器人领域的研究人员和程序员)在创造道德机器时所面临的伦理挑战。伦理是否“可计算”首先取决于程序员如何理解伦理,以及他们对这些领域中的伦理问题和方法论挑战的理解是否充分。
从道德决策的哲学基础看,机器缺乏自由意志,而自由意志本身通常被理解为是道德能动性的先决条件。基于自由意志反对由于智能机器算法的性质而否定它们的道德能动性,这是无法令人信服的。詹姆斯.摩尔对各种形式的道德能动者进行了重要的区分。没有理由不认真考虑智能机器成为完全的道德能动者的可能性。对于如何实现智能机器的道德决策和道德推理已经有了一些尝试比如自下而上的方法;自上而下的方法;混合方法;其他方法,如基于网络的方法、佛教的方法等决策系统模型。
上述领域研究人员和程序员由于普遍缺乏伦理专业知识,至少面临两种类型的问题:一是伦理专业知识的缺乏。这类问题可以通过向这些人提供必要的道德知识来解决;二是更困难的方法论问题。这涉及学界在伦理学方面存在分歧的领域,目前没有容易的解决办法。道德专家们对于使用哪种伦理理论没有共识,比如电车难题和机器偏见等。伦理学中有着几个长期存在的方法论问题,比如正当性问题和多元主义伦理理论问题,即使是道德哲学家也没有解决。对这些类似问题的熟悉可以帮助他们避免陷阱,构建更好的道德机器。道德机器的伦理决策应以避免不道德行为为基础并与解决道德问题的多元伦理方法相结合,而不是依赖于特定的伦理方法来避免规范的偏见。
未来很可能出现一种道德机器,它能够在没有任何人类监督的情况下自主地进行伦理推理和决策。机器人伦理学研究表明,研究人员和程序员需要向伦理学家寻求建议,以便更好地理解伦理学中根深蒂固的方法论问题。如果他们不适当地处理这些问题,他们创造适当的道德机器的努力将受到严重破坏。如何判断哪些行为在道德上是正确的,是我们生活中最困难的问题之一。理解这些决策所涉及的伦理陷阱和挑战,对于创造智能的、公正的道德机器是绝对必要的。
大连理工大学哲学系讲师于雪
大连理工大学哲学系讲师于雪向参会学者做了题为《人工智能伦理准则建构的方法论问题》的报告。随着人工智能2.0时代的来临,大数据智能、群体智能、跨媒体智能、混合增强智能和自主智能逐渐走向成熟。同时,“人工智能+互联网+区块链”的技术合作模式激发了人工智能技术在各个领域的应用,掀起了新一代技术革命。在这样的时代背景下,建构人工智能的相关伦理准则不仅重要而且必要。但是,人工智能伦理准则的建构并非易事,这其中存在着文化困境、伦理规范的困境、利益相关者的价值困境,以及技术困境这四个方面的问题。建构适宜的人工智能伦理准则首先需要克服这些困境,具体的逻辑建构体系包括人工智能语言体系、人工智能价值体系、人工智能标准体系、人工智能责任体系和人工智能评价体系五个方面。并且,人工智能伦理准则的建构需要以“实践智慧”为核心,及时有效地调整人工智能伦理标准的实施方法,以弹性伦理原则为核心,力求最大程度地实现人工智能伦理准则的实践有效性。
免责声明:本文系网络转载,版权归原作者所有。如涉及作品版权问题,请与我们联系,我们将根据您提供的版权证明材料确认版权并支付稿酬或者删除内容。返回搜狐,查看更多
人工智能是双刃剑,发展需妥善处理技术和社会的关系
人工智能技术的发展将深刻改变人类的生活,引发社会形态和社会结构的深刻变迁,对现有的人类伦理与社会秩序造成一系列影响,带来诸多伦理与社会治理问题。因此,有必要构建起“人—技术—社会—国家”的分析框架全面审视和研究人工智能社会。
其一,妥善处理人与技术的关系,研究在人工智能时代如何秉持“人本”理念。“人本”观念萌芽于古希腊时期,是相对于“神本”、“物本”而言的,最初属于哲学范畴,之后人本观念才逐渐被扩展至政治、经济和管理等领域。
时至人工智能时代,人与技术的关系仍然是需要从哲理层面予以阐释的基本问题,如何在人工智能时代继续秉持“人本”理念是需要深思熟虑的人类之问。仍要关怀人工智能时代现实人的生存方式及生活价值,从现代科技发展、人的现实境遇、内心世界及文化境况等方面研究人的问题。要在“人—技术”的互动关系中找寻人与技术的协调发展,尽可能趋近人的自由和全面发展。
其二,妥善处理技术与社会的关系,研究在人工智能时代如何维持社会良好秩序。人工智能时代的到来必然引起社会变迁,从而形成智能社会。传统社会到现代社会变迁的过程中,地理空间上的流动很大,已经从国内不同区域之间的流动扩展到国际流动。在智能社会促进的社会变迁到来时,社会流动性会更强,不仅是人口的流动,还有资源的流动、技术的流动和文化的流动等。人工智能帮助人们提高生活质量,更好更快更便捷地进行生产生活和工作学习,促使新型社会状态的生成与嬗变。这个过程改变了人们的思维方式、学习方式、工作方式、娱乐方式、人际交往模式、职业模式等。
同时也需清醒地认识到人工智能将解构现存的社会秩序与社会结构,新型社会秩序的构建将是不可回避的现实问题。如对于人工智能是否会加剧社会不平等存在着两种观点。一部分人认为,工业时代的到来使大部分劳动力失业,机器代替人工,使资本集中在少数人手中,造成了社会不平等,即将到来的智能社会也会出现此种状况。而另一部分人认为,这种不平等只是暂时的,下岗的劳动力虽然失去了工作机会,但是通过学习新的知识技能再就业,适应社会发展,长期来看依然平等。
事实上,人工智能是一把双刃剑,它既能助力经济社会转型升级,为人们提供更为公平的竞争机会,也会引发就业问题而影响社会稳定,甚至会因技术垄断而加剧社会差距、社会分化和社会冲突。因此,在从工业社会向智能社会过渡的社会变迁转型期,政府应该前瞻性地供应保证机会公平的法律制度,加强人们技能教育和培训力度,减少“累积性不平等”,为智能社会做出新的贡献。
另外,大数据带来的资源多样化趋势,加剧了不同群体、不同单位和不同部门之间人群的利益多元化趋势,促进不同主体明晰利益边界,使利益目标更加独立。同时又存在如何协调不同利益主体的利益关系和利益诉求问题。人工智能所带来的社会变迁使人们的生活方式、利益需求和生活目标多样化,因此需要建立健全与传统体制不同的智能社会利益协调与整合机制。
其三,妥善处理技术与国家的关系,研究在人工智能时代如何提升治国理政能力。恩格斯在《家庭、私有制和国家的起源》一书中早就深刻地指出,国家是社会在一定发展阶段上的产物,人类颇难拔着自己的头发离开地球,有着利益关系的地方必然存在政治关系,在人工智能时代仍然需要提升国家和政党的治国理政能力。
智能社会有利于建立更为自由的公众舆论平台,为民众自主政治参与提供了更为宽松的舆论氛围和技术支持,同时也拓展了公民及新兴利益群体表达自身利益诉求的社会空间,这必将对政府治理、政党治理和国家治理产生广泛而深刻的影响。民主法治制度是人类迄今为止所发现的协调和解决社会利益矛盾的最重要、最文明的机制,在人工智能时代如何发展和完善民主法治依然是重要课题,建立健全民主法治制度以妥善处理智能社会中技术与国家的关系依然任重道远。
(作者系深圳大学城市治理研究院执行院长、当代中国政治研究所副所长、党内法规研究中心主任)