博舍

人工智能的发展与未来 人工智能哪些问题被解决

人工智能的发展与未来

随着人工智能(artificialintelligent,AI)技术的不断发展,各种AI产品已经逐步进入了我们的生活。

现如今,各种AI产品已经逐步进入了我们的生活|Pixabay

19世纪,作为人工智能和计算机学科的鼻祖,数学家查尔斯·巴贝奇(CharlesBabbage)与艾达·洛夫莱斯(AdaLovelace)尝试着用连杆、进位齿轮和打孔卡片制造人类最早的可编程数学计算机,来模拟人类的数理逻辑运算能力。

20世纪初期,随着西班牙神经科学家拉蒙-卡哈尔(RamónyCajal)使用高尔基染色法对大脑切片进行显微观察,人类终于清晰地意识到,我们几乎全部思维活动的基础,都是大脑中那些伸出细长神经纤维、彼此连接成一张巨大信息网络的特殊神经细胞——神经元。

至此,尽管智能的具体运作方式还依然是个深不见底的迷宫,但搭建这个迷宫的砖瓦本身,对于人类来说已经不再神秘。

智能,是一种特殊的物质构造形式。

就像文字既可以用徽墨写在宣纸上,也可以用凿子刻在石碑上,智能,也未必需要拘泥于载体。随着神经科学的启迪和数学上的进步,20世纪的计算机科学先驱们意识到,巴贝奇和艾达试图用机械去再现人类智能的思路,在原理上是完全可行的。因此,以艾伦·图灵(AlanTuring)为代表的新一代学者开始思考,是否可以用二战后新兴的电子计算机作为载体,构建出“人工智能”呢?

图灵在1950年的论文《计算机器与智能(ComputingMachineryandIntelligence)》中,做了一个巧妙的“实验”,用以说明如何检验“人工智能”。

英国数学家,计算机学家图灵

这个“实验”也就是后来所说的“图灵测试(Turingtest)”:一名人类测试者将通过键盘和显示屏这样不会直接暴露身份的方式,同时与一名人类和一台计算机进行“网聊”,当人类测试者中有七成都无法正确判断交谈的两个“人”孰真孰假时,就认为这个计算机已经达到了“人工智能”的标准。

虽然,图灵测试只是一个启发性的思想实验,而非可以具体执行的判断方法,但他却通过这个假设,阐明了“智能”判断的模糊性与主观性。而他的判断手段,则与当时心理学界崛起的斯纳金的“行为主义”不谋而合。简而言之,基于唯物主义的一元论思维,图灵和斯金纳都认为,智能——甚至所有思维活动,都只是一套信息处理系统对外部刺激做出反应的运算模式。因此,对于其他旁观者来说,只要两套系统在面对同样的输入时都能够输出一样的反馈,就可以认为他们是“同类”。

1956年,人工智能正式成为了一个科学上的概念,而后涌现了很多新的研究目标与方向。比如说,就像人们在走迷宫遇到死胡同时会原路返回寻找新的路线类似,工程师为了使得人工智能达成某种目标,编写出了一种可以进行回溯的算法,即“搜索式推理”。

而工程师为了能用人类语言与计算机进行“交流”,又构建出了“语义网”。由此第一个会说英语的聊天机器人ELIZA诞生了,不过ELIZA仅仅只能按照固定套路进行作答。

而在20世纪60年代后期,有学者指出人工智能应该简化自己的模型,让人工智能更好的学习一些基本原则。在这一思潮的影响下,人工智能开始了新一轮的发展,麻省理工学院开发了一种早期的自然语言理解计算机程序,名为SHRDLU。工程师对SHRDLU的程序积木世界进行了极大的简化,里面所有物体和位置的集合可以用大约50个单词进行描述。模型极简化的成果,就是其内部语言组合数量少,程序基本能够完全理解用户的指令意义。在外部表现上,就是用户可以与装载了SHRDLU程序的电脑进行简单的对话,并可以用语言指令查询、移动程序中的虚拟积木。SHRDLU一度被认为是人工智能的成功范例,但当工程师试图将这个系统用来处理现实生活中的一些问题时,却惨遭滑铁卢。

而这之后,人工智能的发展也与图灵的想象有所不同。

现实中的人工智能发展,并未在模仿人类的“通用人工智能(也称强人工智能)”上集中太多资源。相反,人工智能研究自正式诞生起,就专注于让计算机通过“机器学习”来自我优化算法,最后形成可以高效率解决特定问题的“专家系统”。由于这些人工智能只会在限定好的狭窄领域中发挥作用,不具备、也不追求全面复杂的认知能力,因此也被称为“弱人工智能”。

但是无论如何,这些可以高效率解决特定问题的人工智能,在解放劳动力,推动现代工厂、组织智能化管理上都起到了关键作用。而随着大数据、云计算以及其他先进技术的发展,人工智能正在朝着更加多远,更加开放的方向发展。随着系统收集的数据量增加,AI算法的完善,以及相关芯片处理能力的提升,人工智能的应用也将逐渐从特定的碎片场景转变为更加深度、更加多元的应用场景。

人工智能让芯片的处理能力得以提升|Pixabay

从小的方面来看,人工智能其实已经渐渐渗透进了我们生活的方方面面。比如喊一声就能回应你的智能语音系统,例如siri,小爱同学;再比如在超市付款时使用的人脸识别;抑或穿梭在餐厅抑或酒店的智能送餐机器人,这些其实都是人工智能的应用实例。而从大的方面来看,人工智能在制造、交通、能源及互联网行业的应用正在逐步加深,推动了数字经济生态链的构建与发展。

虽然脑科学与人工智能之间仍然存在巨大的鸿沟,通用人工智能仍然像个科幻梦,但就像萧伯纳所说的那样“科学始终是不公道的,如果它不提出十个问题,也永远无法解决一个问题。”科学总是在曲折中前进,而我们只要保持在不断探索中,虽无法预测是否能达到既定的目的地,但途中终归会有收获。

参考文献

[1]王永庆.人工智能原理与方法[M].西安交通大学出版社,1998.

[2]Russell,StuartJ.ArtificialIntelligence:AModernApproach[J].人民邮电出版社,2002.

[3]GabbayDM,HoggerCJ,RobinsonJA,etal.Handbookoflogicinartificialintelligenceandlogicprogramming.Vol.1:Logicalfoundations.,1995.

[4]胡宝洁,赵忠文,曾峦,张永继.图灵机和图灵测试[J].电脑知识与技术:学术版,2006(8):2.

[5]赵楠,缐珊珊.人工智能应用现状及关键技术研究[J].中国电子科学研究院学报,2017,12(6):3.

[6]GeneserethMR,NilssonNJ.LogicalFoundationofArtificialIntelligence[J].brainbroadresearchinartificialintelligence&neuroscience,1987

作者:张雨晨

编辑:韩越扬

[责编:赵宇豪]

中国社会科学杂志社

当前,人工智能被深度应用于社会的各个领域,推动了社会生产效率的整体提升。然而,作为一种具有开放性、颠覆性但又远未成熟的技术,人工智能在带来高效生产与便利生活的同时,不可避免地对现有伦理关系与社会结构造成冲击,且已引发不少伦理冲突与法律问题。在技术快速更新的时代,如何准确把握时代变迁的特质,深刻反思人工智能引发的伦理风险,提出具有针对性、前瞻性的应对策略,是摆在我们面前的重大时代课题。

技术伦理风险

技术是一把双刃剑,其在推动社会进步的同时,也在很大程度上带来了技术风险。人工智能技术也是如此。现阶段,人工智能的技术伦理风险主要体现在以下三个方面。

人工智能的设计风险。设计是人工智能的逻辑起点,设计者的主体价值通过设计被嵌入人工智能的底层逻辑之中。倘若人工智能设计者在设计之初,秉持错误的价值观或将相互冲突的道德准则嵌入人工智能之中,那么在实际运行的过程中便很有可能对使用者生命、财产安全等带来威胁。

人工智能的算法风险。算法是人工智能的核心要素,具备深度学习特性的人工智能算法能够在运行过程中自主调整操作参数和规则,形成“算法黑箱”,使决策过程不透明或难以解释,从而影响公民的知情权及监督权,造成传统监管的失效。人工智能算法可能在不易察觉或证明的情况下,利用算法歧视或算法合谋侵害消费者的正当权益,进而扰乱市场经济秩序和造成不公平竞争。近年来被广泛曝光的“大数据杀熟”,正是这一风险的具体体现。

人工智能的数据安全风险。隐私权是人的一项基本权利,隐私的保护是现代文明的重要体现。但在众多的人工智能应用中,海量的个人数据被采集、挖掘、利用,尤其是涉及个人生物体征、健康、家庭、出行等的敏感信息。公民的隐私保护面临巨大挑战,人工智能所引发的隐私泄露风险已被推到风口浪尖。而不少隐私泄露事件的发生,也在一定程度上加深了公众对人工智能广泛应用的担忧。隐私保护与人工智能的协调发展,已成为当前亟待解决的问题。

社会伦理挑战

人工智能不仅有着潜在的、不可忽视的技术伦理风险,伴随数字化的飞速发展,人工智能对现有社会结构及价值观念的冲击亦愈发明显。人类社会的基本价值,如尊严、公平、正义等,也正因此面临挑战。

人工智能的发展对人类道德主体性的挑战。2017年智能机器人索菲亚被授予沙特阿拉伯王国公民身份,这引发了许多人对人工智能挑战人类主体性的担忧。通常人被认为是唯一的道德主体,人的道德主体性的依据在于人的某些精神特点(如意识、思维)。当前,人工智能虽仍处于弱人工智能阶段,还无法形成自我意识,但是,智能机器人不仅在储存、传输、计算等多方面的能力超越了人脑,而且借助材料学等现代技术,智能机器人可能在外形上“比人更像人”,甚至拥有更丰富的情感(比如索菲亚能够模拟62种面部表情)。这样的智能机器人究竟是否是“人”?是否应确立为道德主体?如果赋予人工智能主体资格,那么其究竟是一种与人类对等的主体,还是一种被限制的主体?这些问题表明:人工智能对人类道德主体性的挑战,不只是电影小说中的浪漫想象,而是已日益成为一种现实风险。

人工智能的发展对社会整体公平正义的挑战。首先,人工智能的发展可能加剧社会的贫富差距。由于年龄、所在地区、从事行业、教育水平等的差异,人们接触人工智能的机会并不均等,实际使用人工智能的能力并不相同,这就造成了“数字鸿沟”现象。“数字鸿沟”与既有的城乡差别、工农差别、脑体差别等叠加在一起,进一步扩大了贫富差距,影响了社会发展的公平性。其次,人工智能的发展可能引发结构性失业大潮。由于智能机器相较于人类工人有着稳定、高效等优势,越来越多的人类工人正在被智能机器所取代,成为赫拉利(YuvalNoahHarari)在《未来简史》中所谓的“无用阶级”。麦肯锡全球研究所的研究数据显示,到2030年,全球将有8亿人因工作流程的智能化、自动化而失去工作。虽然人工智能的发展也会带来新的工作岗位,但是由于“数字鸿沟”的存在,不少人并不能找到新的工作,结构性失业大潮可能汹涌而至。这将成为激化社会矛盾、破坏社会稳定、挑战社会公平正义的又一重大潜在风险。

应对防范策略

技术伦理风险与社会伦理挑战的图景展示表明,人工智能“安全、可靠、可控”的良性发展依然任重道远。对于人工智能风险、挑战的应对防范,事关未来社会的发展方向与人类整体的前途命运,需要我们运用哲学的反思、批判,作出审慎恰当的抉择。

确立人工智能发展的基本价值原则。面对风险、挑战,我们应当避免马尔库塞(HerbertMarcuse)所说的“技术拜物教”倾向,要将伦理、道德等价值要素纳入到人工智能发展的内在考量之中,尽快构建起具有广泛共识的人工智能伦理体系。应确立如下基本价值原则,作为建构人工智能伦理体系的“阿基米德支点”。一是人本原则。人工智能始终是“属人”的造物,是为增进人类的福祉和利益而被创造出来的。无论人工智能有多么接近“图灵奇点”,也不应改变其属人性。人本原则是人工智能研发、应用的最高价值原则。二是公正原则。人工智能的发展要以绝大多数人的根本利益为归趋,不能片面地遵循“资本的逻辑”与“技术的逻辑”,坐视“数字鸿沟”的扩大,而应当让每一个人都拥有平等接触、使用人工智能的机会,从而使绝大多数人都能从人工智能的发展与应用中受益。三是责任原则。明晰道德责任,对于防范和治理人工智能伦理风险具有重要意义。要加强人工智能设计、研发、应用和维护等各个环节的责任伦理建设,尤其要注意设计者、开发者的道义责任感培养,明确各方主体的权利、义务和责任,建立健全完备、有效的人工智能事故追究问责机制。

建立人工智能发展的具体伦理规范。在确立人工智能伦理基本原则的同时,还需要制定人工智能产品设计者、开发者及使用者的具体伦理规范与行为守则,从源头到下游进行规范与引导。针对人工智能的重点领域,要研究具体细化的伦理准则,形成具有可操作性的规范和建议。应当加强教育宣传,推动人工智能伦理规范共识的形成。进一步,可以将取得广泛共识的伦理规范嵌入于算法之中,避免人工智能运行过程中的“算法歧视”与“算法欺诈”问题。此外,要充分发挥伦理审查委员会及其相关组织的作用,持续修订完善《新一代人工智能伦理规范》,定期针对新业态、新应用评估伦理风险,促进人工智能伦理规范的与时俱进。

健全人工智能发展的制度保障体系。在社会层面,应加大对“数字弱势群体”的政策帮扶,如税收减免、财政补贴等,确保人工智能发展的共同富裕方向。面对可能到来的结构性失业问题,可以为劳动者提供持续的终身教育和职业培训。在法律层面,应积极推动《个人信息保护法》《数据安全法》的有效实施,建立对人工智能技术滥用与欺诈的处罚细则,逐步加快《人工智能法》的立法进程。在行业层面,应加强人工智能行业自律体系建设。建立并充分发挥伦理委员会的审议、监督作用,加强国际合作,推动人工智能行业发展朝着“安全、可靠、可控”的方向健康发展。

(作者单位:南京大学哲学系)

中国焦点面对面:中国逐鹿人工智能,哪些关键技术被国外垄断着怎么破—新闻—科学网

中国焦点面对面:中国逐鹿人工智能,哪些关键技术被国外垄断着?怎么破?

 

中新社北京9月27日电题:中国逐鹿人工智能,哪些关键技术被国外垄断着?怎么破?

——专访中国工程院院士、清华大学计算机科学与技术系教授郑纬民

中新社记者张旭

当前,新一轮科技革命深入演进,数字时代扑面而来,全球主要国家在数字经济领域展开激烈角逐。关键数字技术创新,中国已经取得了哪些优势?在当前国际环境下,面临哪些难题要“啃”?

作为引领未来的战略性技术——人工智能是中国提高经济与科技水平、提升国际竞争力的重要算力基础设施,目前各地掀起了人工智能计算中心的建设热潮。人工智能计算中心如何才能发挥出最大价值?中国人工智能计算中心技术自主可控水平如何?哪些关键技术被国外垄断着?近日,中国工程院院士、清华大学计算机科学与技术系教授郑纬民接受中新社“中国焦点面对面”专访,进行权威解读。

访谈实录摘编如下:

给三句话,它就能写50集连续剧

中新社记者:近期,中国“人工智能计算中心订单爆单”的话题引发不少关注。武汉市5月底建成的第一个人工智能计算中心,刚开张就天天客满,满负荷运行,目前预约已经排到半年以后。人工智能(AI)计算中心是算什么的?为何市场需求这么强?

郑纬民:人工智能有多种多样的应用场景,需求很旺。根据场景可以分为三大类应用:

一、图像检测、视频检索类。可以用在安防、医疗诊断、自动驾驶。核心是卷积网络,这一类应用落地做得很好,已经起到了很好的作用。

二、决策类。比如交通规划等,这个类型也已经起到了很好的效果,核心是强化学习。

三、自然语言处理类。比如搜索与推荐,智能人机接口,核心是Transformer。在应用方面,语言翻译,把中文翻译成英文,英文翻译成日文等,问什么问题都能回答,这样的机器需要非常大才行。又比如生成文本摘要,你给它三句话,能给你写成50集电视连续剧。

这三类应用的需求很多,所以才会(出现订单)排队排到半年后这样一个情况。

中新社记者:目前流行的人工智能计算中心与传统数据中心有何不同?日前,工信部印发《新型数据中心发展三年行动计划(2021-2023年)》,《行动计划》中定义的新型数据中心和人工智能计算中心是一回事吗?

郑纬民:传统数据中心主要由通用CPU架构的服务器集群构成。近年来,随着人工智能的发展,数据中心也逐渐包括了很多具有高性能人工智能算力(GPU或人工智能加速器)的机器。

而人工智能计算中心是什么呢?主要由具有高性能人工智能算力(GPU或人工智能加速器)的机器组成。因此可以说,数据中心概念的覆盖面会更大一些,包含了人工智能算力。

中国技术自主可控吗?

中新社记者:人工智能和大数据中心都属于“新基建”,当前全球主要国家都在大规模建设人工智能、大数据基础设施,有人说未来人工智能算力将会像水和电一样,成为一种公共基础资源,对此您怎么看?中国建设人工智能基础设施有哪些核心优势?中国人工智能计算中心的技术自主可控水平如何?哪些关键技术被国外垄断着?

郑纬民:从全球公有云市场的快速发展可以看出,通用算力和人工智能算力都是公共基础设施,是一种重要的趋势,过去通用的算力是基础设施,现在把人工智能算力也作为基础设施,正在被越来越多的用户认可。

但是我们也要注意到,算力作为基础设施,需要相关的数据作为基础,把机器包括普通的机器,包括人工智能的机器都放在云上,不少行业的数据隐私性和保密性,对其上云仍然有很大的限制,怎么把数据放在云上是一个值得考虑的问题。

中国在建设人工智能基础设施上的主要优势,是政府主导的投入较多。但在市场化建设和运营,整体人工智能算力基础软硬件的技术水平和自主可控程度上,还与美国有一定的差距,如,编程框架目前以TensorFlow和Pytorch为主。智能计算芯片方面,华为昇腾和寒武纪在人工智能算力体系结构上取得了很好的进展,但受制于先进芯片制程,或在软件生态环境上仍然与Nvidia产品有明显差距,仍然需要尽快发展。

中新社记者:“人工智能计算中心订单爆单”话题之外,近期鹏城实验室大科学装置“鹏城云脑II”接连斩获多项国际奖项,也受到业界关注。作为“新基建”,它们可以为科研创新项目提供哪些强大支持?在赋能行业应用等方面有哪些价值?

郑纬民:在科研创新方面,目前一个非常重要的趋势是HPC(高性能计算)+AI(人工智能),就是把传统基于模拟方法的高性能计算应用与AI模型结合起来。解决过去解决不了的问题,或是把过去耗时很长的问题加速成千上万倍。

这方面,AlphaFold(DeepMind人工智能系统)给出了非常好的例子,用人工智能方法来协助进行蛋白质结构预测,解决了过去使用纯科学计算模拟方法由于计算量过大无法解决的问题。HPC和AI结合是我们创新的一个非常明显的优势。

在赋能行业方面,鹏城实验室可以为智慧城市提供强大的人工智能算力,承载智慧城市应用中的智能交通、智能公共卫生等功能,鹏城云脑II也在开展“一带一路”语言的自动翻译,为“一带一路”(倡议)提供重要支持。

大模型方面,目前主要在自然语言处理效果方面取得了比较大的进展,但具体应用领域还在探索之中。

中新社记者:各界都认为依靠人工智能实现智能转型是必修课,但目前中国产业主体存在着发展着力点分散等问题,从这个角度来看,政府统筹建设大规模的人工智能基础设施是否是一个比较好的解决企业转型的路径?大规模、集约型基础设施有哪些独特优势?

郑纬民:目前,各地政府在建设人工智能基础设施上有很大的积极性,对本地产业的人工智能赋能,应该说能够起到很好的推动作用。但也要注意,要因地制宜地分析本地产业人工智能化的路径和节奏。

大规模、集约型基础设施,主要是在完成超大规模模型的训练方面起到关键作用。目前看大模型确实是重要的发展趋势,但人工智能算法的规模大小是否有局限性仍是一个开放的问题。

各地为何掀人工智能计算中心建设潮?

中新社记者:当前国内掀起了人工智能计算中心建设热潮,有20多个城市在规划建设人工智能计算中心,目前中国人工智能计算中心运营和落地情况如何?

郑纬民:从武汉和鹏城云脑的经验看,目前的人工智能计算中心运行情况还是很好的,需要机时的用户很多,需要排很长时间的队才能用到机器,这也体现出国内用户对于人工智能算力的强劲需求。

所以我觉得,建设一个人工智能计算中心为当地的企业、研究单位、高等院校等进行创新赋能,都是会起到很大作用。

中新社记者:作为各方资源极度聚合的庞大基础设施,人工智能计算中心建设之后的运营同样是一大命题,在这点上您有什么建议?如何科学运营才能让各地人工智能计算中心发挥出最大价值?人工智能计算中心有哪些运营评估维度?

郑纬民:我觉得特别要注重数据治理。算力提供了,数据该怎么提供?

随着《个人信息保护法》的出台,对数据的使用增加了很多合规性要求,作为地方政府主导建设的人工智能计算中心,除了算力以外,是否能够提供重要价值的相关的数据。如何在既遵守《个人信息保护法》,又能够让智能算法获得所需要的数据是人工智能计算中心运营中的一大课题。

再有就是运营要注意财务上的可持续性,一定要收费运行。避免用户无偿大量使用资源,这样看起来利用率很高,但很可能算的东西没有价值。对特殊的需要赋能支持的用户,可以采用发放机时券的方式来支持。这方面,过去不少超算中心,比如广州超算、无锡超算已经有很成熟的体系,可以借用。

人工智能计算中心的运营评估可以包括利用率、投资回报率、功耗以及应用效果等。其中,利用率我想多说一点,并不是100%的利用率是最好的,因为利用率越高,意味着作业排队时间越长,因此一般来说60%-70%左右的利用率就是个很好的平衡了,不必追求接近100%的利用率。

中新社记者:结合数字经济和产业发展趋势,您认为未来人工智能计算中心的发展方向如何,会不会在一段时期的建设爆发后又迅速转入冷淡期?

郑纬民:人工智能与产业的结合刚刚开始,我对人工智能在各行各业的应用扩展还是充满信心的,我认为人工智能计算中心还是有很大的发展空间。对我们科研的创新,对企业的赋能,对人民生活的改善都会有很大的好处。

中国有能力“从头先进”

中新社记者:中国“十四五”规划和2035年远景目标纲要提出,加强关键数字技术创新应用,加快推进基础理论、基础算法等研发突破与迭代应用。关键数字技术创新,中国已经取得了哪些优势?在当前国际环境下,面临哪些难题要“啃”?哪些与人工智能计算中心密切相关?预计未来发展趋势如何?

郑纬民:中国在基础理论和算法上还很难谈优势,但是基本上可以跟随第一梯队,就是美国人提出来的算法和理论,我们很快能够跟上并加以改进应用。

整个数字技术中,除了硬件的芯片制造产业链,我想特别强调,中国在基础软件方向还是有很多的课要补。我们现在大量的软件,包括操作系统、数据库、编译器、人工智能编程框架等,不是自己从头构建的,而是在开源基础上修改的。

应该说,能够在开源软件基础上进行大量修改,已经证明我们取得了很大的进步,对我国数字技术的自主化具有重大意义。但是我们如果对自己提出更高的要求,就必须拥有自主从头构建先进的基础软件的能力。

这里的“先进”是指,我们构建的新软件要比现有的软件在性能和功能方面有代差的优势。这方面产业界,华为的鸿蒙操作系统、人工智能编程框架MindSpore等给出了很好的范例。我们学术界,清华大学的时序数据库、图计算系统、储存系统也取得了一定的进展,我们期待国内的产业界和高校能够更加重视从头构建先进的基础软件,为中国和世界的数字产业界提供更多革命性的基础系统软件。因此,我特别强调“从头先进”这四个字,“从头”就是我们从头做,“先进”就是比现有的软件好10倍20倍,我们有这个能力,希望通过这个办法,来改善我们国家IT行业的现状。(完)

 特别声明:本文转载仅仅是出于传播信息的需要,并不意味着代表本网站观点或证实其内容的真实性;如其他媒体、网站或个人从本网站转载使用,须保留本网站注明的“来源”,并自负版权等法律责任;作者如果不希望被转载或者联系转载稿费等事宜,请与我们接洽。

版权声明:本文内容由互联网用户自发贡献,该文观点仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌抄袭侵权/违法违规的内容,一经查实,本站将立刻删除。

上一篇

下一篇