人工智能的发展与未来
随着人工智能(artificialintelligent,AI)技术的不断发展,各种AI产品已经逐步进入了我们的生活。
现如今,各种AI产品已经逐步进入了我们的生活|Pixabay
19世纪,作为人工智能和计算机学科的鼻祖,数学家查尔斯·巴贝奇(CharlesBabbage)与艾达·洛夫莱斯(AdaLovelace)尝试着用连杆、进位齿轮和打孔卡片制造人类最早的可编程数学计算机,来模拟人类的数理逻辑运算能力。
20世纪初期,随着西班牙神经科学家拉蒙-卡哈尔(RamónyCajal)使用高尔基染色法对大脑切片进行显微观察,人类终于清晰地意识到,我们几乎全部思维活动的基础,都是大脑中那些伸出细长神经纤维、彼此连接成一张巨大信息网络的特殊神经细胞——神经元。
至此,尽管智能的具体运作方式还依然是个深不见底的迷宫,但搭建这个迷宫的砖瓦本身,对于人类来说已经不再神秘。
智能,是一种特殊的物质构造形式。
就像文字既可以用徽墨写在宣纸上,也可以用凿子刻在石碑上,智能,也未必需要拘泥于载体。随着神经科学的启迪和数学上的进步,20世纪的计算机科学先驱们意识到,巴贝奇和艾达试图用机械去再现人类智能的思路,在原理上是完全可行的。因此,以艾伦·图灵(AlanTuring)为代表的新一代学者开始思考,是否可以用二战后新兴的电子计算机作为载体,构建出“人工智能”呢?
图灵在1950年的论文《计算机器与智能(ComputingMachineryandIntelligence)》中,做了一个巧妙的“实验”,用以说明如何检验“人工智能”。
英国数学家,计算机学家图灵
这个“实验”也就是后来所说的“图灵测试(Turingtest)”:一名人类测试者将通过键盘和显示屏这样不会直接暴露身份的方式,同时与一名人类和一台计算机进行“网聊”,当人类测试者中有七成都无法正确判断交谈的两个“人”孰真孰假时,就认为这个计算机已经达到了“人工智能”的标准。
虽然,图灵测试只是一个启发性的思想实验,而非可以具体执行的判断方法,但他却通过这个假设,阐明了“智能”判断的模糊性与主观性。而他的判断手段,则与当时心理学界崛起的斯纳金的“行为主义”不谋而合。简而言之,基于唯物主义的一元论思维,图灵和斯金纳都认为,智能——甚至所有思维活动,都只是一套信息处理系统对外部刺激做出反应的运算模式。因此,对于其他旁观者来说,只要两套系统在面对同样的输入时都能够输出一样的反馈,就可以认为他们是“同类”。
1956年,人工智能正式成为了一个科学上的概念,而后涌现了很多新的研究目标与方向。比如说,就像人们在走迷宫遇到死胡同时会原路返回寻找新的路线类似,工程师为了使得人工智能达成某种目标,编写出了一种可以进行回溯的算法,即“搜索式推理”。
而工程师为了能用人类语言与计算机进行“交流”,又构建出了“语义网”。由此第一个会说英语的聊天机器人ELIZA诞生了,不过ELIZA仅仅只能按照固定套路进行作答。
而在20世纪60年代后期,有学者指出人工智能应该简化自己的模型,让人工智能更好的学习一些基本原则。在这一思潮的影响下,人工智能开始了新一轮的发展,麻省理工学院开发了一种早期的自然语言理解计算机程序,名为SHRDLU。工程师对SHRDLU的程序积木世界进行了极大的简化,里面所有物体和位置的集合可以用大约50个单词进行描述。模型极简化的成果,就是其内部语言组合数量少,程序基本能够完全理解用户的指令意义。在外部表现上,就是用户可以与装载了SHRDLU程序的电脑进行简单的对话,并可以用语言指令查询、移动程序中的虚拟积木。SHRDLU一度被认为是人工智能的成功范例,但当工程师试图将这个系统用来处理现实生活中的一些问题时,却惨遭滑铁卢。
而这之后,人工智能的发展也与图灵的想象有所不同。
现实中的人工智能发展,并未在模仿人类的“通用人工智能(也称强人工智能)”上集中太多资源。相反,人工智能研究自正式诞生起,就专注于让计算机通过“机器学习”来自我优化算法,最后形成可以高效率解决特定问题的“专家系统”。由于这些人工智能只会在限定好的狭窄领域中发挥作用,不具备、也不追求全面复杂的认知能力,因此也被称为“弱人工智能”。
但是无论如何,这些可以高效率解决特定问题的人工智能,在解放劳动力,推动现代工厂、组织智能化管理上都起到了关键作用。而随着大数据、云计算以及其他先进技术的发展,人工智能正在朝着更加多远,更加开放的方向发展。随着系统收集的数据量增加,AI算法的完善,以及相关芯片处理能力的提升,人工智能的应用也将逐渐从特定的碎片场景转变为更加深度、更加多元的应用场景。
人工智能让芯片的处理能力得以提升|Pixabay
从小的方面来看,人工智能其实已经渐渐渗透进了我们生活的方方面面。比如喊一声就能回应你的智能语音系统,例如siri,小爱同学;再比如在超市付款时使用的人脸识别;抑或穿梭在餐厅抑或酒店的智能送餐机器人,这些其实都是人工智能的应用实例。而从大的方面来看,人工智能在制造、交通、能源及互联网行业的应用正在逐步加深,推动了数字经济生态链的构建与发展。
虽然脑科学与人工智能之间仍然存在巨大的鸿沟,通用人工智能仍然像个科幻梦,但就像萧伯纳所说的那样“科学始终是不公道的,如果它不提出十个问题,也永远无法解决一个问题。”科学总是在曲折中前进,而我们只要保持在不断探索中,虽无法预测是否能达到既定的目的地,但途中终归会有收获。
参考文献
[1]王永庆.人工智能原理与方法[M].西安交通大学出版社,1998.
[2]Russell,StuartJ.ArtificialIntelligence:AModernApproach[J].人民邮电出版社,2002.
[3]GabbayDM,HoggerCJ,RobinsonJA,etal.Handbookoflogicinartificialintelligenceandlogicprogramming.Vol.1:Logicalfoundations.,1995.
[4]胡宝洁,赵忠文,曾峦,张永继.图灵机和图灵测试[J].电脑知识与技术:学术版,2006(8):2.
[5]赵楠,缐珊珊.人工智能应用现状及关键技术研究[J].中国电子科学研究院学报,2017,12(6):3.
[6]GeneserethMR,NilssonNJ.LogicalFoundationofArtificialIntelligence[J].brainbroadresearchinartificialintelligence&neuroscience,1987
作者:张雨晨
编辑:韩越扬
[责编:赵宇豪]构建人工智能未来法治体系
核心阅读
任何技术都是双刃剑,人工智能也不例外。在享受最新技术带来的便利时,不能忽视与之相关的安全问题。要用法治为人工智能产业健康发展保驾护航,让人工智能服务造福人类社会。
从智伴机器人到自动驾驶汽车,再到法院庭审中的智能语音识别,近年来,人工智能已逐渐进入人们的日常生活。
“深化大数据、人工智能等研发应用,培育新一代信息技术、高端装备、生物医药、新能源汽车、新材料等新兴产业集群,壮大数字经济。”今年政府工作报告让人工智能产业看到了前进的方向。
在人工智能迅猛发展的进程中,关于可能引发的道德伦理问题,可能带来的社会治理问题争议不断。
推动新一代人工智能健康发展,法治应该有哪些作为,或者说人工智能产业健康发展到底需要怎样的法治保障?近日,《法制日报》记者采访了人工智能产业领域、法律界的相关代表、委员,以及人工智能法律研究的相关专家学者。
人工智能发展亟需立法保障
几天前,全球首例无人车致死案宣判,Uber公司不承担刑事责任,再次引发了公众对人工智能发展中法律问题的热议。
“如何推动法律体系与时俱进,尽快满足人工智能产业飞速发展和社会进步的需要,这对法治带来了很大挑战。”全国人大代表、科大讯飞董事长刘庆峰说。
与刘庆峰观点一致,在记者采访的代表委员中,无一例外都提出应加快人工智能立法工作。
全国人大代表、中华全国律协副会长刘守民认为,立法一方面要对人工智能发展做引领,另一方面也要规制如发展目标、路径和阶段。但由于人工智能发展飞快,立法往往跟不上发展速度。
关于法律滞后,全国人大代表、重庆盼达汽车租赁有限公司党支部书记、总经理高钰有不同看法:前沿的技术变革和创新的商业模式带来的不确定性,也决定了相关的立法工作会有滞后性。
“但新生事物并非排斥法律法规的制约,相反,法律对于新兴商业模式和技术创新的有效规范和制约能更好地引导企业、行业健康有序发展。”高钰说。
由于人工智能涉及的领域众多,不同领域涉及的立法也存在差异。因此,全国人大代表、北京市律师协会会长高子程建议,前期可在重点领域,比如交通、医疗等先行试点专门立法,待总结经验后再进行综合系统立法。
全国人大代表、致公党上海市委专职副主委邵志清也有类似的建议:“由于涉及面太宽,社会对人工智能的认识还处于初步阶段,目前对人工智能进行综合立法的条件还不具备。但是为了防范重大风险,需要针对人工智能的具体应用进行立法。”
对于立法到底应该从哪些方面进行,基于自己的专业实践,受访者都有不同的认知。
刘庆峰指出,算法、算料(数据)、算力是人工智能技术发展的重要支点,需要有针对性地予以立法规制。
而在高子程看来,还应立法应明确规定人工智能的法律地位、人工智能生成内容的权利归属、人工智能损害后果的责任分担、人工智能风险的法律控制等亟待解决的内容。
邵志清告诉记者,人工智能应用的管理应该重点围绕伦理道德、资源获取、主体认定、行为认定、责任划分等方面进行立法。
“人工智能立法已不仅是一个国内法的问题,这是人类共同面对的课题。”刘守民认为,人工智能发展还需要国内与国际间的协调,通过国际的公约条例,包括技术标准等领域形成共识。
规范司法加强执法不可或缺
“用法治的手段保障人工智能‘安全、可靠、可控’,也是欧、美、日、韩等国发展人工智能产业的必经之路和共同经验。”西南政法大学人工智能法学院院长陈亮说。
在陈亮看来,立法只是法治保障人工智能发展的其中一环:执法、司法等环节同样不能偏废。
高子程也认为,完善立法,规范司法,加强执法,加大普法,积极构建人工智能未来法治体系,用法治保障人工智能健康持续发展。
“在司法中,要坚持法治理念、法治思维和法治方式,树立谦仰、审慎、善意、文明、规范办案理念,恪守技术中立原则,不轻易对司法机关看不准、有市场、受欢迎的技术业态产品采取强制措施,最大限度减少司法活动对新技术发展的不利影响。”高子程说。
在高子程看来,司法还应坚持刑法的谦抑性,在其他法律规范足以保护相应法益的前提下,刑法不应首先介入,只有在其他法律规范无法充分有效保护相应法益时,刑法才有介入的必要和空间。
“在执法环节,应建立专门的执法部门,明确其职权范围,规范其执法程序。”陈亮认为,尤应注意的是,在制度设计时,应以委托代理理论为指导,从制度层面解决好该执法部门的参与约束和激励相容的问题,以免执法过程中出现委托代理人问题,导致人工智能立法流于形式。
为让执法真正有成效,高子程认为,应组织相关执法部门专责制定人工智能领域配套的各种技术规范、技术标准,这个标准应当是对行业自身所发展出来的标准与公共利益、个人权利保护原则的综合考量,其制定程序应当遵循公共参与、听证等行政程序规则。
伦理及安全问题不容忽视
从目前已经投入使用的人工智能产品中看,部分智能庭审系统甚至已经能够基本代替书记员的记录工作,加快了庭审进度。
人们不禁会问,当人工智能广泛应用之时,一些可以替代的传统行业是否会造成大量的失业,造成社会的不稳定。
“解决这些问题首先是在人工智能大规模替代现有工作之前,把社会保障体系建立起来。”刘庆峰说,在社会保障体系之下,人工智能代替了重复性工作后,人会有更多的时间去做创意等不能替代的事情,从而获得社会价值感。
刘庆峰认为,人机合成是未来人工智能的重要突破方向。他举例称,目前“智医助理”可以根据医嘱对话,自动生成对疾病的判断,供医生参考确认。“所以我想人工智能并不是要淘汰人类,而是要让人类站在人工智能的肩膀之上。”刘庆峰说。
对于人类与人工智能的关系,刘庆峰还是很乐观。他认为,人工智能立法应当遵循“人机耦合”和“以人为本”原则。
“这意味着要充分认清人工智能是帮助人的,而不是替代人的,要刺破技术面纱,有针对性地规制技术背后人的行为;意味着要把人民群众的生命和财产安全放在首位,实现人工智能在风险可控的范围内发展。”刘庆峰说。
不论乐观与否,人工智能立法在伦理道德方面还是要有明确规定。
邵志清认为,应明确禁止应用人工智能技术实施违反人类伦理道德的行为,特别是在基因工程、生命科学、情感意识等方面用法律为智能社会划出伦理道德的边界,让人工智能服务造福而不是困扰危害人类社会。
“对人工智能要抱有一定的尊重和敬畏,技术进步带来的东西不见得都是好事,一定要慎重,避免出现有悖伦理道德的事情。”刘守民说。
全国政协委员、360集团董事长兼CEO周鸿祎也认为,任何技术都是双刃剑,人工智能也不例外。“但我们在享受最新技术带来的便利时,也不能忽视与之相关的安全问题。”(法制日报记者战海峰)