如何确保人工智能的安全
【环球科技】
人工智能技术革新的速度和力度令人眩目,在人们欢呼技术进步红利之余,越来越多的人担忧人工智能技术是否足够安全。霍金、比尔·盖茨等科技巨擘们都开始警示:无度发展可能导致人工智能最终反制人类,造成不可控的毁灭。毕竟在人类的漫漫进化之路上,人类经历无数次血与火的淬炼,才懂得相互之间沟通与妥协,才逐渐学会了如何同类合作及和睦相处,反观由人类一手创造出来的超级智能则会拥有远远超越人类的能力、意志,但是否还存在与人类相似的价值观和社会规范呢?人工智能时代,人类如何取得共识并相互协作,确保一个安全和谐的智能未来。
人工智能面临的安全挑战
美国兰德公司2017年发表报告指出人工智能时代最应关注的问题是安全和就业,次要问题还有健康、政策制定、冲突解决、网络安全和隐私等问题,本质原因是技术的潜在缺陷及其应用程度不同带来的不平等,而且人们倾向于无条件信任人工智能,从而造成“自动化偏见”。在就业领域,人工智能必然会取代许多职业,再现人们以往争论不休的“机器替代人类”的伦理道德问题,但技术进步还将创造新的工作机会。
从技术层面来看,人工智能的最大安全问题是存在黑盒风险,其研发目标及其实施、运行机制等均不透明且不可解释,另外当前通过挑选和响应大量数据来完成机器学习的模式,仅仅是考虑如何提供和保护这些数据,就带来了隐私保护、数据安全及潜藏的算法偏见和歧视问题。
从应用角度来看,人工智能将应用于健康、医疗、社会管理等领域,尤其是武器化人工智能,将带来人类尊严、伦理道德等价值观问题,未来人工智能技术的自我提升,将加剧此类问题。
在社会文化层面,潜在风险是人们对人工智能观念过度分化,普通人难以理解技术的复杂性和多样性,另外当前法律法规对人工智能的监管还存在大量的灰色地带,人工智能带来的安全责任无法分担等诸多问题。
这些问题若得不到稳妥解决,势必给人工智能技术的广泛应用蒙上阴影,给技术的进一步发展带来障碍。
全球各界的安全举措
当前各国政府、企业、智库以及专家学者等也纷纷提出各自的政策、倡议、举措或见解等,这些提议反映出人类对于人工智能技术发展的思考和忧虑,及针对性的对策。
关于人和智能机器如何相处,最著名的莫过于由科幻小说家阿西莫夫在1942年提出的“机器人三定律”:(1)机器人不得伤害人类,或因不作为使人类受到伤害;(2)除非违背第一法则,机器人必须服从人类的命令;(3)在不违背第一及第二法则下,机器人必须保护自己。在现实研究与应用领域中,这个原则略显空泛、难以操作。
在政府报告中,最典型的是2016年美国政府发布的白宫报告《为未来人工智能做好准备》,美国政府认为人工智能越来越重要,美国需为未来做好准备,因此制定人工智能的发展路线和策略。该报告一共有23条建议,覆盖人工智能应用及给社会和公共政策带来的挑战,如利用人工智能技术来提升社会福利和改进执政水平、鼓励协同创新并保护公众利益,提出为人工智能技术制定监管措施,采取措施确保技术应用应当是公正的、安全和可控的等建议。欧盟则在2018年4月由25个成员国共同签署了《人工智能合作宣言》,鼓励成员国在共同促进创新、增进技能和法律援助等3方面进行合作,达成如人工智能研发与应用、安全到责任区分等14条一致性事项。
联合国尚未形成正式的指导原则,但汇集当前数个较有影响力的呼吁、原则和建议等设计新框架,将全部事务分为14个领域,如“实现有益的人工智能研发”“全球治理、竞争条件与国际合作”“经济影响、劳动力转移、不平等及技术性失业”“责任、透明度和可解释性”“网络安全”“自主武器”“通用人工智能与超智能”等,在每个领域直接引用第三方提出的原则与建议。
业界则有《阿西洛马人工智能原则》、谷歌人工智能原则等,其中发表于2017年1月阿西洛马人工智能原则尤为突出,此原则合计23条、分为“科研问题”“伦理道德”及“长期问题”三部分,倡议全球工业界、研究界采取措施共同保障人类未来的利益和安全。同在2017年1月,美国IBM公司提出“目的、透明度、技能”的人工智能三原则。而近年来在此领域取得极大成就的美国谷歌公司,为回应2018年4月份数千名员工呼吁终止与美国国防部合作项目并要求不再“研发战争技术”,终于在6月份通过官方博客发布了关于使用人工智能的七项指导原则和四类场景不应用的承诺,如由人类担责、保证隐私、提前测试等原则,避免人工智能技术造成或防止加剧社会不公,承诺不将人工智能技术应用于开发武器等。
我国对人工智能的发展也极为重视,近几年相继发布了《“互联网+”人工智能三年行动实施方案》《新一代人工智能发展规划》和《促进新一代人工智能产业发展三年行动计划》等一系列政策性文件,从战略层面引领人工智能发展。科大讯飞则在2016年发出人工智能四点宣言(深圳宣言),2017年腾讯则提出确保人工智能应走向“普惠”和“有益”,提出“自由、正义、福祉、伦理、安全、责任”六原则。
人工智能安全发展上海倡议
为了应对人工智能的安全挑战,守护智能时代的人类未来,在上海举办首届世界人工智能大会之际,世界人工智能大会安全高端对话联合国内外人工智能领域专家学者和产业同仁,充分吸纳国内外人工智能安全共识的基础上,发起“人工智能安全发展上海倡议”,内容包括:
面向未来:人工智能发展需要保持创新与安全的协同,以安全保障创新,以创新驱动安全。不仅要确保人工智能创新应用的安全,同时应当将人工智能积极应用于解决人类安全难题。
以人为本:各国需要科学规划人工智能发展的路径,确保人工智能按照人类预想并服务于人类福祉的目标发展,对人工智能自主进化和自我复制等须进行严格的评估和监管。
责任明晰:人工智能发展应当建立完备的安全责任框架,需要根据各国的法律法规和伦理规范,不断探索人工智能安全责任认定和分担机制。
透明监管:人工智能发展应当避免技术黑箱导致的安全风险,需要通过建立可审查、可回溯、可推演的透明监管机制,确保目标功能和技术实现的统一。
隐私保护:人工智能发展不得危害用户隐私和数据安全,人工智能技术和模式的创新不得以牺牲用户隐私权为代价,需要在各国法律框架下开展人工智能隐私和数据的保护。
算法公正:人工智能发展应避免由于算法偏见引发的社会危害,须明确算法设计动机和可解释性,克服算法设计和数据收集引发的不公正影响。
和平利用:人工智能技术需要审慎运用在军事领域,自主化武器的研发和使用须通过严格的风险评估,避免人工智能军事领域无序应用对全球和平稳定的威胁。
国际合作:人工智能发展需要各国秉持开放共进的精神,通过在国际范围建立人工智能规范和标准,避免技术和政策不兼容导致的安全风险,积极推动各国人工智能安全发展。
(作者:石建兵,系上海赛博网络安全产业创新研究院高级研究员)
探索与争鸣|人工智能在未来社会将有哪些风险与挑战
当前,人工智能浪潮风起云涌,AI时代已经成为现在进行时。就在近日,国务院印发《新一代人工智能发展规划》,将人工智能上升到国家战略高度,描绘出了中国人工智能发展的新蓝图。除了我国之外,国际社会也对人工智能给予了普遍关注,可以说发展人工智能已然成为了全球共识。但是,我们也清醒地认识到,人工智能在为这个时代注入发展新动能的同时,对就业、法律、政治、经济、伦理和安全等诸多领域也带来了新的挑战。
在人工智能“列车”滚滚驶来的今天,我们应当如何应对其带来的风险和机遇;人工智能的技术属性和社会属性如何实现融合;人工智能又会对未来社会造成怎样的冲击,这些都是亟需我们回答的问题。
2017年8月28日,由上海市社联《探索与争鸣》杂志社和华东政法大学政治学研究院共同主办的“人工智能与未来社会:趋势、风险与挑战”学术研讨会在上海社联大楼召开。来自国内知名高校和研究机构的近四十位专家学者以及业界代表齐聚一堂,针对人工智能的发展和应用,分别从技术、法律、政治、经济、人文等不同角度提出看法,展开热烈探讨。
“人工智能与未来社会:趋势、风险与挑战”学术研讨会现场。本文图片 探索与争鸣杂志微信公众号本次会议共设有六个主题,采取主题发言和自由讨论等形式,对人工智能给未来社会带来的风险与挑战进行交流讨论。
一、人工智能对未来的颠覆性影响
中科院自动化所研究员、复杂系统管理与控制国家重点实验室主任王飞跃发言的题目是“智能科技与新轴心时代:未来的起源与目标”,他从宏观历史出发,分析人工智能的发展演变,辨析物理空间与网络空间的关联,并且对人工智能的未来充满期待。著名学者雅斯贝尔斯提出了“轴心时代”的概念,在公元前800到前200年期间,古代文明涌现出许多重要思想家,对文明发展起到至关重要的作用。王教授认为,世界可分为三个部分:物理世界,心理世界以及人工智能(虚拟)世界。每个世界都要有自己的轴心时代,新的世界也要有它的轴心时代。雅斯贝尔斯所言为第一个。第二个轴心时代就是从文艺复兴一直到牛顿、爱因斯坦,代表着人类理性的觉醒。人工智能世界也要有自己的轴心时代,这个轴心时代就是从哥德尔开始。现在是哲学上的突破,再是科学上的突破,下面就要是技术上的突破。就人们普遍担忧的关于人工智能将取代人类工作的问题,王教授乐观指出,人们当前的工作正是依赖机器来提供的,人类向无用阶级转变其实是社会的进步。“无用之用,重用之基”(徐光启《几何原本》)。
上海交通大学科学史与科学文化研究院院长江晓原教授的发言,则对人工智能表示出明确的否定态度。他分别从近期、中期、远期谈了人工智能的风险,表达出忧患意识:“我认为我们正在玩一把非常危险的‘火’。”从近期来看,人工智能引起的大批失业问题,95%的人不工作,5%的人工作,这样造成的财富分配不均,引起社会不稳定;从中期来看,人工智能存在失控的可能,芯片的物理极限,不可拔掉的电源都会引起互联网和人工智能结合后的不可操控;从远期来看,人工智能的终极威胁即人类这个物种会在个体的体能和智能方面全面的衰落,把对世界的管理让给人工智能,它一定是认为把人类清除掉是最好的。”此外,江院长还指出,要考虑最根本的问题是我们为什么要发展人工智能,资本的推动作用显而易见,资本为了增值盲目且不计后果。二、人工智能是人类的福音还是恶梦?
人工智能到底是造福全人类的利器,还是毁掉世界的终极恶魔?北京大学计算机系主任陈钟教授从自己的角度对此进行了一番解读。陈钟教授的演讲主题是“从人工智能本质看未来的发展”。他首先结合自身求学、工作的经历,分享自己关于计算机的观点与看法。然后,陈教授在演讲中依次展开自己关于人工智能的三个重要观点,即“人工智能本质是计算机科学分支”、“数据驱动导致人工智能发展起起落落”和“社会科学与现实的关系比以往更加紧密”。陈教授将理论与实务相结合,帮助大家更好地理解人工智能的本质与发展趋势。最后,他表达出自己关于人工智能的中庸态度,主张要对人工智能进行规制,促使其合规发展。不同于前面几位理工科学者的讲述,中国社会科学院哲学所的段伟文研究员从哲学和人性入手,对人工智能的社会性进行思考。段伟文研究员具有深厚的哲学功底,他以人性为切入点来思考人工智能的危机和未来情境。段研究员指出,机器的使用最终都是与人的能动性有关,他崇尚一种慢科学,要更多地思考人性、伦理,审慎对待人工智能的发展。他的主要观点可以概括为五句话:一是人工智能的发展带来新的权利,二是数据框定时代、算法设定认知,三是人的机器化和机器的人化,四是智能延展认知与人工愚蠢,五是深度科技化(预防性原则和主动性原则)。宽资本董事长、奇点大学投资人关新则从行业实际发展情况出发,直指人类对人工智能的恐惧之处——人是不可能阻挡技术的,技术本身就是洪水猛兽。而人类所害怕的是技术日新月异。他认为,我们今天应该把人工智能和科技革命当做完全不可阻挡的东西,至于人怎么应对,这是挑战人本身的智慧,而不是机器。三、中国在人工智能时代会领跑世界吗?
有观点认为,人工智能的发展,为发展中的中国提供了“弯道超车”的良机。那么,世界范围内来看,AI的研发水平到了怎样的程度?人工智能的进步到了哪一个阶段?中国在这一研究领域是否占有一席之地?根据现在的研究情况,能否对未来的发展趋势进行预测?中国在人工智能时代是不是能够跑在世界前列?这些问题值得探讨。
上海交通大学电子信息学院的熊红凯教授首先做了题为“人工智能技术下对真理和生命的可解释性”的主题演讲。他回顾了人工智能从上世纪五十年代到现在的起起落落,认为人工智能发展中的不确定性和不可解释性是最大的威胁。熊红凯教授演讲之初就提出与人工智能紧密相关的机器学习、神经网络具有很大的不确定性,而人工智能的发展就要解决这些不确定性、不可解释性与因果性的问题。他演讲的重点就是人工智能技术的安全性。人工智能的推动主体是企业与资本,其最大推动力不是算法而是数据,数据的使用就不可避免带来安全性问题。这也是美国大数据医疗一直进展缓慢的原因。一切技术都是以超越人自身为推动力,从这个角度来看,熊教授认为一些人称人工智能技术是洪水猛兽有一定道理。
上海社会科学院哲学所副所长成素梅研究员则对人工智能研究的范式转换和发展前景进行分析和展望。人工智能是计算机分支学科研究出来的,但是从学科性质上来讲,人工智能不是自然科学,人工智能属于技性科学,是科学与技术相互交叉的一个领域,一开始就具有跨学科性。它是要把科学的原理变成技术的实现,倒过来技术的实现又推动了科学原理的解释和发展。人工智能研究者一旦扬弃追求通用人工智能的范式,转向追求在具体领域的拓展应用,人工智能就会走出瓶颈,迎来新的发展高峰。华东政法大学政治学研究院院长高奇琦教授也提出了重要观点,认为中国在人工智能时代有特殊的使命。高教授首先对比了中美两国的优势和劣势,认为中国的优势第一个在于庞大活跃的中国市场,这个市场规模是全球独一无二的;第二个是勤劳勇敢的中国人,让国外感到恐惧的24小时开店、周末不休息;第三,科研队伍和研究水平;第四是中国已经有了一个良好的发展基础。而最大的优势莫过于位置和文化。相比于西方,中国文化具有多元而开放的特点。最后,高教授提出未来发展的四个“智”——第一,跨智,发挥媒体之间的技术优势;第二,众智,利用群体智能;第三,合智,人工智能和人类智能的合作;第四,善智,发展的目的是为了人类的公平正义。“AI就是“爱”,我们研究AI的目的就是让世界充满AI。”
四、人工智能对法律与政府的影响
法律与政府是公平公正的代名词,面对AI在社会众多领域的应用,法律和政府部门工作也在与人工智能接轨,在实践中让AI发挥更大的作用。
四川大学中国司法改革研究中心主任左卫民教授在法律实务领域具有一定建树,他着重从形而下审思人工智能与中国智慧司法的未来。他鲜明地指出AI与法律学者有一定差距,但法律界总体上对AI是相当认同的,上海、江苏以及浙江等地已经将大数据人工智能运用到审判中来,而案多人少的现实背景、对公正效率的需求也需要发展人工智能。左教授接下来向大家讲述法律界对人工智能的运用情况,他以国家开放司法审判书为例指出司法裁判引入大数据对于建构裁判标准具有重要的意义。当然,他也指出裁判文书的过度应用也存在问题,法律具有独特性,很多现实情况很少用到裁判文书。总而言之,左教授对人工智能在司法领域的应用充满信心。“在我看来人工智能向法律提出的问题更具根本性。”上海交通大学凯原法学院郑戈教授列举了人工智能对法律职业和社会管理的种种挑战。郑戈教授主要以“电子人”为例探讨是否建构人工智能的法律人格。他首先从欧洲关于人工智能的法律法规延伸开来,介绍阿西莫提出的机器人“三大律法”,然后详细列举人工智能给法律带来的问题与挑战。人工智能所涉及的伦理和法律问题是这个时代最关键的问题之一,第二个问题是它涉及现代法律体系的基础性概念和思维方式,第三个问题是数据的实际占有者与使用者之间的界限越来越难以判定,第四个问题是过错的判断越来越困难,第五个问题是过错与损害结果之间的因果关系越来越难以确定等。郑教授主张对人工智能进行合理的法律规制,需要法律人和科学家的深度合作。
华东师范大学政治学系吴冠军教授作为政治哲学研究者,着眼于未来社会秩序。吴冠军教授的演讲用人类学机器这个概念阐述自己对人工智能的理解。人类学机器是著名哲学家阿甘本提出的一个概念,他认为人类与动物以及其他事物之间存在分级制度,人与人工智能之间是一种机器关系,上下级的关系。吴教授指出人类学机器是基于人工智能的全新的物种,这个新物种会带来一系列伦理问题、逻辑关系问题,对现实世界产生颠覆性的影响。我们在关注人工智能发展的同时也要关注它的正当性。上海社会科学院互联网研究中心执行主任惠志斌主要探究人工智能应用场景中的法律问题。他认为,人工智能能够联系大量的人、物,在这样一个联网的基础上产生大量的数据,数据通过智能化的算法,这个算法至少目前来看还是由人来设计,由人来去验证,去实施的算法,共同构造智能网络的应用场景,在各种各样的场景里面,医疗领域、环境领域,包括我们的生活等等各种场景里在应用,所以,在鼓励它发展的同时如何去规避危险,如何能按照人类所希望见到的“善智”这样一些方向发展,这是我们需要考虑的问题。还要考虑如何通过一些公共政策,如何通过法律,把它那些可能带来危害的风险点找到,进行规避。他认为,人工智能碰到的法律和经济问题,比如产权版权问题,变成具体服务和产品问题时的责任归属问题等等,要在基本安全的框架内,探讨人类和机器共同协作的方式,保持透明、开放,让人工智能产品在公众的监督之下,而不是随意设置。上海交通大学凯原法学院杨力教授的主题演讲“司法大数据与人工智能的应用前沿”介绍了司法界AI应用的前景。他介绍了法律实务中大数据应用的四套大纲:第一套大纲是AI系统,所有人工智能依赖于数据驱动,在整个司法链条上做到数据驱动最底层工作,一定要把法院、检察院的相关数据打通,这一点非常关键;第二套是在审判环节,审判环节是整个法律中的中心工作。第三套是算钱算绩效,对每一个法官每年能受理多少案件等进行测算;第四套是模拟审判,希望通过三到五年,机器法官(现在还不敢称智能法官)能够承担法院的简单案件。五、人工智能对经济、社会与传媒的影响
上海大学社会学系顾骏教授重点探讨了人工智能研究的“灯下黑”问题。他认为,以往的研究只是将人工智能与人类智能进行简单的比较,人类的自我中心主义让大多数研究者忽略了人类创造物的内在逻辑。他在演讲中主要提出了自己担忧的人工智能发展的八个问题,比如宇宙发展是否会终结人类,人工智能是否会超越人类,人类创造物是否有自主创造力以及机器人如果能够自我进化,那么进化的结果由谁来控制等。顾教授的演讲体现出强烈的忧思。最后,顾教授认为自己关于人工智能的研究只有问题,没有答案,需要更多的人去理性思考。上海师范大学知识与价值科学研究所所长何云峰教授则持乐观态度,站在进化论视角看待人工智能。他认为,人工智能像人类一样,也是不断进化的。人类为弥补自身进化不足不断开发新的机器,所以说人工智能在很早之前就已经开始,这也可以运用康德的“先天知识何以可能”来论证。何教授对人工智能的发展同样充满自信,重要的问题不是人工智能会带来一些风险,人们在前进的过程中可以解决这些,问题的关键是人工智能大量的使用会导致人类进化危机,它比人类摆脱自身束缚更加可怕。何教授最后对人工智能发展做出乐观预测,人工智能越发展,人类从劳动中解放程度越高,人类将有更多时间来学习和提升自己,拥有更多发展机会。复旦大学哲学学院徐英瑾教授演讲的主题聚焦于认知语言学与人工智能伦理学。他认为,在主流的人工智能伦理学研究中,很少有人意识到:将伦理规范的内容转化为机器编码的作业,在逻辑上必须预设一个好的语义学理论框架,而目前主流人工智能研究所采用的语义学基础理论却恰恰是有问题的。徐教授主张在人工智能与人工智能伦理学的研究中引入认知语言学的理论成果,并在此基础上,特别强调“身体图式”在伦理编码进程中所起到的基础性作用,必须严肃思考“怎样的外围设备才被允许与中央语义系统进行恒久的接驳”这一问题。微软亚太科技有限公司副总裁王枫也参加了研讨会,他鲜明地提出:新科技应助力人工智能造福人类。第一,人工智能服务于人类,互联网和各种软件硬件都是由人制造,为人服务,这是前提。微软近期推出的盲人智能眼镜就是在这一前提下产生,帮助盲人实现以前无法做到的事情。第二,他强调,没有数据的人工智能是一个理论和空谈,数据的完整性、专业性和准确性是最基本的。弹性的云计算的应用使得人工智能不再局限与手机管家的简单问答。而与媒体合作过程中,可以看到,通过人工智能感知的技术可以保证视频内容合法合规。此外,微软最近也推出了新的应用——通过云计算和大数据,抓取照片上人的特点,进行人脸识别,用于找寻流失儿童等。王枫副总裁同时表示,人工智能的标准要依托于法律法规和整个地区国家的标准。上海财经大学讲席教授、城市与区域科学学院副院长张学良教授,从经济学框架来分析人工智能的发展与经济学的未来。他认为经济学可以看作是在不确定的世界中找出确定的因素,经济学的研究将人工智能的发展看作要素驱动。第一,从供给与需求上来看,无论是人工智能和产品的出现,还是技术的发展,它所改变的形态是供给侧。第二,从成本与收益上来看,技术的成本我们是否能看到,它往前走一步投入多少成本,用经济规律讲是有约束条件的,企业家的投资一定要带来收益。它背后有一个成本与收益的法则。要用历史阶段性与连续性的眼光看待,让市场来发挥作用。第三,从政府与市场的角度看,政府要防止垄断,做好分配工作,利益共享,在人工智能时代找准自己的定位。第四,从中国与世界角度看,就业与劳动力市场、教育、文明、社会主要矛盾都是需要考虑的问题。六、圆桌大讨论:人工智能会战胜人类吗?
在圆桌会议中,围绕本次研讨会主题,与会专家学者进行了热烈的自由讨论,纷纷提出独到的观点。
华东师范大学历史系王家范教授:今天的这个话题,我觉得有一个前提,毕竟是人在倡导人工智能,人是主体,既然能够倡导也应该能够控制。所谓的道义是什么呢,我认为它所倡导的倡导物本应该是用来帮助人类的,凡是不利于人类,危害人类的都不应该倡导。违反道德基本准则的就是危害人类的,反人类的。在欢呼进步的同时,有必要对后果进行认真的检讨。要认真思考的是不应该只关心利益,人文主义在科技里面应该占有主导地位。如果把史学看作一门人类理解自己的私密工艺——提炼人类的智慧,用来改善人类现在和未来的处境,这一类的史学工艺,人工智能做不了。搞史学的知道,任何一个有名的史学家,他只能做很少一部分,有多少人能把古今中外的文献都整合在一起?我不认同所谓的人类智慧终极论,我认为机器人永远不可能完全胜过人类的整体智慧。上海政法学院文学与传媒学院副院长张永禄副教授:在人文科学里面,机器人写作要解决两大问题,要把认知语言学形式化。非线性的,非结构化的是不能表现出来的。目前最高级的(人工智能)是能写三千字以内的小说,我们知道最好的小说不是单一类型的。河南大学博士后赵牧:许多人对人工智能可能带来灾难后果报有深深的恐惧。这些恐惧毫无疑问是站在人本主义的立场上的,但种种悲观论调却建立在对人和人类社会既有的经验和认识的基础上,并对人工智能的概念带有望文生义的理解。目前的人工智能,还不过是小部分地实现了人脑的功能模拟。人工智能离所谓的智还有着很长的路要走,但人文学的想象力却将它的自我发展想象为即将到来的现实,似乎人为自己的创造物所奴役已经迫在眉睫了。我们当然不能轻易地否定这种忧虑所包含的人文关怀,但它却在无远弗届地想象人工智能的自主性时,对人之为人的属性设定了一个不变的本质。退一万步讲,既便人工智能成为了无机智能而将来之人成为了它的奴役对象又怎样呢?当年没有走出森林的猴子对作为其进化物的人是没有报怨资格的,它们如果有反思能力的话,也只能“求诸己”,而没办法让人再变成猴子。苏州大学凤凰传媒学院院长陈龙教授:我想从批判的视角来看一下人工智能它应用过程中的问题。讲危害和恐惧,为时尚早。首先人工智能发展到现在的状态,让人们产生了忧思,这本身就是现代性的一种表现,发展到极致状态的一种现象。我们知道人工智能现在的状态,未来的状态到底怎么样,它都是处在一个漫长的量变过程。最大的问题,是权力让步的风险问题。厦门大学法学院郭春镇教授:人工智能和人类之间的关系,一个是人与人之间的关系,还有和商业之间的关系。它其实已经不光影响控制我们的行为了,而是公开的,可以得到我们的信息,政府知道我们这么多信息,商业知道我们这么多信息,这样的话我们怎么控制信息的边界?怎么让他们不滥用个人信息的利用?如何界定和控制这个边界,这个问题依然保留。清华大学博士后曹渝:人工智能会怎么走,第一,不必恐惧,因为该来的还是要来的,我们不如齐心协力把人工智能孵化出来,第二,一定要警惕资本权力的界线。我们技术人是有理想的,不要认为这些IT工程师没有意识,人骨子里追求自由、平等、博爱,会超越一切。(本文首发于《探索与争鸣》杂志微信公众号,澎湃新闻得到授权使用,内容有删节。)
2023年人工智能领域发展七大趋势
2022年人工智能领域发展七大趋势
有望在网络安全和智能驾驶等领域“大显身手”
人工智能已成为人类有史以来最具革命性的技术之一。“人工智能是我们作为人类正在研究的最重要的技术之一。它对人类文明的影响将比火或电更深刻”。2020年1月,谷歌公司首席执行官桑达尔·皮查伊在瑞士达沃斯世界经济论坛上接受采访时如是说。
美国《福布斯》网站在近日的报道中指出,尽管目前很难想象机器自主决策所产生的影响,但可以肯定的是,当时光的车轮到达2022年时,人工智能领域新的突破和发展将继续拓宽我们的想象边界,其将在7大领域“大显身手”。
增强人类的劳动技能
人们一直担心机器或机器人将取代人工,甚至可能使某些工种变得多余。但人们也将越来越多地发现,人类可借助机器来提升自身技能。
比如,营销部门已习惯使用工具来帮助确定哪些潜在客户更值得关注;在工程领域,人工智能工具通过提供维护预测,让人们提前知道机器何时需要维修;法律等知识型行业将越来越多地使用人工智能工具,帮助人们对不断增长的可用数据中进行分类,以找到完成特定任务所需的信息。
总而言之,在几乎每个职业领域,各种智能工具和服务正在涌现,以帮助人们更有效地完成工作。2022年人工智能与人们日常生活的联系将会变得更加紧密。
更大更好的语言建模
语言建模允许机器以人类理解的语言与人类互动,甚至可将人类自然语言转化为可运行的程序及计算机代码。
2020年中,人工智能公司OpenAI发布了第三代语言预测模型GPT—3,这是科学家们迄今创建的最先进也是最大的语言模型,由大约1750亿个“参数”组成,这些“参数”是机器用来处理语言的变量和数据点。
众所周知,OpenAI正在开发一个更强大的继任者GPT—4。尽管细节尚未得到证实,但一些人估计,它可能包含多达100万亿个参数(与人脑的突触一样多)。从理论上讲,它离创造语言以及进行人类无法区分的对话更近了一大步。而且,它在创建计算机代码方面也会变得更好。
网络安全领域的人工智能
今年1月,世界经济论坛发布《2021年全球风险格局报告》,认为网络安全风险是全世界今后将面临的一项重大风险。
随着机器越来越多地占据人们的生活,黑客和网络犯罪不可避免地成为一个更大的问题,这正是人工智能可“大展拳脚”的地方。
人工智能正在改变网络安全的游戏规则。通过分析网络流量、识别恶意应用,智能算法将在保护人类免受网络安全威胁方面发挥越来越大的作用。2022年,人工智能的最重要应用可能会出现在这一领域。人工智能或能通过从数百万份研究报告、博客和新闻报道中分析整理出威胁情报,即时洞察信息,从而大幅加快响应速度。
人工智能与元宇宙
元宇宙是一个虚拟世界,就像互联网一样,重点在于实现沉浸式体验,自从马克·扎克伯格将脸书改名为“Meta”(元宇宙的英文前缀)以来,元宇宙话题更为火热。
人工智能无疑将是元宇宙的关键。人工智能将有助于创造在线环境,让人们在元宇宙中体会宾至如归的感觉,培养他们的创作冲动。人们或许很快就会习惯与人工智能生物共享元宇宙环境,比如想要放松时,就可与人工智能打网球或玩国际象棋游戏。
低代码和无代码人工智能
2020年,低代码/无代码人工智能工具异军突起并风靡全球,从构建应用程序到面向企业的垂直人工智能解决方案等应用不一而足。这股新鲜势力有望在2022年持续发力。数据显示,低代码/无代码工具将成为科技巨头们的下一个战斗前线,这是一个总值达132亿美元的市场,预计到2025年其总值将进一步提升至455亿美元。
美国亚马逊公司2020年6月发布的Honeycode平台就是最好的证明,该平台是一种类似于电子表格界面的无代码开发环境,被称为产品经理们的“福音”。
自动驾驶交通工具
数据显示,每年有130万人死于交通事故,其中90%是人为失误造成的。人工智能将成为自动驾驶汽车、船舶和飞机的“大脑”,正在改变这些行业。
特斯拉公司表示,到2022年,其生产的汽车将拥有完全的自动驾驶能力。谷歌、苹果、通用和福特等公司也有可能在2022年宣布在自动驾驶领域的重大飞跃。
此外,由非营利的海洋研究组织ProMare及IBM共同打造的“五月花”号自动驾驶船舶(MAS)已于2020年正式起航。IBM表示,人工智能船长让MAS具备侦测、思考与决策的能力,能够扫描地平线以发觉潜在危险,并根据各种即时数据来变更路线。2022年,自动驾驶船舶技术也将更上一层楼。
创造性人工智能
在GPT—4谷歌“大脑”等新模型的加持下,人们可以期待人工智能提供更加精致、看似“自然”的创意输出。谷歌“大脑”是GoogleX实验室的一个主要研究项目,是谷歌在人工智能领域开发出的一款模拟人脑具备自我学习功能的软件。
2022年,这些创意性输出通常不是为了展示人工智能的潜力,而是为了应用于日常创作任务,如为文章和时事通讯撰写标题、设计徽标和信息图表等。创造力通常被视为一种非常人性化的技能,但人们将越来越多地看到这些能力出现在机器上。(记者刘霞)
【纠错】【责任编辑:吴咏玲】