如何认识人工智能对未来经济社会的影响
原标题:如何认识人工智能对未来经济社会的影响人工智能作为一种新兴颠覆性技术,正在释放科技革命和产业变革积蓄的巨大能量,深刻改变着人类生产生活方式和思维方式,对经济发展、社会进步等方面产生重大而深远的影响。世界主要国家都高度重视人工智能发展,我国亦把新一代人工智能作为推动科技跨越发展、产业优化升级、生产力整体跃升的驱动力量。在此背景下,我们有必要更好认识和把握人工智能的发展进程,研究其未来趋势和走向。
人工智能不同于常规计算机技术依据既定程序执行计算或控制等任务,而是具有生物智能的自学习、自组织、自适应、自行动等特征。可以说,人工智能的实质是“赋予机器人类智能”。首先,人工智能是目标导向,而非指代特定技术。人工智能的目标是在某方面使机器具备相当于人类的智能,达到此目标即可称之为人工智能,具体技术路线则可能多种多样,多种技术类型和路线均被纳入人工智能范畴。例如,根据图灵测试方法,人类通过文字交流无法分辨智能机器与人类的区别,那么该机器就可以被认为拥有人类智能。其次,人工智能是对人类智能及生理构造的模拟。再次,人工智能发展涉及数学与统计学、软件、数据、硬件乃至外部环境等诸多因素。一方面,人工智能本身的发展,需要算法研究、训练数据集、人工智能芯片等横跨整个创新链的多个学科领域同步推进。另一方面,人工智能与经济的融合要求外部环境进行适应性变化,所涉的外部环境十分广泛,例如法律法规、伦理规范、基础设施、社会舆论等。随着人工智能进一步发展并与经济深度融合,其所涉外部环境范围还将进一步扩大,彼此互动和影响亦将日趋复杂。
总的来看,人工智能将波浪式发展。当前,人工智能正处于本轮发展浪潮的高峰。本轮人工智能浪潮的兴起,主要归功于数据、算力和算法的飞跃。一是移动互联网普及带来的大数据爆发,二是云计算技术应用带来的计算能力飞跃和计算成本持续下降,三是机器学习在互联网领域的应用推广。但人工智能技术成熟和大规模商业化应用可能仍将经历波折。人工智能的发展史表明,每一轮人工智能发展浪潮都遭遇了技术瓶颈制约,导致商业化应用难以落地,最终重新陷入低潮。本轮人工智能浪潮的技术上限和商业化潜力都大大高于以往,部分专用人工智能可能获得长足进步,但许多业内专家认为目前的人工智能从机理上还不存在向通用人工智能转化的可能性,人工智能大规模商业化应用仍将是一个长期而曲折的过程。人工智能的发展尚处于早期阶段,在可预见的未来仍将主要起到辅助人类工作而非替代人类的作用,同时,严重依赖数据输入和计算能力的人工智能距离真正的人类智能还有很大的差距。
作为继互联网后新一代“通用目的技术”,人工智能的影响可能遍及整个经济社会,创造出众多新兴业态。国内外普遍认为,人工智能将对未来经济发展产生重要影响。
一方面,人工智能将是未来经济增长的关键推动力。人工智能技术的应用将提升生产率,进而促进经济增长。许多商业研究机构对人工智能对经济的影响进行了预测,主要预测指标包括GDP增长率、市场规模、劳动生产率、行业增长率等。多数主要商业研究机构认为,总体上看,世界各国都将受益于人工智能,实现经济大幅增长。未来十年(至2030年),人工智能将助推全球生产总值增长12%左右。同时,人工智能将催生数个千亿美元甚至万亿美元规模的产业。人工智能对全球经济的推动和牵引,可能呈现出三种形态和方式。其一,它创造了一种新的虚拟劳动力,能够解决需要适应性和敏捷性的复杂任务,即“智能自动化”;其二,人工智能可以对现有劳动力和实物资产进行有力的补充和提升,提升员工能力,提高资本效率;其三,人工智能的普及将推动多行业的相关创新,提高全要素生产率,开辟崭新的经济增长空间。
另一方面,人工智能替代劳动的速度、广度和深度将前所未有。许多经济学家认为,人工智能使机器开始具备人类大脑的功能,将以全新的方式替代人类劳动,冲击许多从前受技术进步影响较小的职业,其替代劳动的速度、广度和深度将大大超越从前的技术进步。但他们同时指出,技术应用存在社会、法律、经济等多方面障碍,进展较为缓慢,技术对劳动的替代难以很快实现;劳动者可以转换技术禀赋;新技术的需求还将创造新的工作岗位。
当前,在人工智能对经济的影响这个领域,相关研究已经取得了一些成果,然而目前仍处于研究的早期探索阶段,还未形成成熟的理论和实证分析框架。不过,学界的一些基本共识已经达成:短期来看,人工智能发展将对我国经济产生显著促进作用;长期来看,人工智能的发展路径和速度难以预测。因此,我们需对人工智能加速发展可能导致的世界经济发展模式变化保持关注。
(作者单位:国务院发展研究中心创新发展研究部)
(责编:赵超、吕骞)分享让更多人看到
人工智能的利与弊分析
随着现代科学技术的飞速发展,先进的技术在各个领域都得到了广泛的应用,使得生产力获得了大幅度的提高,为改善人民生活水平作出了巨大贡献。下一次生产力飞跃的突破口在哪里?目前越来越多的科学家把希望寄托于人工智能。
人工智能,可能众多人第一反应就是机器人。因为在各种文学著作,电影,电视剧中人工智能的形象以机器人居多,比较出名的就有“终结者”这种脍炙人口的经典。
人工智能并不是局限于机器人这一个品种。理想中的人工智能应该是包含着各种形态的智能体,以我们人类可见可概括的形体来说,可以是计算机程序、机器人、车载硬件、甚至是芯片,而人工智能就存在与这些硬件当中的软体内。
然而,万事皆有利有弊。使机器有自己的思维是否会对人类自身产生威胁,这是人们需要考虑的事情。电影《我与机器人》便描述了一个机器反而要消灭人类的悲剧。同时,大量人工智能的产生会造成大量的失业。由此而见,我们需要做的还有很多。但有一点事确定的,只要正确运用人工智能,它将极大程度上推动人类文明的进步。
人工智能给我们带来的利益当扫地机器人、削面机器人、做饭机器人、工业机器人、消防机器人、战斗机器人等开始运用于我们的生活中时,不得不说给我们的生活带来了极大便利。首先,人工智能在能源发展过程中会间接地提高能源的利用率。这个功能在日常生活中的表现是:有些智能硬件,可以根据你以往的习惯,判断你什么时候到家,这样在你进入房子之前它就可以把室内气温调节到相宜的温度,这样就是一种节约能源的方式。像这样的方面还有很多,如果这种智能设备能够被成千上万的家庭使用的话,那能源利用率就会极大地提高,能源就会得到极大的节省。其次,人工智能和人类智慧越来越明显的分工会极大地节省人力资源成本,这必然会成为人工智能在未来工业领域的一大趋势:有些效率低的工作由智能机器人做更好。比如有些重复性的工作,这些工作由智能机器人来做不但节约了人力成本而且提高了工作的效率。如果把人工智能应用在工业中,去调节一些不可控的因素,而不需要消耗大量的人力。比如风车发电,有了人工智能,就不需要浪费大量人力在不确定的风向上,人工智能设备会根据不同的风向对风车做出相应的并且是及时的调整。
人工智能的利1--商业价值很高
一般认为,人工智能有三大商用方向:一是信息聚合;二是评估用户情绪反应;三是与用户建立关系,可以通过这三点建立与用户之间的社交纽带,让他们经常回访。
怎么做?给用户反馈。第一步就是要收集用户数据,利用人工智能更好地了解用户,基于大数据的分析,为用户创造优质的、长期的个性化体验。
人工智能拥有数据意味着拥有战略上的优势,因为通过数据可以更好地了解人类、可以创造更好的软件,让更多的人快乐。企业就能够相应的赚取更多的商业价值。
人工智能的利2----带来更多新的工作机遇
就像曾经脱离了传统农业、传统手工业的大量劳动力,在现代工业生产和城市服务业中找到新的就业机会那样,人工智能的进步也将如此——由当前数据密集型机器学习、通过机器学习与人工智能会话的系统而延伸出的很多领域,将会在未来带来很多工作机遇。
未来随着自动驾驶、超人类视觉听觉、智能工作流程等技术的发展,专业司机、保安、放射科医生、行政助理、税务员、家政服务员、记者、翻译等工作都将可能被人工智能所取代。
但是人工智能也会带来更多新的工作机遇,君不见好多公司开出天价的年薪抢人工智能人才?
人工智能的利3---人工智能让人类生活更美好
例如,人工智能的医疗应用惠及大众。我们医生或许难以保持最新治疗方案和方法,也无法了解所有医学例案。人工智能可以在短时间内分析大量数据,精确判断病症,并找到最佳的治疗方案,为人们提供最好的治疗。再说,先如今已经被广泛运用的无人驾驶不仅减轻了人们的负担,更是大大降低了事故率。再比如说,如今苹果系统的SIR手写版系统、生物识别系统都是人工智能的应用,都让人类的生活质量得到显著提高。
人工智能的利4---人工智能推动社会进步,实现人类进一步解放
人工智能应用后,各行业的生产效率大幅提高,人类财富以几何形式快速增长,为人类的美好生活提供了坚实的物质基础。人工智能将人类从重复的、无意义的工作中解放出来,从高危险的工作中解放出来,让人有了更多选择的自由,从而把更多精力投入到更有意义的领域中去。人工智能也让人类突破得以发展的瓶颈。例如,人工智能可以探索外太空、山海冰河这些人类无法企及的地方,可以让复杂的大数据得到高效的分析与合理的运用,让人们探索到更深层次的知识。所以人工智能使人类超越了自己本身的局限,实现了人类的进一步解放。
人工智能的利5----推动人类的进步
人工智能推动了人类的理性进步,可以反过来促进人类的发展。人工智能研发过程的本身就具有研究人脑认知与功能的需求和特性,而使人类在这个过程中就学习了学习的方法,从而增强人类的逻辑思维能力。人工智能更新了人类应对问题的方法,比如依靠大数据的分析,沃森医生可以提供对病人伤害最小的、全新的治疗手段和技能范围。比如,从而丰富人类应对各种问题的方法。人工智能也拓宽了人类知识技能范围,比如,人工智能根据对大数据分析得到各种新知识、新信息,使人们难以预测的洪水、地震等灾害的预报的精确程度大大提高,使人类在自然面前的约束变得更强大。
人工智能给我们带来的弊端人工智能的弊1---大规模的失业
人工智能的发展,导致很多人失业。据人力资源和社会保障部2016年新闻发布会介绍,2016年末中国失业率达4.05%,机器人不会犯错,不会累,不需要休息,不需要工资。这完全可以代替很多职业,例如工人,司机等等不需要思想的工作。如此便会导致大批大批的人失业,大批大批的人整日无所事事。
人工智能大规模使用,必然带来大规模的失业。很多人必然被机器人所取代。而大规模的失业,一则给政府带来沉重的负担,二则必然使需求下降,千千万万的企业不得不破产。科幻作家科利·多克托罗(CoryDoctorow)在BoingBoing网站上写道:“如果我们坚持认为,机器人提高生产力带来的好处应该归功于机器人所有者,那么我们肯定会迎来这样的未来:没有足够多的机器人所有者会购买机器人制造的所有东西。”
人工智能的弊2---对人类的一次大淘汰
人工智能时代的到来可能是对人类的一次大淘汰。机器人对人类的大淘汰,如果处理不好有可能引发核大战,那将是人类的灾难,人类可能因此而灭亡。
举一个例子:“想像一下,如果有一天,冰箱向你抱怨它工作时间太长了,或者要求加薪,你一定会觉得这太可怕了。不要认为人工智能只是按照程序进行,未来它将像婴儿的大脑一样具有学习功能,很可能超过人的智能,摧毁我们人类。”牛津大学波斯特罗姆教授说:“先进的人工智能不仅仅是一门新技术,而是一个对人类的巨大威胁。”
人工智能的弊3---人才争夺战导致垄断、贫富分化加剧
人工智能时代的到来,必将引发空前的人才争夺战。谁拥有的各类一流人才数量多质量高,谁就能赢得最后胜利。同时这会导致巨头的垄断、贫富分化加剧。
人工智能的弊4---机器人兵团导致战争频繁
人工智能的应用将出现各种各样的机器人兵团。特别是在军事领域,机器人兵团将给很多人带来灾难,战争也会更加频繁,毕竟不需要人自己上战场了,死了也无所谓。与之同时,也必将出现反机器人军队(兵团)。人类社会及一切事物就是在矛盾斗争中发展的。
人工智能的弊5---机器人具有很大危险性
2015年,德国汽车制造商大众公司位于德国的一家工厂内,一个机器人杀死了外包员工。至今日本已有近20人死于机器人手下,致残的有8000多人。众所周知,日本是人工智能机器人发展最快的一个国家,就已经出现了这样惨重的后果。
如果人工智能机器人被恐怖分子利用那就更加危险了,如果恐怖分子建立一支机器人部队,机器人武器一旦落入恐怖分子之手,后果将不堪设想。
人工智能的弊6---人类的精神生活退化
机器人是没有感情的。如果此刻你的身边,你的同学,你的朋友,都是人工智能机器人,你会受得了吗?当然不行!现在的社会,是一个物质的社会,但更是一个精神的社会,如果人工智能机器人越来越多,这个世界将没有感情,没有喜怒哀乐,到处都是冷冰冰的,没有艺术,没有精神食粮,到处都是机械化的。
人工智能——人类的福音还是威胁
首先必须明确与人工智能相关的一些术语:弱人工智能或者专业人工智能,自主人工智能(AutonomousAI),自适应人工智能(AdaptiveAI),通用人工智能(ArtificialGeneralIntelligence,AGI),强人工智能(StrongAI),人类水平人工智能(Human-LevelAI),超人类水平人工智能(Super-humanAI)。
弱人工智能或者专业人工智能毫无疑问就是指目前的技术方案,能够自动完成某一具体任务,比如围棋或者摄像头的人脸识别功能。这种人工智能不能独立学习其它任务,除非人类对其进行重新编程。
自主人工智能是指系统能够长时间在没有操作员参与的情况下运行。比如,它能够让配备太阳能电池的无人机从香榭丽舍大道飞到红场或者沿相反的路线飞行,独立选择路线、充电经停地点,同时规避可能的障碍。
自适应人工智能要求系统具备适应新环境的能力,能够获取研制过程中没有预置的知识。比如,能够让俄语对话支持系统独立掌握新的语言,适应新的语言环境或者在学习语言教学资料的基础上,在对话中运用这些知识。
通用人工智能同样要求具备高水平的适应性,具备通用人工智能技术的系统在经过相应学习后,能够在各种截然不同的活动中使用。学习过程可以是独立的,也可以是有针对性的(在指导员的帮助下)。目前也经常使用强人工智能来与弱人工智能和专业人工智能进行对比。
人类水平人工智能要求系统的适应性水平能够与人类的适应性水平相当,也就是说系统能够在与人类学习相当的期限内掌握同样的技能。
超人类水平人工智能要求具备更高水平的适应性和学习速度。因此,系统能够学习人类基本难以胜任的知识和能力。
强人工智能研制中的原则性问题
在总体进化框架下,强人工智能的出现完全是符合规律的,就像原子组成分子,分子组成细胞,细胞组成机体,专门的细胞构成中央神经系统,就像社会组织的出现,语言、文字的发展,最终出现了信息技术一样是有规律的。在进化过程中,信息结构和组织方法不断复杂化的规律已经被瓦连京·图尔钦很好地证明。如果人类文明没有灭亡,那么这种进化将是不可避免的,在很久以后的未来,这将拯救人类,因为只有信息的非生物存在样式能够逃过太阳系的灭亡,将我们的文明信息密码保存在宇宙当中。
与此同时,必须要承认的是,要研制出强人工智能,并不一定要知道自然的人工智能是如何运行的,就像制造导弹不一定要知道鸟类如何飞行一样。显然,这迟早会通过这样或者那样的方法实现,或许,能够通过几种方法来实现。
大部分专家认为,要研制出通用或者强人工智能,还要解决以下几个原则性问题:
快速学习(few-shotlearning)——必须让系统学习的资料规模变小,而不是像现在的深度学习系统那样,需要大量的专门准备的学习资料。
强大的概括能力(stronggeneralisation)——研制情景识别技术,被识别目标出现在与学习资料完全不同的环境当中。
学习生成模型(generativemodels)——研制一种学习技术,当记忆对象并非识别对象的特征,而是其构成原则时,这能够反映识别目标更加深层次的实质,能够让学习变得更快,具备更强的概括归纳能力。
结构化预测和学习(structuredpredictionandlearning)——在将学习对象展现为多层、多级结构的基础上,开发学习技术,在这种结构中,低层级要素决定更高层级要素,这也可能成为解决快速学习和强概括能力的一种方法。
解决灾难性遗忘(catastrophicforgetting)问题——这个问题在现有系统当中普遍存在,起初学习了一类目标,之后学习识别新一类目标时,失去识别第一类目标的能力。
具备增量学习(incrementallearning)能力——让系统能够积累知识并逐渐完善自身能力,与此同时不丧失先前所获得的知识,且自然语言对话交流系统获得新的知识。理想状态是通过“婴儿图灵测试”(BabyTuringTest),系统应当逐渐具备从婴儿至成人的语言水平。
解决意识问题(consciousness)——建立可靠的意识行为工作模型,通过建立“内部世界图景”保证进行有效的预测和有针对性的行为,在这一图景框架下,能够在不与现实世界实际交互的情况下,寻找达成既定目标的最佳行动战略,这大大提高了安全性,检验假说的能力,提升了检验的速度和效能,从而也使得有生或者智能系统在自我意识的“虚拟世界”中具备了自我学习的能力。从应用的观点看,意识问题存在两个方面。一方面,研制具备意识的人工智能系统能够大大提高其效能。另一方面,研制这样的系统会导致额外的风险,包括伦理层面的问题,因为这些系统在某一阶段将具备与人类相当的自我意识水平,并因此可能导致法律方面的后果。
人工智能的潜在威胁
无论是自主或者自适应系统,还是通用或者强人工智能系统的出现,都伴随着不同程度威胁的产生,这些威胁在当前也已经迫在眉睫。
第一,对人类构成威胁的不一定是强人工智能、通用人工智能、人类水平人工智能或者超人类水平人工智能,因为具备大量信息,速度极快的自主系统就已经极具威胁。在自主系统的基础上可研制所谓的致命自主武器系统,最简单的例子就是3D打印机批量生产以及人工小批量制作的雇佣型杀人用无人机。
第二,对于国家的威胁是,另一个国家(潜在敌人)获得了自主性、自适应性更强,具备通用人工智能技术的武器,其反应速度更快,能力更强。
第三,对于全世界的威胁是由上一个威胁衍生而来的,各个国家陷入军备竞赛,致力于改进自主杀伤和摧毁兵器的智能水平,斯坦尼斯拉夫·莱姆几十年前就曾如此预言。
第四,对于各方来说威胁可能是任何智能系统,不一定是作战智能系统,也可以是具备一定自主性和自适应性的工业或日常智能系统,不仅能够进行有针对性的行动,还能有意识地进行目标定向,而且系统自主设置的目标可能与人类的目标相违背,而系统达成目标的能力要强得多,因为其运行速度更快,处理信息能力、预测能力更强。遗憾的是,这一威胁的程度还没有得到应有的重视和研究。
第五,对于社会的威胁是,资本主义(极权主义)社会中的生产关系进入新的发展阶段,越来越少的人具备控制物质生产的能力,通过越来越高级的自动化,大部分人被排除出物质生产,这可能导致更加严重的社会差距,降低“社会阶梯”的效能,增加“多余人口”的数量,导致相应的社会后果。
最后,对于整个人类的威胁是,基于全球网络的全球数据处理、信息传播和决策计算系统的自主化,因为这些系统的信息传播速度和影响能力可能导致现有经验和管理模式所预想不到的社会现象。比如,当今中国所采取的社会贷款体系就是一种独一无二的文明实验,它所导致的后果今天还不得而知。
目前对人工智能系统的监控非常困难,原因之一就包括现有基于“深度神经网络”应用方案的“封闭性”,使得难以在决策执行前对决策的正确性进行核实,甚至都不能对及其决策进行事实分析。可解释人工智能(ExplainableArtificialIntelligence,EAI)这一新的方向目前被用来解决这一难题,将关联(神经网络)和符号(基于逻辑)方法结合起来解决这一问题也出现了新的进展。
应对威胁的方法
毫无疑问,必须采取以下措施防止人工智能技术发展及其应用可能导致的灾难性后果。
国际社会对致命自主武器系统予以取缔并研究、采取执行监督措施。
国家支持旨在解决上述问题的工作,特别是可解释人工智能,方法融合,研究目标定向机制建立的原则以获得有效的编程和智能系统监控工具,程序设计的工具不是规则,而是价值观,监控的对象不是行为,而是目标。
获得人工智能技术和方法的民主化,比如,依靠对智能系统应用于大众计算、认知技术学习所得收入的再投资,以及研究具有开放式密码的人工智能方案,制定措施鼓励现有“封闭式”人工智能系统开放密码。比如,Aigents项目旨在为普通用户研制自主工作,不受集中控制的个人人工智能助手。
在国际层面规定人工智能算法、分布式数据处理系统和决策系统工作协议的开放性,使国际和国家组织以及私人具有独立审计的能力。密码开放人工智能平台和生态系统SingularityNET的创建就是在该方向的创造性探索之一。
转自:知远战略与防务研究所
来源:俄罗斯国际事务委员会网站
编译:威远返回搜狐,查看更多
人工智能会不会带来世纪灾难?
图为章星球
新一轮人机大战落幕,中国围棋国手柯洁落泪,因为他无法接受以0:3的比分落败。
这一消息的讨论余热还没有退去,又一个关于人工智能(AI)的爆炸性消息传来。近日,Facebook在实验中让两个AI聊天机器人互相对话,发现机器人竟逐渐发展出人类无法理解的独特语言。看到此情景,研究人员不得不对其进行人工干预。
Facebook在研究报告中指出,机器人有时可以很好地胜任客服谈判的角色,甚至懂得使用“先假装而后承认”的对话策略。但是实验中机器人自行发展出新语言让人不安,人们或许可以从中一窥未来世界的样子。语言被认为是人类独有的技能。Facebook的聊天机器人的表现刷新了人们的认知。
作为人类,面对这样的消息,显然不能以“机器人是人制造的,最终还是受人控制”这样自欺欺人的逻辑来安慰。机器人有独立意识后,一旦它们在商量怎么摆脱人类的约束,人类该怎么办?
前几天,看到杨小刚先生在第一财经APP发表了《阿尔法狗炒股摸彩票一定能战无不胜吗?》,对人工智能会否给人类带来灾难表达了积极乐观的态度,我其实同意该文很多观点,如机器可能超越人类,但却无法取代人类;如应该为技术文明的飞跃欢呼,以及由此还可以引发人类终极话题的重新思考等。
这样的乐观当然是有强大理由的,因为人类毕竟在风雨跌撞中走过了几千年,拥有了今天的繁荣与自信。这篇文章倾向于相信这样一种哲学:人工再怎么发达,都不可能超越人类,世界虽然是客观存在,但人类所及只是人类思维的主观反映结果,如果有一种人类人工可以超越人类,则意味着其已经进入超验范畴,那就是人可以造神,而不是神造人了。
乐观的理由虽然不少,但我觉得悲观的理由也可以找出一箩框。而且这种“乐观”很大可能会建立在巨大灾难的基础上,即表现为所谓风雨过后的“彩虹”,至于“彩虹“之前的“暴风雨”会是怎样烈度的肆虐,从人类有过的无数次的战争灾难来看,我想没有人会愿意身处那个“彩虹”之前的“暴风雨中”吧。
人类历史几千年的真实经验就是,科技的飞跃每每伴随着灾难的升级,每一次“彩虹”之前的“风雨”,都可能是动辄千万计的生灵席卷其中。
中华民族共祭的人文始祖黄帝,也是中国第一位诗人,写下了史载的中国第一首诗《弹歌》,《弹歌》共八个字,“断竹,续弹;飞土,逐肉”,记载的是华夏民族研发弓箭应用于生产生活的场面。这一生产工具不久被应用到了战争,尽管我们找不到相关死亡人数记录,但完全可以合理相像,弓箭的应用导致战争死伤人数在当时必然是一次“飞跃”。
毕竟,弓箭和木棒一样,当时还只是一种最原始的竹木“科技”,杀伤力的飞跃也只是相对那个时代而言。金属应用于农业生产无疑又是人类史上一次科技的飞跃,而与此同时,人类战争也就进入了残酷的冷兵器时代,一场战争几十万人死亡的情况也就逐渐演变为常态。秦驽无疑也是当时的“大杀器”,但秦驽的登场,伴随着的却是数以百万计的士兵与平民死亡,与此同时则是华夏文明最开放最具活力时代的夭折,最终酿造“百家皆行秦政法”的历史悲剧。
宋朝人发明火药、随后火炮开始应用于战争,人类开始从冷兵器向热兵器过渡,也正是在这个过渡期,蒙古人抓住了机遇,把宋朝发明的这个“大杀器”师其长技了一把,使得作为野战之王的蒙古军团成功克服了攻城短板,同时也使人类战争灾难死亡人数一跃而至千万级。
在蒙古军团南征北伐中,历史学家估计战争导致约3000万至6000万人口死亡,强大的金国据说死亡人数超过90%,而南宋人口消亡一半。火药号称中国四大发明之一,但这个发明甫登历史舞台,就引发了战争灾难又一次飞跃。
更不用说第一次世界大战,是人类历史上应用科技产品规模最大的战争,重机枪、坦克、毒气甚至刚刚试飞成功不久的飞机,都一一闪亮登场,这场战争导致1500万人死亡,但这显然已经创造了欧洲的记录,因为一战的主战场是在欧洲,亚洲主要人口大国如中国和印度都只是有所波及。一战无疑为人类史谱写了一幅前所未有的壮阔死亡图景,证明科技文明再次为人类灾难的升级推波助澜。
然而,一战的伤痛尚未愈合,短短二十年相对平静的“繁衍生息”后,二战又爆发了。二战的科技产品应用无疑又是一个新的高峰,飞机、坦克和航母成为主流武器,核武器也初试身手,而战争导致的死亡人数也飙升到7000万,科技文明谱写的灾难乐章又是一次划时代的飞跃。
人类几千年走过来,无数人口惨遭战争荼毒,即使尸骨如山,即使血流成河,人类的记性到目前为止却看不出有多少长进。因此,中国的历史学家总结出了治乱无休止循环的“周期律”,现实政治中不乏热衷“大杀器”的领导人。
战争灾难的本质是什么?目前甚至连准确的定义都没有,更谈不上已经找到和平的钥匙。既然战争难以避免,我们人类就难以避免有人把先进武器运用于战争。
我对战争灾难的理解是:人类价值伦理及其催生的制度体系跟不上科技文明体系发展的节奏导致的悲剧。科技文明已经形成了高度健全的研发体系,就像汽车的发动机一样动力不断升级,而人类的价值体系却仍然被一些古老的法则所支配,就好比1.0版本的控制系统搭配10.0版的发动机,拖拉机的驾驶室搭配泰坦尼亚级巨轮,你坐在这样的巨轮上觉得安逸,其实只是因为暂时风平浪静没啥暗礁而已。
今天世界的大体安宁,一方面得益于科技文明爆发式增长创造的物质社会相对充裕,自然资源的稀缺性被暂时掩盖(科技可以创造一切的信念使很多人注意不到空气和水资源、动植物资源这几类核心资源的总量并没有随着科技快速增长的事实),另一方面则受益于核武器的可怕力量使大国之间不敢轻启战事。至于价值伦理体系严重滞后于科技文明体系的事实则仍无根本改观。
杨小刚先生的文章预期,当人工智能发展到一定程度,就像“不扩散核武器条约”一样,人类也会出台一个如何利用和开发人工智能的条约。
问题在于,核不扩散条约真的已经解决核危机了,还是仅仅暂时缓解?力量博弈下的妥协能否可以视作问题的解决?不同国家、民族、宗教之间的仇恨未解决,仅仅是担心一打架大家都得死伤惨重就放弃攻击,这种和平显然只是相对和平,也许在平衡打破的时候有人想动手,也许还有人丧心病狂就抱同归于尽的决心想动手。再说,核不扩散条约的公平性能获得多少国家认同?还有多少没进核俱乐部的国家还在梦想着拥有“大杀器”呢?仅仅二十年间,拥核国家不也从五个飙升到了八个吗?再给一百年会发展到多少个?
所以实际情况是,人类其实还没有解决核危机时,人工智能时代又到来了。1.0的驾驶室控制10.0的发动机已经疲于应付,20.0版的发动机又诞生了。
杨小刚文章说到:人工智能最可怕之处不在于其本身,而是制造者—----人本身。
我恰恰从这段话看到了不乐观。首先,在人工智能协助下,一个人可以拥有巨大的毁灭力量,这一刻是一定会随着科技的爆发而到来的。人工智能从某种功能和片面属性上超越人类,是已经不断发生的事实,没有发生甚至也不可能发生的应该是整体超越人类,尤其是价值判断能力方面,比如机器人能不能进化到怀疑杀死某个人的指令是否合乎道德?人工智能的危险就在于科学家可能不会优先去研究如何创造机器人的价值判断能力,而会片面发展人工智能的技术能力直至这种片面能力可以让个别人拥有远超常人的力量。尤其战争和恐怖活动的需要更会刺激这种研究偏向于优先发展人工智能的破坏能力。
但是,能够制约这种力量的力量,人类的道德价值系统,我认为从目前的现状来看,未来几十上百年都不会有根本的改观,有些人指望“道德风险意识”能抑制能人的疯狂,但这显然是很难保障的,因为学科的分工决定了一个卓越的科学家不一定是道德和伦理方面高度理性自觉的人,甚至偏偏还就是一些非常偏执疯狂的人。
当然,世界上总是偏执疯狂与理性自觉的人都有,关键要看工具掌握在谁手中,用来干什么。
这恰恰也是很难乐观的事,这种工具说白就是一种权力,权力能不能就掌握在正义者手里,从来都是打不了包票的事。尽管当今世界大多数的“大杀器”是掌握在“负责任”的领导者手里,但显然也有很大几率落入到无良政客手里。要想最大几率避免工具落入无良政客手里,显然需要公民权利对公共权力的有效选择与制约,但这对当今世界显然还是一件任重道远的事,还远未达到可以乐观的地步。
除了权利与权力关系的再造,要想尽可能地降低人工智能带给人类灾难的几率,我还想提一种古老的智慧,那就是来自《易经》和孔夫子的“知崇履卑”观念。《易?大传》上说“知崇礼卑,崇效天,卑法地。”我的理解就是,要以认识世界为目的,而不是以改造世界为目的。认识是天,行动是地。求知要放开思路,大胆思考,行动或应用则要谨慎小心,如履薄冰,诚惶诚恐,三思后行。
回到人工智能研究与开发,就应该将研究目标优先定在通过人工智能研究认识人类自身,也就是从高科技层面回到苏格拉底“认识自己”这个古老命题,是要通过模仿和再现人类智慧来认识人类自身,最核心则是将人工智能的价值判断能力放在主攻方向,通过人工智能研究再现人类的价值判断能力这一目标如能实现,则即使人工智能有朝一日进化到超越人类,也会因为拥有价值判断能力和道德意识而选择不与人类为敌。我们或许可以总结出如下两条:
一:如果人工智能不能在价值和道德意识方面超越人类,单纯的功能超越不能视为超越了人类。
二:如果人工智能进化到价值和道德意识方面也超越人类,那么人工智能多半不会与人类为敌,而可能与人类和平相处。
但是,我是比较怀疑第二条的,我相信人工智能在功能上片面地极大地超越人类是大几率事件,而人类落后的伦理体系导致的冲突随时可能再次打开潘多拉的宝盒。灾难与否,不取决于我们的乐观与悲观态度,而取决于人类自己的选择。历史一旦成为历史都是必然,但一切历史在发生之际却都是偶然。也许我们这一代有幸逃过战争灾难,但我们真的要为子孙后代祈福并做点什么才好,让权利有效制约权力,才能让工具最小几率落入丧心病狂者手里,这或许是我们最迫切需要做的一件事吧。(作者为深圳市马洪基金会智库百人会会员)