如何认识人工智能对未来经济社会的影响
原标题:如何认识人工智能对未来经济社会的影响人工智能作为一种新兴颠覆性技术,正在释放科技革命和产业变革积蓄的巨大能量,深刻改变着人类生产生活方式和思维方式,对经济发展、社会进步等方面产生重大而深远的影响。世界主要国家都高度重视人工智能发展,我国亦把新一代人工智能作为推动科技跨越发展、产业优化升级、生产力整体跃升的驱动力量。在此背景下,我们有必要更好认识和把握人工智能的发展进程,研究其未来趋势和走向。
人工智能不同于常规计算机技术依据既定程序执行计算或控制等任务,而是具有生物智能的自学习、自组织、自适应、自行动等特征。可以说,人工智能的实质是“赋予机器人类智能”。首先,人工智能是目标导向,而非指代特定技术。人工智能的目标是在某方面使机器具备相当于人类的智能,达到此目标即可称之为人工智能,具体技术路线则可能多种多样,多种技术类型和路线均被纳入人工智能范畴。例如,根据图灵测试方法,人类通过文字交流无法分辨智能机器与人类的区别,那么该机器就可以被认为拥有人类智能。其次,人工智能是对人类智能及生理构造的模拟。再次,人工智能发展涉及数学与统计学、软件、数据、硬件乃至外部环境等诸多因素。一方面,人工智能本身的发展,需要算法研究、训练数据集、人工智能芯片等横跨整个创新链的多个学科领域同步推进。另一方面,人工智能与经济的融合要求外部环境进行适应性变化,所涉的外部环境十分广泛,例如法律法规、伦理规范、基础设施、社会舆论等。随着人工智能进一步发展并与经济深度融合,其所涉外部环境范围还将进一步扩大,彼此互动和影响亦将日趋复杂。
总的来看,人工智能将波浪式发展。当前,人工智能正处于本轮发展浪潮的高峰。本轮人工智能浪潮的兴起,主要归功于数据、算力和算法的飞跃。一是移动互联网普及带来的大数据爆发,二是云计算技术应用带来的计算能力飞跃和计算成本持续下降,三是机器学习在互联网领域的应用推广。但人工智能技术成熟和大规模商业化应用可能仍将经历波折。人工智能的发展史表明,每一轮人工智能发展浪潮都遭遇了技术瓶颈制约,导致商业化应用难以落地,最终重新陷入低潮。本轮人工智能浪潮的技术上限和商业化潜力都大大高于以往,部分专用人工智能可能获得长足进步,但许多业内专家认为目前的人工智能从机理上还不存在向通用人工智能转化的可能性,人工智能大规模商业化应用仍将是一个长期而曲折的过程。人工智能的发展尚处于早期阶段,在可预见的未来仍将主要起到辅助人类工作而非替代人类的作用,同时,严重依赖数据输入和计算能力的人工智能距离真正的人类智能还有很大的差距。
作为继互联网后新一代“通用目的技术”,人工智能的影响可能遍及整个经济社会,创造出众多新兴业态。国内外普遍认为,人工智能将对未来经济发展产生重要影响。
一方面,人工智能将是未来经济增长的关键推动力。人工智能技术的应用将提升生产率,进而促进经济增长。许多商业研究机构对人工智能对经济的影响进行了预测,主要预测指标包括GDP增长率、市场规模、劳动生产率、行业增长率等。多数主要商业研究机构认为,总体上看,世界各国都将受益于人工智能,实现经济大幅增长。未来十年(至2030年),人工智能将助推全球生产总值增长12%左右。同时,人工智能将催生数个千亿美元甚至万亿美元规模的产业。人工智能对全球经济的推动和牵引,可能呈现出三种形态和方式。其一,它创造了一种新的虚拟劳动力,能够解决需要适应性和敏捷性的复杂任务,即“智能自动化”;其二,人工智能可以对现有劳动力和实物资产进行有力的补充和提升,提升员工能力,提高资本效率;其三,人工智能的普及将推动多行业的相关创新,提高全要素生产率,开辟崭新的经济增长空间。
另一方面,人工智能替代劳动的速度、广度和深度将前所未有。许多经济学家认为,人工智能使机器开始具备人类大脑的功能,将以全新的方式替代人类劳动,冲击许多从前受技术进步影响较小的职业,其替代劳动的速度、广度和深度将大大超越从前的技术进步。但他们同时指出,技术应用存在社会、法律、经济等多方面障碍,进展较为缓慢,技术对劳动的替代难以很快实现;劳动者可以转换技术禀赋;新技术的需求还将创造新的工作岗位。
当前,在人工智能对经济的影响这个领域,相关研究已经取得了一些成果,然而目前仍处于研究的早期探索阶段,还未形成成熟的理论和实证分析框架。不过,学界的一些基本共识已经达成:短期来看,人工智能发展将对我国经济产生显著促进作用;长期来看,人工智能的发展路径和速度难以预测。因此,我们需对人工智能加速发展可能导致的世界经济发展模式变化保持关注。
(作者单位:国务院发展研究中心创新发展研究部)
如何应对人工智能给国家政治安全带来的挑战
人工智能将给政治安全带来哪些挑战
恩格斯曾警告道:“我们不要过分陶醉于我们人类对自然界的胜利。”技术变革具有两面性,人工智能既是政治安全新机遇,也是新挑战。
挑战之一:人工智能技术的普及应用,导致政治权力呈现出“去中心化”趋势,非国家行为体的权力扩大,给国家治理带来新难题。在传统的民族国家治理模式中,执政党或政府处于权力的中心。而在人工智能时代,数据即代表着权力。掌握数据的主体既有国家权力机构,也有个人、企业团体、社会组织等非国家行为体。“互联网数据”结构的“多节点、无中心”设计,决定着处于线上社会任何位置的主体,均不可能比其他位置的主体位势高。平等、民主的理念将成为时代主流,人人都有“麦克风”“摄像机”,处处都是“舆论中心”“事发现场”,“所有人面对所有人”,任何人在线上发布一张图片、一个视频、一段文字、或一条语音,都有可能引起连锁反应、酝酿政治事件。这一显著特征,弱化了传统的线下科层制国家管理结构和单向治理模式,个人、企业团体、社会组织等非国家行为体,在某种意义上都得以成为与政府平等的发声主体,政治话语权由政府这个传统的权力中心逐渐向社会层面弥散,呈现出明显的权力去中心化趋势,国家治理难度大大增加,政治安全风险也大大增加。
目前,这种风险已初露端倪。今年9月23日,因有人线上传播“老师辱骂原住民学生是‘猴子’”的种族歧视谣言,印尼巴布亚省爆发严重骚乱,导致26人死亡、70余人受伤。仅仅一句谣言,就引起如此轩然大波。不难想象,一旦有人围绕敏感政治议程,恶意歪曲、篡改、伪造“事实真相”,蓄意策划、组织、酝酿、推动“线上”政治运动,并混合利用大量人力和机器人进行策应,煽动不明真相的民众“线上”“线下”同时行动,将会造成多么严重的后果。更为严重的是,这也许只是未来众多错综复杂政治事件的场景之一。
挑战之二:资本的权力将随着人工智能技术和数据垄断持续扩张,进而染指国家传统权力。首先需要说明的是,这个问题实际上也是“非国家行为体权力扩大”的应有内容。但鉴于人工智能时代“资本的权力”的特殊地位作用,以及带来的挑战之重大性,有必要单列出来讨论。马克思主义认为,生产力决定生产关系,经济基础决定上层建筑。生产力的发展变化必将带来生产关系包括政治权力结构的调整。作为“第一生产力”的科学技术,其发展进步势必引起国家权力结构的调整。当人工智能技术广泛应用于经济社会各领域并引起变革时,将会推动国家治理结构与权力分配模式做出相应调整。从当前种种迹象来看,资本的权力依托技术和数据垄断持续扩张,将成为新时代国家治理结构调整的重要特征。人工智能技术研发门槛很高,依赖于大量的、长期的资本投入和技术积累,这导致社会各产业、各阶层、各人才群体间的技术研发能力、资源占有程度、社会影响力等方面极不平衡,以互联网商业巨头为代表的技术资本将占据明显优势。
另一方面,人工智能技术强大的赋能作用,以及良好的经济社会应用前景,导致资本趋之若鹜。目前,人工智能领域几乎所有重要的突破性成果都出自谷歌、微软、IBM、亚马逊等商业巨头或其投资的研究机构。而且,这些巨头企业本身就对全球核心技术、顶尖人才具有强大的虹吸效应。商业巨头实际上掌握了目前人工智能领域的大部分话语权,正在逐步形成行业垄断地位。人工智能时代,巨头企业以强大资本为后盾,逐步垄断技术、控制数据,或将不可避免地在一定程度上逐渐分享传统意义上由国家所掌控的金融、信息等重要权力,进而插手政治事务。2016年发生的“剑桥分析事件”即是例证。国家是否有能力为资本权力的扩张设定合理的边界,是未来政治安全面临的重大挑战。
挑战之三:人工智能技术及其背后的数据和算法潜移默化引导公众舆论,进而影响人的政治判断和政治选择,间接把控政治走向。在人工智能时代,数据和算法就是新的权力,这也意味着新的政治风险。近年来围绕国家大选而展开的种种政治运作显示:拥有数据和技术能够从一定程度上影响政治议程。2016年美国总统大选就是典型案例。布鲁金斯学会研究人员伊丽莎白·萨布里克称,大选期间,为影响选举结果,“俄罗斯投入的总成本仅为100万美元,却产生了高回报。俄罗斯‘互联网研究机构’仅在脸书上发布的内容,就影响了1.25亿美国人。”类似的情况,接连出现在2017年的英国大选和法国大选中。这些案例非常清晰地显示:只要拥有足够丰富的数据和准确的算法,技术企业就能够为竞争性选举施加针对性影响。当某种特定政治结果发生时,人们很难判断这是民众正常的利益诉求,还是被有目的地引导的结果。这种利用技术干涉政治的风险,在所有国家都可能出现。特别是技术水平相对落后的发展中国家,由于缺乏相应的技术积累,没有有效的方式保护数据安全,也没有足够的能力应对技术干涉,这种挑战更加严酷。
挑战之四:人工智能技术极有可能被政治敌对势力用于实施渗透、颠覆、破坏、分裂活动,危及国家政治安全。利用先进技术威胁他国政治安全,这样的例子屡见不鲜。无线电技术出现后,经常被用于窃取国家秘密,或者实施洗脑式政治宣传。比如美国之音广播电台,几十年如一日地对我实施反动宣传、进行意识形态渗透。计算机网络技术出现后,被西方国家用来进行网络窃密、网络攻击、网络勾联、传播政治谣言、意识形态渗透和进攻。人工智能时代,攻击一国人工智能系统或利用人工智能实施渗透、颠覆、破坏、分裂活动,带来的后果可能比以往的技术更为严重。2018年8月,委内瑞拉国内反对派势力勾结美国,利用无人机携带炸弹袭击该国总统马杜罗,即是牛刀小试。人工智能也正在成为恐怖势力实施暴恐活动的武器。美国学者迈克斯·泰格马克担忧,从人工智能“军备竞赛中获益最大的,并不是超级大国,而是一些较小的‘流氓国家’和非国家主体,比如恐怖分子……只要他们把目标的照片和地址上传到杀手无人机中,它就会飞到目的地,识别和杀死那个人,然后自毁,以确保没人知道谁是幕后黑手。”人工智能还可以通过自动化社会工程攻击来助长各种暴力破坏活动,比如国内外敌对势力可能会通过聊天机器人,在线上宣传极端思想、招募恐怖分子,怂恿诱导他们在线下实施暴恐暗杀活动,制造政治恐慌。
挑战之五:人工智能技术进步对主权国家参与国际竞争带来严峻挑战。人工智能是当前最尖端最前沿技术之一,其核心技术多被美欧等发达国家所掌握。这些国家利用它提升生产自动化水平,提高劳动生产率,加快制造业回迁,将冲击发展中国家的传统比较优势,使后者在国际政治经济竞争格局和全球分工中处于更加不利的地位。通过发展军事智能化,进一步扩大对发展中国家的军事优势。广大发展中国家受限于自身发展水平、技术实力、人才积累等因素,短期内难以同发达国家抗衡。国家之间一旦形成技术“代差”,综合实力差距将被进一步拉大,技术强国不断扩大竞争优势,提升其全球地位和政治影响力,甚至形成“强者愈强”“赢者通吃”的局面。在这种情况下,技术强国对发展中国家实施政治讹诈和技术突袭的可能性严重存在,后者在国际战略博弈中很难翻盘。正如法国国际问题专家高大伟(DavidGosset)所讲,“人工智能是人类制造分裂的数码鸿沟。一旦你有高科技,能力就会非常强;没有,你完全就没有什么机会。”
人工智能时代如何有效维护我国政治安全
政治安全事关我党生死存亡和国家长治久安,也与民族复兴和人民福祉休戚相关。必须高度重视人工智能带来的政治安全挑战,对症下药,多措并举,综合施策。
针对“权力去中心化”趋势,转变执政理念,探索国家治理新模式。人工智能技术具有高度专业性和复杂性,企业、科研机构常常处于技术创新前沿,而国家政府则往往远离技术前沿,对技术的感知相对滞后,对技术的安全风险准备不足。为此,要强化风险意识,成立人工智能安全咨询专家组,密切跟踪技术和应用的发展,运用系统思维,定期研判人工智能可能带来的政治风险,提高风险识别、防范和处置能力。要创新技术治理模式,积极适应“权力去中心化”趋势,构建政府主导,企业、研究机构、技术专家、公众等多方参与的人工智能治理体系。“治理”不同于“管理”,管理是政府单向的行为过程,治理则是一种开放的、多个利益攸关方参与的互动过程。通过多方互动,政府既可以掌握技术和应用的前沿动态和发展趋势,又有助于企业、研究机构、专家、民众更好地了解政府关切,共商制定风险管控机制,推进治理工作的科学化民主化。
针对技术短板弱项,实施重点突破,努力跻身世界一流,争取掌握未来国际竞争战略主动权。当前,我国在人工智能技术领域面临的最重大的安全威胁,是关键核心技术受制于人。从现在起到2030年,是我国抢抓机遇的关键十年。举全国之力,集全民之智,戮力建设自主创新体系。加强政策引导和资金支持,打造一批国家级人工智能研发平台。加强基础性、原创性、前瞻性技术研发,从智能芯片、基础算法、关键部件、高精度传感器入手,加快核心技术突破。技术创新的关键在人才,要在加强国内人才培养的同时,拿出具有吸引力的政策措施,全球招贤纳士,聚天下英才而用之。
针对技术应用风险,严格人工智能标准制定和行业监管,确保人工智能良性发展。没有规矩,不成方圆。要随着技术的发展变化,在《人工智能标准化白皮书》(2018版)的基础上,进一步修订完善相关技术标准。制定完善人工智能相关法律法规和伦理道德框架,对相关的民事与刑事责任确认、隐私和产权保护、机器伦理等问题予以明确,理顺设计者、使用者、监管者之间的权责关系。建立健全人工智能监管体系,形成设计问责和应用监督并重的双层监管结构,实现对算法设计、产品开发、成果应用的全过程监管,积极促进行业自律,加大对数据滥用、算法陷阱、侵犯隐私、违背道德伦理、越过权力边界等不良行为的惩戒力度。
针对外部安全风险,加强军事能力建设,为维护国家政治安全提供力量保证。要立足我军实际,统筹推进机械化、信息化、智能化复合发展,成体系加强战斗力建设。要保持战略定力和战略清醒,既高度重视、加快发展、加紧赶超,又要清醒地看到美国利用“星球大战计划”引诱拖垮前苏联的殷鉴不远,谨防掉入对手构设的“战略陷阱”。要保持强大战略自信,找准对手的“短板”和“死穴”,运用非对称战略制衡思维,坚持“你打你的,我打我的”,创新发展智能化条件人民战争的战略战术。要积极研究探索智能化战争理论,加快推进现代武器装备体系和人才队伍建设,强化智能化条件下部队训练演练,不断提升我军新时代军事斗争准备水平,为军事上决战决胜、政治上安全稳定提供坚强力量保证。
针对战略互疑,加强国际交流合作,共同制定人工智能技术国际行为准则。近年来,国内外学术界、产业界围绕人工智能主题的交流合作逐渐增多,然而主要大国尚未在双边或多边层面展开真诚、深入的对话。甚至有人把中美在人工智能等高科技领域的竞争比作另一场“星球大战”。某些大国无端猜忌别人,并且人为地对相关技术、产品、供应链等设置技术壁垒。
随着全球化的深入发展和技术突破传统的国家疆界,一国的安全早已与其他国家紧密相联,人工智能发展过程中出现的问题,只有各国共同携起手来才能解决。固步自封、相互掣肘从短期看尚可以找到掩耳盗铃、自我欣赏的快感,从长远看没有出路。我国要展现大国姿态,发挥自身优势,积极探索与技术强国开展务实交流合作的可行性路径,互相取长补短,努力增信释疑,避免恶性竞争,共同应对难题。要加大对国外优质创新企业的风险投资与合作并购,鼓励国内实体大力引进高级专业技术人才、合作创办研究机构。要积极主动参与人工智能国际议题设置,共同应对安全、伦理、法律等诸多挑战。抓住人工智能国际准则和配套法规刚刚起步之机,积极参与规则制定,及时宣示我国主张,努力掌握规则制定话语权和国际交往主动权。
转载请注明来源返回搜狐,查看更多
中青报:如何看待霍金对人工智能的警告
原标题:如何看待霍金对人工智能的警告今年3月8日,著名物理学家史蒂芬・霍金向英国《独立报》表示,人类必须建立有效机制尽早识别威胁所在,防止新科技(人工智能)对人类带来的威胁进一步上升。霍金警告,未来人工智能可能会以生化战争或核子战争的方式摧毁人类。其实,早在2015年9月,霍金就发出过类似的警告:聪明能干的人工智能会让人类灭亡。霍金表示:一个超级聪明的人工智能可以非常好地实现它的目标,如果这些目标没有与我们人类一致,我们人类就麻烦了。
我们如何来对待霍金的警告呢?首先,霍金本人也是人工智能技术的支持者,霍金认为,如今人工智能似乎已经渗透到各个领域。人工智能甚至可帮助根除长期存在的社会挑战,比如疾病和贫困等。
人工智能技术是当今新技术革命的领头羊。事实上,人工智能技术的发展已历经三次浪潮。第一次浪潮以“手工知识”为特征,典型范例如智能手机应用程序等。第二次浪潮以“统计学习”为特征,典型范例如人工神经网络系统,并在无人驾驶汽车等领域取得进展。虽然这些人工智能技术,对明确的问题有较强的推理和判断能力,但不具备学习能力。第三次浪潮则以“适应环境”为特征,人工智能能够理解环境并发现逻辑规则,从而进行自我训练并建立自身的决策流程。今年年初,谷歌AlphaGO的升级版Master以60∶0的战绩,击溃当世所有围棋顶级高手;就在5月25日,AlphaGO又接连两局击败中国围棋职业九段棋手柯洁;我以为,这些都是人工智能第三次浪潮的标志。
其次,人工智能技术也是一把双刃剑。一方面,借助人工智能技术实现自动化,将极大提高生产率,节省劳动成本;通过优化行业现有产品和服务,开拓更广阔的市场空间。正由于人工智能对社会经济无可替代的重要推动作用,在我国两会上已将人工智能写进了政府工作报告。
另一方面,人工智能技术对社会也带来了近期和远期的风险。在不远的将来,那些重复、耗时、乏味的工作;在快速变化的复杂环境中进行的工作以及超出人类极限的工作,都有可能被人工智能系统所代替,从而冲击劳动力市场。可以预测,由于人工智能的发展,多数人的智能将低于或接近人工智能的水平,如果没有政策的有效控制,财富就会集中到少数智能超过人工智能的人手中,这将进一步扩大社会的贫富差别,引发社会的撕裂。
至于说到霍金警告的人工智能引发的人类生存风险,即人工智能将来会从整体上超越人类智能,目前对此在认识上还有分歧。许多自然科学家认为,目前人工智能离上述水平还很远很远,其危险远不足虑;而某些社会科学家却有担忧,认为随着技术变革的深入,人工智能所引发的链式反应,就会出现无法控制的局面。上述认识的差异,正好体现了人类对智能认识的多样性。从这个角度看,科学家全面认识人类智能,并将其复现,只是时间问题。鉴于人工智能有可能超越人类智能,以及由此产生十分严重的后果,再加上科学技术发展的内在不确定性,就充分说明了研究人工智能安全问题的必要性。
早在1950年出版的美国著名科幻小说家艾萨克・阿西莫夫撰写的《我,机器人》小说中,就提出了著名的“机器人三大定律”:第一定律,机器人不得伤害人类个体,或者目睹人类个体将遭受危险而袖手旁观;第二定律,机器人必须服从人给予它的命令,当该命令与第一定律冲突时例外;第三定律,机器人在不违反第一、第二定律的情况下要尽可能保护自己的生存。此后,这“三大定律”不断激发出对于人工智能安全性的新思考。由于人工智能最终必将会具备自主意识,到那时人类与人工智能系统之间的关系,必须服从普适、可靠的准则。特别是在军事领域要更加小心,否则极有可能出现科幻电影中描述的人机大战的场景。
因此,我们在发展人工智能系统的同时,还要确保其在预先制定的相关准则下进行工作,以防止其出现越规行为。
(责编:刘琨(实习生)、王倩)