美国人工智能的倡议经验对我国有何借鉴意义
日前,美国白宫科技政策办公室(OSTP)发布《美国人工智能倡议首年年度报告》,宣布美国的人工智能产业已发展到关键阶段。报告从六个方面概述了美国人工智能倡议的进展情况,并提出了一个持续的长期愿景。美国政府层面的关键政策和做法对于我国推动人工智能产业发展具有重要的借鉴意义。
美国措施卓有成效
首先,在投资人工智能研发方面,美国认为,政府必须与工业界、学术界、国际合作伙伴和盟国以及其他非联邦实体合作,促进联邦对人工智能研发的投资,以实现人工智能的技术突破。
今年2月,特朗普在其2021财政年度预算提案中呼吁将非国防人工智能研发翻一番。2019年,美国政府更新了《人工智能研发战略计划》,制定了第一份进度报告,描述了联邦研发投资的影响,并首次公布了政府范围内非国防人工智能研发支出的报告。
其次,美国认为,必须加强对高质量联邦数据、模型和计算资源的访问,以增加它们对人工智能研发的价值,同时维护和扩展安全、保障、隐私和保密保护。
《美国人工智能倡议》呼吁联邦机构找出新的机会,增加对联邦数据和模型的访问和使用。2019年,白宫管理和预算办公室制定了《联邦数据战略》,作为联邦机构如何使用和管理数据的操作原则和最佳实践框架。
第三,美国认为,必须减少安全开发、测试、部署和采用人工智能技术的障碍,为符合美国价值观的人工智能治理提供指导,并推动制定适当的人工智能技术标准。作为《美国人工智能倡议》的一部分,今年1月,白宫公布了《美国人工智能监管原则》草案,以供评论。这是第一个以美国价值观和良好监管实践为基础推进创新的人工智能监管政策。此外,美国国家标准与技术研究所(NIST)发布了第一份联邦参与人工智能技术标准制定的战略。
第四,美国认为,必须通过学徒制、技能计划、科学、技术、工程和数学(STEM)教育(重点是计算机科学)来增强当前和未来几代美国工人的能力,以确保美国工人,包括联邦工人,能够充分利用人工智能的机会。
美国总统特朗普指示,所有联邦机构优先考虑人工智能相关的学徒和工作培训计划和机会。此外,国家科学基金会(NSF)新的“国家人工智能研究院”计划也将有助于劳动力的发展,特别是人工智能研究人员的发展。
第五,美国认为,必须在国际上打造支持美国人工智能研究和创新的全球环境,为美国人工智能产业打开市场,同时保护美国在人工智能领域的技术优势。2019年,美国在经济合作与发展组织(OECD)领导下做出了历史性的努力,就“可信赖的人工智能”监管的基本原则达成了第一个国际共识协议。美国还与G7和G20的国际伙伴合作,采用类似的人工智能原则。
第六,美国认为,必须采用人工智能等技术,以提高政府为美国人民服务的供给和效率。作为美国联邦政府的采购部门,美国总务管理局(GSA)建立了“人工智能卓越中心”(COE),以确保联邦机构能够采用最佳的方式将人工智能技术运用到政府服务和任务之中。国防部建立了“联合人工智能中心”(JAIC),作为执行国防部人工智能战略的协调中心和人工智能卓越中心。能源部建立了“人工智能和技术办公室”(AITO),作为协调人工智能活动和加速部门内和机构间合作的纽带。
中国应借鉴哪些经验
随着中国人工智能市场规模逐渐攀升,有哪些经验中国可以从美国学习?
笔者认为,首先,应为人工智能优先分配高性能计算资源。借鉴美国《国家战略性计算计划》(NSCI),在我国国家层面上建立专门机构来协调和推进高性能计算(HPC)的发展。通过自由分配资源和资源储备,在适当和符合法律的情况下,优先为人工智能相关应用分配高性能计算资源。
其次,为人工智能建立监管原则。应借鉴《美国人工智能监管原则》,建立我国人工智能监管规则,促进稳健的创新生态系统,减少、移除人工智能技术发展和应用面临的不必要障碍。侧重不具有法律强制性的非监管措施,出台监管例外、豁免,或者试点项目,为特定的人工智能应用提供“安全港”。
三是,为人工智能技术建立标准制定指南。借鉴美国联邦参与人工智能技术标准制定战略,建立我国人工智能技术标准制定指南。开发有助于政府部门更好地研究和评估人工智能系统质量的技术,包括标准化的测试机制和强大的绩效指标。专注于理解人工智能可信度的研究,并将这些指标纳入未来的标准。
四是,为人工智能建立人才队伍。借鉴美国国家科学基金会“国家人工智能研究院”计划,建立我国国家人工智能创新中心。重点开展行业基础和共性关键技术研发、成果产业化、人才培训等工作。可采取政府+企业+高校等各类混合所有制模式,结合各地产学研用资源优势进行国家和省区两级布局。
五是,通过跨部门协作加快政府对人工智能技术的采用。建立“卓越中心”作为政府部门共享人工智能专业知识和最佳实践的重要机制。通过将机器学习、计算机视觉、自然语言处理、智能流程设计和机器人流程自动化纳入其业务,使各政府部门能够开发人工智能解决方案。责任编辑;zl
《人工智能》之《确定性推理》习题解析
教材:《人工智能及其应用》,蔡自兴等,2016m清华大学出版社(第5版)
参考书:
对应同系列博客:《人工智能》之《确定性推理》
《人工智能》之《确定性推理》习题解析1什么是图搜索过程?其中,重排OPEN表意味着什么,重排的原则是什么?2试举例比较各种搜索方法的效率3化为子句形有哪些步骤?请结合例子说明4如何通过消解反演求取问题的答案?5什么叫合式公式?合式公式有哪些等价关系?6用宽度优先搜索求迷宫的出路7用有界深度优先搜索方法求解八数码难题10机器人驾驶卡车11规则演绎系统和产生式系统有哪几种推理方式?各自的特点是什么?12单调推理有何局限性?什么叫缺省推理?非单调推理系统如何证实一个节点的有效性?13在什么情况下需要采用非单调推理?14下列语句是一些几何定理,把这些语句表示为基于规则的几何证明系统的产生式规则1什么是图搜索过程?其中,重排OPEN表意味着什么,重排的原则是什么?图搜索过程如下:
建立一个只含有起始节点S的搜索图G,把S放到一个叫做OPEN的未拓展节点表中。建立一个叫做CLOSED的已拓展节点表,初始化为空表。LOOP:若OPEN表是空表,则失败退出。选择OPEN表上的第一个节点,把它从OPEN表移出并放进CLOSED表中。称此节点为节点n。若n为一目标节点,则有解并成功退出,此解是追踪图G中沿着指针从n到S这条路径而得到的。扩展节点n,生成后继节点集合M。对那些未曾在G中出现过的(既未曾在OPEN表上,也未在CLOSED表上出现过的)M成员设置其父节点指针指向n并加入OPEN表。对已经在OPEN或CLOSED表中出现过的每一个M成员,确定是否需要将其原来的父节点改为n。对已在CLOSED表上的每个M成员,若修改了其父节点,则将该节点从CLOSED表中移出,重新加入OPEN表中。按某一任意方式或按某个探试值,重排OPEN表。GOLOOP。重排OPEN表意味着,选出一个“最好”的节点在第6步进行扩展,不同的排序方式也会使图搜索过程的搜索策略不一样。
重排的原则应当视具体需求而定,不同的原则对应不同的搜索策略。一般地,重排的原则是:根据相应的图搜索策略,将“最好”的节点(即最有可能达到目标节点的节点)放在最前面。
2试举例比较各种搜索方法的效率这些搜索方法都大同小异,差别在于拓展节点n时,把n的所有后裔放在OPEN表的前端还是末端。
如,宽度优先搜索的框图:
3化为子句形有哪些步骤?请结合例子说明消去蕴涵符号将蕴涵符号转换为∨和符号,如A∨B替换A→B。减少否定符号的辖域每个否定符号最多只用到一个谓词符号上,并反复应用狄摩根定律。如用A∨B代替(A∧B),用(∃x)(A)代替(∀x)A。对变量标准化改名哑元(受量词约束的变元),保证每个量词用唯一的哑元,即不同量词约束的变元有不同的名字。如对(∀x)(P(x)∧(∃x)Q(x))标准化得(∀x)(P(x)∧(∃y)Q(y))。消去存在量词对全程量词辖域内的存在量词,以Skolem函数代替存在量词内的约束变量。对自由的存在量词,以一个新常量替代。如((∀y)P(g(y),y))代替(∀y)(∃x)P(x,y),其中g(y)为Skolem函数。又如P(A)代替(∃x)P(x),其中A为不含变量的Skolem函数即常量。化为前束形把所有全称量词移到公式的左边,并使每个量词的辖域包括这个量词后面公式的整个部分。前束形={前缀}{母式}(全称量词串)(无量词公式)把母式化为合取范式任何母式都可写成由一些谓词公式和谓词公式的否定的析取(子句)的有限集组成的合取。如(A∨B)∧(A∨C)代替A∨(B∧C)。消去全称量词余下的量词均被全称量词量化了。同时全称量词的次序也不重要。因此,可以消去前缀,即消去明显出现的全称量词。消去连词符号∧用{A,B}代替(A∧B),消去符号∧。最后得到一个有限子句集,其中每个公式(子句)是文字的析取。更换变量名称更换变量符号,使一个变量符号只出现在一个子句中。如P(x)∨Q(x)和P(x)∨P(y),更换变量符号后为P(x1)∨Q(x1)和P(x2)∨P(y)。4如何通过消解反演求取问题的答案?给出公式集{S}和目标公式L;否定L,得到~L;把~L添加到S中;把新产生的集合{~L,S}化成子句集;应用消解原理,推导出一个表示矛盾的空子句。5什么叫合式公式?合式公式有哪些等价关系?一阶逻辑中合式公式,被递归定义如下:
原子是合式公式;若A是合式公式,则()也是合式公式;若A,B是合式公式,则也是合式公式;若A是合式公式,是A中的变量符号,则也是合式公式;只有限次地使用1~4所生成的符号串才是合式公式。等价关系有:
否定之否定、蕴含与与或形式的等价狄摩根定律分配律交换律结合律逆否律6用宽度优先搜索求迷宫的出路设起点为S,搜索树为:路径为:S→A→B→C→F
7用有界深度优先搜索方法求解八数码难题设置深度界限为9,其搜索图如下所示:按顺时针方向,最大深度为5。
10机器人驾驶卡车11规则演绎系统和产生式系统有哪几种推理方式?各自的特点是什么?12单调推理有何局限性?什么叫缺省推理?非单调推理系统如何证实一个节点的有效性?13在什么情况下需要采用非单调推理?不完全的信息,不断变化的情况,以及求解复杂问题过程中产生的假设。
14下列语句是一些几何定理,把这些语句表示为基于规则的几何证明系统的产生式规则两个全等三角形的各对应角相等。两个全等三角形的各对应边相等。各对应边相等的三角形是全等三角形。等腰三角形的两底角相等。答:规则1:IF两个三角形全等THEN各对应角相等
规则2:IF两个三角形全等THEN各对应边相等
规则3:IF两个三角形各对应边相等THEN两个三角形全等
规则4:IF一个三角形为等腰三角形THEN它的两底角相等
人工智能—产生式系统(专家系统)
文章目录产生式系统概念原理例子运行结果产生式系统概念产生式系统(productionsystem)是指认知心理学程序表征系统的一种。为解决某一问题或完成某一作业而按一定层次联结组成的认知规则系统。
原理产生式系统由规则库、推理机、综合数据库,控制程序四部分组成。其中,规则库里面存储大量的知识,综合数据库则是储存事实,综合数据库通过推理机根据规则库里面的知识,由控制程序的控制下完成推理,若是推出中间结果,则把中间结果放到综合数据库中,继续重新推理,直到推理出最终结果或推理失败,程序结束。
例子下面我们就以交通工具识别系统为例,用java编写。规则库:R1:it_is(车),postive(体型小),postive(有轮子);R2:it_is(飞机),postive(体型大),postive(流线型);R3:it_is(飞机),postive(天上飞的);R4:it_is(船),postive(水上游的);R5:it_is(车),postive(地上跑的);R6:trto_is(轮船),it_is(船),postive(体型大),postive(冒黑烟);R7:trto_is(航天飞机),it_is(飞机),postive(有机翼);R8:trto_is(直升机),it_is(飞机),postive(有螺旋桨);R9:trto_is(汽车),it_is(车),postive(四个轮);R10:trto_is(两轮车),it_is(车),postive(两个轮);代码:MainGui.java该类为主界面类,调用GuiFrame类(自定义的类,代码在后面)显示主窗口。
packagechanshengsi01;importjava.awt.Container;importjava.awt.FlowLayout;importjava.awt.event.ActionEvent;importjava.awt.event.ActionListener;importjava.util.ArrayList;importjavax.swing.JButton;importjavax.swing.JFrame;importjavax.swing.JLabel;importjavax.swing.JTextField;publicclassMainGUI{publicstaticvoidmain(String[]args){GuiFrameg=newGuiFrame("交通工具识别");//主窗口}}GuiFrame.java该类主要实现主界面的布局,以及两个按钮的监听器。点击匹配按钮会调用Brain(自定义的类,代码在后面)类的identify函数,来根据输入到综合数据库的事实去匹配结果。点击查看规则按钮会调用GuiRules(自定义的类,代码在后面)显示出规则库里面的知识。
packagechanshengsi01;importjava.awt.Container;importjava.awt.FlowLayout;importjava.awt.GridLayout;importjava.awt.event.ActionEvent;importjava.awt.event.ActionListener;importjava.util.ArrayList;importjavax.swing.JButton;importjavax.swing.JFrame;importjavax.swing.JLabel;importjavax.swing.JTextField;publicclassGuiFrameextendsJFrame{JButtonbutton;//匹配按钮JButtonbutton1;//查看规则按钮JLabellabel;//标题标签JLabellabel_result;//结果标签JTextFieldtextField1;//输入框1JTextFieldtextField2;//输入框2JTextFieldtextField3;//输入框3JTextFieldtextField4;//输入框4ContainercontentPane;publicGuiFrame(Stringtitle){super(title);this.setSize(330,350);this.setLocation(350,150);this.setDefaultLookAndFeelDecorated(true);this.setDefaultCloseOperation(JFrame.EXIT_ON_CLOSE);button=newJButton("匹配");button.setBounds(60,168,75,30);button1=newJButton("查看规则");button1.setBounds(150,168,100,30);label=newJLabel("设置事实:");label.setBounds(120,2,90,50);label_result=newJLabel("最终结果是:");label_result.setBounds(60,210,200,20);textField1=newJTextField(16);textField1.setBounds(55,40,200,23);textField2=newJTextField(16);textField2.setBounds(55,72,200,23);textField3=newJTextField(16);textField3.setBounds(55,104,200,23);textField4=newJTextField(16);textField4.setBounds(55,136,200,23);contentPane=this.getContentPane();contentPane.setLayout(null);//添加控件contentPane.add(label);contentPane.add(textField1);contentPane.add(textField2);contentPane.add(textField3);contentPane.add(textField4);contentPane.add(button);contentPane.add(button1);contentPane.add(label_result);//设置按钮点击作用button.addActionListener(newActionListener(){publicvoidactionPerformed(ActionEvente){ArrayListal=newArrayList();Stringstr1=textField1.getText();//获取输入内容if(!str1.equals("")){al.add(str1);}Stringstr2=textField2.getText();//获取输入内容if(!str2.equals("")){al.add(str2);}Stringstr3=textField3.getText();//获取输入内容if(!str3.equals("")){al.add(str3);}Stringstr4=textField4.getText();//获取输入内容if(!str4.equals("")){al.add(str4);}//匹配Brainbrain=newBrain();Stringresult=brain.identify(al);//结果界面label_result.setText("最终结果是:"+result);setVisible(true);}});button1.addActionListener(newActionListener(){publicvoidactionPerformed(ActionEvente){GuiRulesgt=newGuiRules();}});this.setVisible(true);}}GuiRules.java主要用于展示规则库的知识。
packagechanshengsi01;importjava.awt.Container;importjava.util.ArrayList;importjavax.swing.JFrame;importjavax.swing.JLabel;publicclassGuiRulesextendsJFrame{JLabell;Strings;Rulesrule;Rules[]r;ContainercontentPane;GuiRules(){super("查看规则");this.setSize(400,400);this.setLocation(800,150);this.setDefaultLookAndFeelDecorated(true);contentPane=this.getContentPane();contentPane.setLayout(null);rule=newRules();r=newRules[10];r=rule.RuleInit();intx=0;for(inti=0;is=s+"+"+a.get(j);}s=s+"--->"+r[i].result;l=newJLabel(s);l.setBounds(20,x,300,100);x=x+20;contentPane.add(l);}this.setVisible(true);}}Rules.java规则库
packagechanshengsi01;importjava.util.ArrayList;publicclassRules{ArrayListcondition;Stringresult;intis_temp;intis_use=0;Rules(){condition=newArrayList();}publicintgetIs_use(){returnis_use;}publicvoidsetIs_use(intis_use){this.is_use=is_use;}publicintgetIs_temp(){returnis_temp;}publicvoidsetIs_temp(intis_temp){this.is_temp=is_temp;}publicArrayListgetCondition(){returncondition;}publicvoidsetCondition(ArrayListcondition){this.condition=(ArrayList)condition.clone();}publicStringgetResult(){returnresult;}publicvoidsetResult(Stringresult){this.result=result;}publicstaticRules[]RuleInit(){Rules[]r=newRules[10];Rulesrule0=newRules();r[0]=rule0;ArrayListc0=newArrayList();c0.add("体型小");c0.add("有轮子");r[0].setCondition(c0);r[0].setResult("车");r[0].setIs_temp(1);Rulesrule1=newRules();r[1]=rule1;ArrayListc1=newArrayList();c1.add("体型大");c1.add("流线型");r[1].setCondition(c1);r[1].setResult("飞机");r[1].setIs_temp(1);Rulesrule2=newRules();r[2]=rule2;ArrayListc2=newArrayList();c2.add("天上飞的");r[2].setCondition(c2);r[2].setResult("飞机");r[2].setIs_temp(1);Rulesrule3=newRules();r[3]=rule3;ArrayListc3=newArrayList();c3.add("水上游的");r[3].setCondition(c3);r[3].setResult("船");r[3].setIs_temp(1);Rulesrule4=newRules();r[4]=rule4;ArrayListc4=newArrayList();c4.add("地上跑的");r[4].setCondition(c4);r[4].setResult("车");r[4].setIs_temp(1);Rulesrule5=newRules();r[5]=rule5;ArrayListc5=newArrayList();c5.add("体型大");c5.add("冒黑烟");c5.add("船");r[5].setCondition(c5);r[5].setResult("轮船");r[5].setIs_temp(0);Rulesrule6=newRules();r[6]=rule6;ArrayListc6=newArrayList();c6.add("飞机");c6.add("有机翼");r[6].setCondition(c6);r[6].setResult("航天飞机");r[6].setIs_temp(0);Rulesrule7=newRules();r[7]=rule7;ArrayListc7=newArrayList();c7.add("飞机");c7.add("有螺旋桨");r[7].setCondition(c7);r[7].setResult("直升机");r[7].setIs_temp(0);Rulesrule8=newRules();r[8]=rule8;ArrayListc8=newArrayList();c8.add("车");c8.add("四个轮");r[8].setCondition(c8);r[8].setResult("汽车");r[8].setIs_temp(0);Rulesrule9=newRules();r[9]=rule9;ArrayListc9=newArrayList();c9.add("车");c9.add("两个轮");r[9].setCondition(c9);r[9].setResult("两轮车");r[9].setIs_temp(0);returnr;}}Postive.java综合数据库,用于接收用户输入的事实或者推理机产生的中间结果。
packagechanshengsi01;importjava.util.ArrayList;publicclassPostive{publicArrayLists1;Postive(){s1=newArrayList();}publicArrayListgetS1(){returns1;}publicvoidsetS1(ArrayLists1){this.s1=(ArrayList)s1.clone();}publicvoiddelete(){this.s1.clear();}}Brain.java控制程序,控制推理机进行推理。
packagechanshengsi01;importjava.util.ArrayList;publicclassBrain{GuiTempgt;publicStringidentify(ArrayListal){Stringresult=null;Postivep=newPostive();p.setS1(al);Checkch=newCheck();Rulesrule=newRules();Rules[]r=newRules[10];r=rule.RuleInit();inti;for(i=0;iif(r[i].getIs_temp()==0){//如果不是中间值,打印最终结果;result=r[i].getResult();break;}else{r[i].setIs_use(1);//如果是中间值,显示出来,并把结论加到postive中//显示中间结果界面gt=newGuiTemp(r[i]);p.s1.add(r[i].getResult());//进行下一轮匹配i=0;}}}//如果未匹配到,则机器不认识if(i>=r.length){result="不认识";}returnresult;}}Check.java用于推理匹配,检查规则库中是否有符合的知识。
packagechanshengsi01;importjava.util.ArrayList;publicclassCheck{publicintcheckRule(ArrayLista1,ArrayLista2){intlength1=a1.size();intlength2=a2.size();for(inti=0;iStrings2=(String)a2.get(j);if(s1.equals(s2)){break;}}if(j>=length2){return0;}}return1;}}GuiTemp.java用于显示中间结果,如果推理出中间结果,则显示出来。
packagechanshengsi01;importjava.awt.Container;importjava.util.ArrayList;importjavax.swing.JFrame;importjavax.swing.JLabel;publicclassGuiTempextendsJFrame{JLabell1;ContainercontentPane;Strings1="";publicGuiTemp(Rulesr){super("推理出中间结果");this.setSize(200,200);this.setLocation(800,150);this.setDefaultLookAndFeelDecorated(true);contentPane=this.getContentPane();contentPane.setLayout(null);ArrayLista=r.getCondition();s1=(String)a.get(0);for(inti=1;i"+r.result;l1=newJLabel(s1);l1.setBounds(20,20,200,100);contentPane.add(l1);this.setVisible(true);}}运行结果主界面的截图查看规则后截图:匹配后截图
人工智能与信息安全之间有何作用
人工智能领域涉及的安全问题较多,如国家安全、社会安全、人的安全,还包括一些伦理问题和隐私问题。人工智能主要是基于信息基础构建的一些应用,它离不开信息的采集、存储、分析、传播。同时,人工智能领域的思想、方法、理论对信息安全也有很多的应用。
[[259446]]
1.信息安全的基本要求
没有网络安全就没有国家安全,没有信息化就没有现代化。这充分表达出了信息化与现代化、信息安全与国家安全的关系。同时,从新技术,比如“互联网+”、物联网、云计算、大数据到区块链等新技术的进一步发展,都要以信息技术为引导,人工智能也是如此,通过一系列技术的创新,最终才能真正发展国家经济,提升国家综合实力。从这个意义上说,没有信息化就没有现代化,包括人工智能在内的新技术的发展,都需要以信息技术为主导。
信息化是一个双刃剑,带来很多便利的同时,也出现了很多安全问题,因此应当把信息安全提高到国家安全重要组成部分的高度。保密性、完整性、可用、可控和不可抵赖性是信息安全的五个基本属性。信息安全要实现的目标是,对信息的使用和处理均经过所有权人的授权、严格按所有权人要求、真实地顺畅地合理地进行。要经过所有权人授权,主要是指身份识别问题,身份是有所有权的,要经过授权对信息进行使用;在使用中是可读、可写还是可改,就需要按照授权人的授权要求进行;真实指信息的使用要真实,不是经过篡改或者伪造的,要保证其真实性;顺畅是指在信息使用过程中,能够保证信息系统能够正常使用;合理性就是要理性使用,主要是对信息的管控,如要对有害信息进行有效治理。
信息的采集、传输、存储、管理以及信息的处理和使用等环节中,都会涉及到安全问题。
信息采集主要是指控制问题,如是不是按照真实情况进行采集?采集数据过程中是不是是否严格遵守规定?信息传输中要有效地进行保护,做好保密工作,要保证它的真实性不被篡改,保证传输过程的可靠性,能够抗干扰。信息存储和管理,强调的是真实性和保密性,不会被篡改,不会被滥用。以后,很多的信息都会放在云上面,那么要如何保证个人信息的安全呢?要知道云的管理者是不可信的,每个用户的信息对他也要进行保密,因此说云的安全或大数据的安全,只是指存储和管理方面的安全。那么在信息处理和使用中,就会存在另外一个问题,就是怎样进行身份识别和权限的有效管理?末尾,处理的结果要进行签名,保证它的真实性,同时可以对信息使用的整个生命周期进行追溯。
总之,信息安全不仅仅是在于信息本身的安全,信息的作用也不仅仅只是针对设备而言,它甚至延展到了人的身上,因此提高信息的安全性显得尤为重要。
2.人工智能应用的信息技术体系
当前社会引发了一轮又一轮的人工智能热潮,很多都是由于数据驱动,正是在云计算、大数据等技术的发展下,人工智才有了一次又一次的飞跃。所以数据的安全、信息的安全贯穿着人工智能应用的过程中。
人工智能大体分为几个层面。
感知层,各类传感器采集各类信息,也就是信息的采集,这涉及到很多安全问题。传输层,采集过程要进行处理,进行反作用,靠的是基础网络,涉及到传输过程的安全。数据层,可能进行数据汇聚,通过大量数据的分析和协同,来产生新的知识和价值。应用层,也就是服与控制,提供服务,对终端进行反控制,类似一个循环吧,一个有机的循环回路。3.人工智能应用的安全需求
人工智能的每一层都涉及到安全问题和数据安全问题。在身份识别认证中,人和设备是不是可信的,是不是有正当权限的人和设备。数据保护中,不管是传输还是存储过程,都要保证数据的可控性、真实性和可追溯。如果数据在传输或存储过程中被篡改了,那到后面通过算法推导出的结果,也必然是不真实和不可信的。
但在这个过程中也存在一个问题,保证数据能够进行有效地汇聚,既要保证数据所有者的权益,同时又能够通过这种大数据的汇聚产生价值,在可控的范围之内,这里的安全问题也是现在研究的重点和难点。
4.人工智能应用的安全建设
安全问题在重视应用的同时也要考虑到安全和应用建设的同步发展。
政府要主导,在人工智能应用中深入分析安全需求,进行顶层的设计,提出安全要求;加强安全制度建设,建立安全准入制度和检测评估方法、机制。
企业应该从感知、传输、分析协同、服务控制等方面建立一些安全标准。同时既要重视机制的保障还要重视技术的保障,使人工智能的应用和网络安全建设同步发展。
5.需要关注的网络安全技术
(1)身份识别和生物特征识别。身份识别的核心是密码技术,但对于轻量级设备、便携的智能设备而言,它们的计算能力还较弱,使用成熟的密码技术会存在一些问题,这需要对原来的身份识别进行改造。生物特征识别也是如此,目前的生物识别技术还没有建立一个安全的逻辑链条。
(2)移动安全。现在各种智能应用的终端主要以手机为主,手机与PC机相比更不安全,因为手机更便捷、成本低、更新快,所以安全隐患更多,更难解决,建立体系建立难度更大。
(3)大数据安全。大数据安全比一般意义上的云安全难度更大,云安全主要是用户信息是放在云上,仅供用户使用,同时云的管理者是不能看到用户的信息。而大数据安全相对来说更加复杂,它是将很多用户的数据都放在云上,将不同用户的信息进行融合处理,每个用户需要自己进行加密,否则无法保证数据的安全,但是加密之后如何让其他人使用,或在一定限度内实现共享,既要加密保护,又要能够有效地进行数据的融合和利用,这是很难解决的问题,同时也涉及到加密检索,保证数据的完整性,安全的计算外包。
(4)系统脆弱性。目前网络攻防态势非常严峻,主要就是是利用信息系统,要知道现在的信息系统还不完善,具有脆弱性,将来人工智能应用也是一个程序、一段代码,如果出现严重漏洞,就会被恶意代码取得它的控制权,带来极大的危害,所以系统的脆弱性也是网络安全非常重要的问题之一。
6.网络安全中的人工智能
人工智能在网络安全领域也得到越来越多的应用,它在主动安全防护、主动防御、策略配置方面发挥的作用越来越大,但是当前仍旧处于探索阶段。比如基于神经网络,在识别垃圾邮件、发现蠕虫病毒、侦测和清除僵尸网络设备、发现和阻断未知类型恶意软件执行等方面进行了大量的探索;基于专家系统,在安全规划、提高安全运行中心效率、量化风险评估、威胁情报等方面也做了很多探索,收到了良好的效果。
人工智能技术的蓬勃发展,也必然对网络空间安全带来重大的机遇和挑战。网络安全促进人工智能的未来发展,人工智能改变网络安全的未来!
【本文为51CTO专栏“柯力士信息安全”原创稿件,转载请联系原作者(微信号:JW-assoc)】
戳这里,看该作者更多好文
人工智能体有自由意志吗
[[388433]]
在传统的哲学图景中,“自由意志”是唯独人类才拥有的一种特殊能力,凭借这一能力,人得以超出于地球上其他一切事物之上而获得某种独一无二的尊严。但随着人工智能技术的高速发展,人们发现,人工智能体似乎也具有考量、判断和选择的能力,这些能力在传统的哲学图景下是与自由意志密不可分的。因此,追问人工智能体是否可能具有自由意志的问题就并非漫无边际的胡思乱想,而是对于理解(人类)自由意志本身的本性和基础,以及思考人工智能体可能具有的道德地位具有重要意义。在本文中,我首先会对相关概念做进一步的界定,说明我们需要何种自由意志理论来处理与人工智能体相关的问题。在此之后,我将引入并发展英国哲学家司倬森(P.F.Strawson,1919—2006,过去通常译为“斯特劳森”,但该译名与实际发音相去甚远)影响深远的“反应态度”理论,从而为探讨人工智能体的自由意志问题奠定理论基础。最后,我将尝试在这一基础上考察人工智能体是否可能拥有自由意志的问题,并对人工智能与自由意志之间的关系给出更具一般性的评论。
01
“自由意志”的概念肇端于古代晚期,在基督教思想传统中被发扬光大,成为西方哲学中人的形象的核心要素之一。在基督教哲学的图景下,自由意志乃是人类灵魂的一个基本属性,凭借这一属性,人得以在善恶之间自由地做出选择,并根据自己的选择而在死后享受永恒的福祉或遭受永恒的惩罚。在现代世界中,人们一般不再接受传统哲学中关于人类灵魂的学说。在失去了非物质的灵魂这一天然的“居所”之后,自由意志便无可避免地成为了现代科学所描绘的世界中无家可归的“游魂”。尽管如此,人们却并不愿意轻易抛弃自由意志的概念,而是依然倾向于相信自由意志的存在及其重要性。这一方面是因为每个人几乎无一例外地都有自由意志的体验,都在不受外在因素强制的情况下,在不同的可能性之间进行过选择;另一方面是因为人们普遍相信,一个人只有拥有自由意志才能为自己的选择和行动担负道德责任。离开了自由意志的概念,我们的道德判断和司法实践就都无法拥有一个稳固的基础。因此,如何应对自由意志的概念与现代科学所蕴涵的决定论世界观之间的张力,就成了近代以来关于自由意志的哲学讨论的核心关切。
传统哲学中关于自由意志问题的讨论早已汗牛充栋,但人工智能体的出现为我们思考这一问题开启了新的维度:无论我们是否认为人工智能体拥有自由意志,通过对人工智能体和人之间的比较研究,我们都将以前所未有的方式揭示出自由意志的本性和基础。不过,为了严谨起见,有必要在此预先规定一下“人工智能体”的含义。首先,按照通行的定义,我们将“智能体”(或“能动者”)理解为能够与环境发生互动的人或物。为此他们或它们就需要传感器来接收环境中的信息,在自身内对这些信息进行加工后,再通过执行器来对环境发生作用。其次,我们将人工智能体限定在以数字计算机为核心的装置上。因此,它的“智能”或其他“心理”属性就都建立在数字计算能力的基础之上。为了处理不同的任务,计算需要按照不同的规则进行,每一组计算规则的总和就是一种特定的“算法”,而这些算法到目前为止以及在可以预见的将来,都是由人类来开发和编写的。
[[388434]]
就人工智能体能够通过接收和处理信息来与环境发生互动而言,它们展现出和人们通常印象中的机器很不相同的性质。而当它们处理信息的内在机制趋于复杂,以至于人们会很自然地用诸如“想要”“认为”“决定”等心理概念来对其进行刻画时,将自由意志赋予人工智能体就不是一件不可想象的事情了。但另一方面,按照我们关于自由意志的直觉,仅当一个人不受外在决定时他才是自由的。由于人工智能体的一切活动都是被外在环境以及人类为它编写好的算法决定的,因此人们并不倾向于将自由意志赋予人工智能体。在目前的技术条件下,后一种直觉似乎占据了上风,这一方面是因为人们大都认为,我们只是在一种隐喻的意义上把那些心理概念应用于人工智能体之上,而后者实际上并不具有和人类相同甚至仅仅相似的欲望、信念或意愿等心灵状态;另一方面则是因为,支持后一种直觉的论证清晰明了,很容易让人确信人工智能体不可能拥有自由意志。
然而事情并没有这么简单。首先,我们在这里关心的是“可能性”的问题,即在我们定义下的人工智能体是否有可能拥有自由意志的问题。即使当下的人工智能体离拥有自由意志还相距甚远,也不能由此直接得出对可能性问题的否定答案。其次,在上文中已经提到,在近代科学的背景下,人类自身的行动似乎也难逃自然法则的决定,但许多人认为这并不意味着我们应当放弃自由意志的观念。在当代关于自由意志的讨论中,最主流的观点就是所谓“相容论”,即认为自由意志与决定论是相容的。如果相容论为真,那么将自由意志赋予人工智能体就远远没有看上去那么荒谬。当然,即使相容论为真,也并不意味着人工智能体就能够拥有自由意志。要想回答这个问题,我们必须先弄清楚当我们将自由意志归属到人身上时究竟是出于什么理由或依据什么标准。只有当人工智能体也有可能满足这些标准的时候,它们才可以被视为拥有自由意志。因此,我们接下来的任务就是找出并且证成这样的理由和标准。
需要预先说明的是,古往今来,人们关于自由意志的本性以及赋予自由意志的标准有许多各不相同、但都不无理据的看法,即使在相容论阵营内部也有相当大的分歧。我无意主张本文中对赋予自由意志的标准的刻画是唯一正确的,但我的确认为任何一种对自由意志的恰当刻画都需要满足一些基本要求,而本文中给出的刻画是能够满足这些要求的。具体而言,这一刻画首先应当基本符合人们关于自由意志的直觉。一个受过一般教育、但没有经过专业哲学训练的人尽管不能对自由意志给出一个严密的定义,但仍然会有一些关于这个概念的直觉式理解,如自由意志典型地体现在选择活动当中,与强制或必然性相互冲突,是道德责任的基础等。哲学家在构造理论时不需要完全符合每一个人的直觉:在哲学家看来,有一些直觉过于模糊,只有经过充分澄清之后才能获得明确的意义,还有一些直觉则因为和其他的、得到更好的理由支持的信念相互冲突,从而必须加以放弃。然而,这绝不意味着哲学家可以随心所欲地构造理论。人们关于一个概念的直觉即使不是理论构造的终点,至少也是它的起点。对这些直觉的偏移只有在有充分理由的情况下才能被允许。
[[388435]]
其次,我们对于自由意志的刻画应当尊重现代科学的基本结论。如前所述,人们之所以对基督教传统中的自由意志观感到不满,最主要的原因之一就在于,它是与现代科学所蕴涵的决定论世界观格格不入的。直到今天,仍然有很多人相信现代科学(包括物理学和心理学等)直接证明了自由意志并不存在。其他人即使不愿意彻底抛弃自由意志的概念,在现代科学提出的挑战面前,他们也需要重新解释这一概念,乃至对其作出必要的修正。关于这一点,美国哲学家丹尼特(DanielDennett)打过一个很好的比方:如果把自由意志比作爱情的话,那么传统的自由意志观就好比丘比特射箭的传说;现在人们不再相信这一传说了,但这并不代表爱情本身是不存在的。我们所需要的毋宁说是对爱情(以及自由意志)的一个更加合理的解释。按照这一思路,我们与其将现代科学的基本结论看作否认自由意志存在的直接证据,倒不如将它们视为帮助我们找到对自由意志概念真正恰当的刻画的重要线索。
再次,我们对自由意志的刻画应当说明它的价值。其实这一点可以说已经隐含在上述第一项要求之内,因为我们对自由意志的直觉中无疑已经包含了相当多的价值性要素。然而我们必须格外强调这一要素,因为人们之所以在发现自由意志的观念与现代科学之间存在严重冲突之后,仍然不愿意完全放弃这一观念,最根本的理由就在于这一观念承载了太多的价值。由于任何人都无法忽略这些价值,因此人们不得不严肃对待自由意志的观念。如果一种关于自由意志的构想中没有包含价值的要素,那么我们大概就不必严肃对待这一构想。举例来说,很多人会将自由意志与非决定性或随机性联系在一起。这种想法也许符合人们关于自由意志的部分直觉,但其最大的问题在于无法说明自由意志具有什么样的价值,从而切断了自由意志的概念与人的尊严和责任等重要议题之间固有的密切关联。同样,我们之所以关心人工智能体的自由意志问题,一个十分重要的理由就在于,我们想知道人工智能体可能承载什么样的价值,并进而思考我们在与之打交道时可能需要遵守的规范。
一般而言,一种对自由意志的刻画如果能满足以上三个条件,那么就可以说是相当成功的了。不过,为了有意义地探讨人工智能体的自由意志问题,我们对这一概念的刻画最好还要满足第四个条件,即它应当尽可能少地依赖于自我意识或主观体验。理由很简单:我们在人工智能体是否有可能拥有自我意识或主观体验这个问题上可以说还一无所知,更无法设想它们的自我意识或主观体验可能会是什么样子的。因此,如果自由意志需要预设特定类型的自我意识或主观体验,那么为了回答人工智能体是否可能拥有自由意志的问题,我们就必须预先回答一个至少和它同样困难的问题,这对于我们的讨论来说显然是不利的。当然,如果任何一种能够满足以上三个条件的自由意志概念都必须预设某种自我意识或主观体验,那么我们就必须接受这一事实,并在此基础上对人工智能体是否拥有自由意志做出合理的猜测。
[[388436]]
在下一节中,我将引入司倬森著名的“反应态度”理论,并指出该理论可以满足以上全部四项要求。
02
司倬森于1962年发表的《自由与怨恨》(FreedomandResentment)一文从根本上改变了人们思考自由意志问题的方式,可以说是整个20世纪影响最大的哲学论文之一。在这篇文章中,司倬森并没有直接讨论与自由意志的可能性相关的形而上学问题。事实上,他根本没有使用“自由意志”这个概念!与传统的论述不同,司倬森把他的出发点放在了对我们日常生活实践的刻画上。他首先区分了人们日常生活中的两种态度,即“参与者反应态度”(participantreactiveattitude)和“客观态度”(objectiveattitude)。司倬森并没有尝试对参与者反应态度给出严格的定义,而是通过几个典型的例子告诉我们它们指的是什么:
一个人在试图帮助我时不小心踩到我的手,与他以蔑视我存在的方式,或抱着想要伤害我的恶意时踩我的手相比,疼痛可能同样剧烈。但在第二种情况下,我一般而言会感到在第一种情况下不会感到的某种类型和程度的怨恨。如果有人的行为帮助我得到我想要的好处,那么不管怎样,我都得到了好处;但如果他出自对我普遍的善意而有意让我得到好处,我会合理地抱有一种感激之情,而如果这种好处是他的一个有不同目标的行动计划偶然造成的结果,他对此结果并非有意、甚至感到后悔,那么我就不会抱有这样的感情。
由此可见,所谓“反应态度”,指的就是我们在与他人正常交往中,针对他人在行为中表现出的意图和态度自然产生的反应。除了怨恨和感激以外,典型的反应态度还包括原谅和愤怒等。只要我们采取这些态度,就意味着我们投身或参与到了正常的人际关系当中。客观态度则与之不同:
对另一个人采取客观态度,也许就是把他看作一个社会政策的对象;看作一个在宽泛意义上可以说是需要处置(treatment)的对象;看作一个需要加以考虑,或许是预防性考虑的东西;某种需要管理、处理、治疗或训练,也许要干脆避开的东西……如果你对一个人的态度是完全客观的,那么尽管你可以与之争斗,但你却不能与之争辩,尽管你可以与之交谈甚至谈判,但你却不能与之说理。你至多可以装作与之争辩或说理。
不难看出,这两种态度的区分和自由意志问题之间的密切关联:当我们对一个人采取反应态度时,我们似乎就认为他拥有自由意志,而当我们对一个人采取客观态度时,我们似乎就认为他没有自由意志。更粗略地说,当我们以反应态度看待一个人时,我们就将他看作一个完整意义上的人,而当我们以客观态度看待一个人时,我们则将他看作一个物。不过,这一说法是十分粗略的,因为它似乎在暗示,当我们对一个人采取客观态度时,我们就是在“物化”他,在把他“仅仅当作手段”。但这种理解是不够准确的:我们完全可以在道德中立乃至出于善意的情况下对人采取客观态度,如一名教练在教学员练习特定技能时,或者病人家属在哄劝身患绝症的病人时,都需要采取客观态度。从两个例子中我们还发现,反应态度和客观态度并不是相互排斥的。我们在对待同一个人的时候,完全可以同时既采取反应态度,又采取客观态度。但这一点并不能抹煞这两种态度之间的差别。在司倬森看来,这一差别最明显地表现在我们的情感上:“客观态度可能以很多种方式得到情感上的表达,但不是以所有的方式……它不能包括那些属于介入或与他人一起参与到人际关系中的反应性感受和态度;它不能包括怨恨、感激、宽恕、愤怒,也不能包括两个成年人有时可以说是相互感受到的那种对彼此的爱。”
[[388437]]
在阐明这两种态度间的区别之后,司倬森考察了我们是如何在它们之间进行切换的:当我们受到冒犯或伤害时,我们会自然产生一种怨恨之情,但有两种考虑可以“减缓、平息或完全消除”这一感受。在第一种情况下,我们无需切换对一个人的态度,而只需要把特定的伤害和这个人本身在某种意义上切割开来。在上面的例子中,我之所以对一个在试图帮助我时不小心踩到我手的人一般不会感到怨恨,是因为我相信他的行为不是故意的,相信他踩我手这件事不是出于他的性格、行为方式或对我的一般态度的,而只有这些才被认为是真正属于他的。这类情形“并不促使我们将能动者看作一个完全能负责任的能动者以外的东西。它们促使我们将伤害看作一个他不能完全为之负责乃至根本不能为之负责的伤害”。与此相反,在第二种情况下,我们需要彻底转变对待他人的态度。当我们得知对我们造成伤害的是一名幼童或精神病人时,我们(作为文明人)就不会对他们产生怨恨之情(或者至少会减弱这种感受),但这并不是因为我们想要把特定的伤害和造成伤害的人切割开来,而是因为我们根本无法将这个人看作负责任的能动者,无法将他看作正常人际关系的参与者,从而不得不对他采取客观态度。
从这两种情况的区别出发,司倬森便提出了他支持相容论的第一个论证。他指出,“如果有关于决定论的一个融贯的论题,那么一定有一种‘被决定’的意义,使得如果这个论题为真,那么无论什么样的行为都是在这个意义上被决定的”。换句话说,决定论作为一个一般性的论题,对以上两种情况是同样适用的。因此,我们之所以在前一种情况下可以保持反应态度,在后一种情况下则需要采取客观态度,这必定是出于决定论之外的理由。我在上文中已经列举了一些相关的理由,在它们之外当然还有许许多多其他的可能性,但无论如何,决定论这一一般论题是不可能包含在这些理由当中的。这也就意味着,决定论的真或假,对于我们是否对某个能动者采取反应态度、是否将其视为担负道德责任的能动者而言是毫无影响的,从而相容论就得到了证明。
不过,这一论证未必能够说服那些视决定论为对自由意志的威胁的人。这些人也许会提出反驳说,我们之所以在第二种情况下对他人采取客观态度,正是因为我们认为他们的行为是被决定的,而我们之所以在第一种情况下对他人采取反应态度,是因为我们并不认为他们的行为是被决定的。然而,如果决定论是真的,那么在这种情况下他们的行为事实上就同样也是被决定的,而我们通常的看法只不过是由于我们认识能力的不足而造成的错误而已。一旦我们学会正确看待包括人在内的整个世界,我们就应当彻底放弃反应态度,而改用客观态度去看待一切。针对这一反驳,司倬森提出了他支持相容论的第二个论证。他写道:
我想,人类对参与日常人际关系的投入(commitment)是太彻底,太根深蒂固了,以至于我们不能严肃对待下面的想法:一般的理论上的确信可能会如此这般改变我们的世界,使得其中再也没有任何像我们通常理解的人际关系那样的东西;而进入到我们通常所理解的人际关系当中,就意味着向正在谈论的一系列反应性态度和感受敞开。
在这段话中,司倬森试图表明,完全放弃反应态度是一件心理上不可能做到的事情。决定论作为一个纯粹理论命题,并没有力量从根本上改变人类的生活实践。一个人即使在哲学上毫无保留地相信决定论为真,在日常生活中,他大概也不可能对他人故意对他造成的伤害无动于衷,而将它们与由自然原因或意外导致的伤害视作同一类东西。在后来出版的《怀疑论与自然主义》一书中,司倬森再次强调了这一点,并明确表示他给出的是一种自然主义的论证:“我们自然地是社会存在者;与我们对于社会存在的自然投入相伴随的,是对于由我谈到的那些人类个人的和道德的反应性态度、感受和判断组成的整个网络或结构的自然投入。我们朝向这些态度和判断的自然倾向自然地为我们提供了保护,以防范那些暗示这些态度和判断在原则上是没有保障的或未经证成的论证。”
[[388438]]
然而,司倬森观点的反对者或许对上面的论证仍不满意。他们会坚持说,即使人们事实上无法离开自由意志的观念来生活,自由意志仍然有可能只是一个幻象。这正如我们无法不将放在水杯里的直棍看作弯折的一样。也许人类无论如何也无法摆脱这些视觉幻象,但它们毕竟是幻象,这就意味着我们应当把看到的东西和事物真实的属性区分开来。司倬森预料到了这一反驳,并针对它给出了自己支持相容论的第三个论证:
人们也许会说,所有这些都没有回答真正的问题……因为真正的问题不是关于我们实际做什么,或者为什么做这件事。它甚至不是一个关于如果某个理论上的确信得到普遍接受,我们事实上会做什么的问题。它是一个关于如果决定论为真,那么做什么是理性的问题,一个关于对日常的人际态度进行理性证成的问题。对此我的回答是,首先,只有对于一个完全没有领会前面的答案的要旨,即没有领会我们对日常人际关系态度的自然的、人性的投入这一事实的人来说,这个问题才显得是真实的。这种投入是人类生活总体框架的一部分,它不能像特定案例在这个总体框架内被审视那样被审视。我会回答,其次,假如我们能想象一下我们不能拥有的东西,即在这件事上我们可以选择,那么我们也只有根据对人类生活的得与失,它的丰富或贫乏进行评估,才能理性地做出选择;而决定论这一一般性论题的真或假不会影响这种选择的合理性。
司倬森的这一回应有两大要点:首先,他区分了人类生活的总体框架和框架内部的具体问题。对具体问题的证成只能在总体框架内进行,而框架本身却是既不可能、也不需要加以证成的。以上面提到的视觉幻象为例:无论我们怎么样观看事物,有一些基本条件是始终需要得到满足的,如任何可观察到的事物必定在空间中处于一定的位置,必定具有某种颜色(包括“无色”)和形状等。我们对于特定位置、颜色或形状的感知当然可能是真实的,也可能是错误的,但这些问题只能在我们视觉空间的总体框架内才能得到有意义的讨论;与之相反,框架本身作为讨论的前提,必须被接受下来。尽管司倬森没有明言,但这一论证策略显然与他在《个体》中对于我们认识世界的基本概念框架的论证一脉相承——用后者中的一个重要概念来说,司倬森以“先验论证”(transcendentalargument)的方式,证明了反应态度乃是人类生活实践的一个“先验条件”。
其次,司倬森指出,即使我们能够(反事实地)选择我们生活的总体框架,我们的选择所依据的理由也绝非是决定论这一抽象而一般的形而上学命题,而是对于人生意义和价值的具体分析。这一论点实际上已经超出了关于自由意志问题的讨论,而是指向一般而言的哲学方法论。在司倬森看来,传统哲学中将形而上学命题当作出发点或第一原则的做法是一种对我们生活实践的事实的“过度理智化”。这种过度理智化的倾向也许对科学来说是必要的,但在哲学中,以及在富于人性的生活实践中,我们有很好的理由来抵制这一倾向。司倬森用颇为吊诡的语言表达了这一想法:“假如这种选择是可能的,那么去选择比我们[实际]是的那样更加纯粹的理性,这未必是理性的。”司倬森的这一想法会让人们很自然地联想到康德关于“实践理性的优先地位”的著名观点。不过在司倬森看来,我们的“实践理性”(借用康德的概念)所关注的与其说是道德法则,倒不如说是人类生活本身。
[[388439]]
通过以上论证——概念分析、自然主义描述、先验论证以及“实践先于理论”,司倬森阐明并且辩护了一种相容论的自由观。回顾上一节中提出的几项条件,我们可以得出以下结论:首先,司倬森的自由观充分体现了自由的价值。自由作为植根在人性深处的一个基本要素,是正常人际关系的先决条件。司倬森认为,当特定的人际关系被普遍化之后,就展现出道德的要求,而当正常的人际关系被反身地应用之后,就展现出道德自我的观念。因此,这种意义上的自由同时也是道德和自我观念的基础。传统哲学中对于自由意志的价值的根本性和绝对性的强调,从而也就包容在了这种自由观当中。其次,通过对价值因素的强调,司倬森的自由观抓住了我们关于自由意志的直觉的一些重要方面。毋庸讳言,这一理论并没有容纳我们关于自由意志的直觉中的全部方面,如意志对行为的控制、自由选择过程中常见的纠结等。或许正是因为这个原因,司倬森并没有用“自由意志”这个词,而是一般地谈论自由和道德责任。但由于价值因素在关于自由意志的传统理论中的核心地位,我们有充分的理由将司倬森的见解看作传统自由意志理论的延续和修正。再次,司倬森的自由观不仅与现代科学的基本图景并不冲突,而且也无需陷入“自由意志论晦涩而令人惊惶的形而上学”。后者无疑指的是哲学史上以康德和瑞德(ThomasReid,1710—1796)等人为代表的所谓“能动者因果性”(agentcausation)理论,该理论主张人类能动者具有一种和一般自然事件不同的因果作用力,这种作用力构成了人类自由意志的基础。能动者因果性理论的支持者同样力图在现代科学的基本图景与自由意志之间做出调和,他们的理论构造也不可谓不精巧,但司倬森恰当地指出,这种理论带给人们的困惑与不安丝毫不亚于它所解决的问题。因此,司倬森自由理论的一个重要优势就在于,让我们能够避开这些形而上学构造。最后,司倬森的自由理论并不直接诉诸任何内在体验或自我意识,因此非常适合用来讨论人工智能体是否拥有自由意志的问题。
03
不过,在把司倬森的自由学说应用到人工智能体上之前,我们还要对它做进一步的考察和发展。尽管有上面列举的那些优点,但与历史上一切影响深远的哲学理论一样,司倬森的学说也受到了来自方方面面的批评。在这里我将只考察其中与本文主题关系最为密切的两个。首先,在上一节中我们已经考虑了这样一种反驳,即我们之所以对他人采取反应态度,仅仅是出于我们的无知而已。司倬森对这一反驳的直接回应,是他对于人类心理的自然主义描述:人类的自然天性让我们无法放弃对建立在反应态度基础之上的正常人际关系的投入。然而,即使我们承认司倬森的回应成功地辩护了一般而言的自由意志(这一点绝不是没有争议的),但他的理论却无法说明我们在特殊情形下应当如何做出判断。毕竟我们在特殊情形下采取哪种态度,在很多情况下既不是人类天性中不可改易的事实,也不是人际关系或道德生活的先验条件。但如果缺乏在特殊情形下做出判断的标准,司倬森的理论就将无助于回答人工智能体是否可能拥有自由意志的问题。
对司倬森自由理论的第二个批评,是认为它没有充分把握我们赋予自由意志的全部意义。站在司倬森的立场上,我们可以回应说这一理论抓住了自由意志概念中最重要的方面,即它是人类道德生活和相互交往的基础,而其他方面要么相对而言并没有那么重要,要么根本就是应当抛弃的错觉。但这一回应是不能令人满意的。正如司倬森之子盖伦·司倬森(以下简称“小司倬森”)指出的那样,“一个人对于人类自由的理念的投入,其真正核心在于他对自身的态度以及关于自身的经验。对于一个人对自己最深切的感受——将自己看作自我规定的规划者,行为的实施者,一个能够创造事物、作出牺牲、犯下错误的人——来说,这一理念是不可或缺的一部分”。在小司倬森看来,司倬森对自由的刻画虽然抓住了我们直觉中自由意志概念所具有的某些重要价值,但却遗漏了一些更重要的价值,即自由与自我之间的内在关联。小司倬森的批评无疑是有道理的。事实上,除了与道德责任之间的关联以外,自由意志的重要性至少还表现在它与以下几方面价值之间的联系:真正的创造性,自主或自我规定,尊严,个体性或独特性,对未来的希望等。这些价值的实现看起来的确会受到决定论的威胁。因此,如果司倬森的相容论无法为它们奠定良好的基础,我们就很难将其视为对自由意志概念的充分刻画或恰当修正。
[[388440]]
这两方面的批评看上去似乎很不相同,但它们实际上都指向人们对相容论自由观的深刻不满:如果想要为客观态度和反应态度之间的切换找到一个可靠的标准,那么我们似乎最终不得不诉诸像自我规定或自我控制这样的观念,而这些观念与我们刚才提到的传统自由意志观中的那些要素显然是密不可分的。这些要素与决定论之间有着显而易见的冲突,司倬森本想利用“反应态度”的概念来绕过这些要素,从而避开决定论这个难缠的幽灵,但我们如果进一步追问反应态度的根据,最终似乎就仍然要回到这些要素上来。换句话说,即使司倬森证明了我们是“自然的相容论者”,传统自由意志观中这些要素的不可消逝性也表明,我们同样是“自然的不相容论者”。因此,如何化解这两种自然倾向之间的紧张关系,就成了关于自由意志的论争中最根本、也是最困难的问题。
在本文中我并不打算尝试解决这一巨大的难题,不过我们可以转换一下考虑问题的角度:也许人类未必具有某种终极的、形而上学意义上的自由意志,但在日常生活和人际交往中,人们的确会预设自己以及其他正常人都具有某种自由。这两种自由之间并非毫无关系——哲学家和喜欢思考的普通人之所以会对前一种意义上的自由感到困惑,正是因为他们看到了它对于后一种意义上的自由具有理论奠基的作用。尽管如此,我们却不必因为在理论问题上的悬而未决而放弃我们的实践——事实上,作为人类,我们根本不可能彻底放弃这样的实践。我们不妨将这种实践所预设的自由称为“实践自由”。在是否将实践自由归属给某个能动者这件事情上,人们也许很难给出确定无疑的标准,在某些情况下甚至还存在不小的分歧。但由此并不能推出实践自由的归属是完全任意的,或实践自由的概念本身是毫无意义的。这一点可以类比于认识论中怀疑论的挑战:按照笛卡尔式的怀疑论(或它的现代变种,“缸中之脑”假说),我们任何一条关于外间世界的信念都有可能是错误的。人们也许无法从理论上彻底反驳这种怀疑论,但这并不妨碍人们在日常的和科学的认知实践中对不同信念抱有不同程度的确信。如果我们能够对人们在这些认知实践中证成信念的基本模式给出比较系统的描述,那么就能够获得一种认知证成的理论。这种理论即使不能从根本上回应笛卡尔式怀疑论的挑战,但它也足以说明在认知实践的层面上,人类的确可以说是拥有知识或得到证成的信念的。相应地,为了说明人类拥有实践自由,我们也不妨将那些极端的和富有争议的情形暂且放到一边,先尽可能地去描述这一概念在人们实际的道德生活和人际交往中究竟发挥着什么样的作用。在我看来,这就是司倬森的“反应态度”理论带给我们最为深刻的洞见。我们接下来的任务就是进一步发展司倬森的理论,以更好地理解人类实践自由的意义,并在此基础上考察人工智能体是否可能拥有实践自由的问题。
事实上,司倬森已然说明了我们采取反应态度的根据是什么:“个人的反应态度基于并反映一种期待和要求:我们期待和要求他人对我们自身表现出某种程度的善意或尊重;或者至少期待和要求他人不要表现出主动的恶意或漠不关心。(在特定情况下,什么东西会算作善意或恶意或漠视的表现,这将根据我们与另一个人所处的特定关系而有所不同。)”当这里所说的特定关系被理解为最普通的人与人之间关系的时候,相应的期待和要求就成了道德的期待和要求。如果我们认为这些期待和要求对于某个人来说并不适用,那么这个人就“没有被看作一个道德上负责任的能动者,看作道德关系的一端,看作道德共同体的一员”。在我看来,司倬森的这些论断无疑是正确的,但却不够完整。因为我们对于动物乃至对于像钟表或温度计这样的人造物也会有相应的期待和要求,但这些显然不是反应态度所适用的对象。问题的关键不仅在于能动者要服从于某些期待和要求,还在于能动者要以特定的方式来服从这些期待和要求。现在的问题是:应当如何理解这一特定的方式呢?
要想回答这个问题,最好的办法就是去观察一下人们实际的道德生活和人际交往。我们不妨再回顾一下司倬森在引入反应态度概念时所举的那几个例子:我之所以会对带着恶意踩我手的人感到怨恨,是因为在最普通的人际交往中,我有理由要求他人不要故意伤害自己,并且我确信道德共同体中的其他成员也完全认可这一要求。只有在这一背景下,我才有理由对他人伤害我的行为产生怨恨之情,而不是仅仅感到遗憾,就仿佛自己是被野狗咬伤一样。感激之所以有别于单纯的幸运,也可以以类似的方式得到说明。原谅的情况则稍有不同:我之所以会原谅在试图帮助我时不小心踩我手的人,是因为我相信他在此之前并没有预料到自己的行为会伤害到我——假如他预料到会踩我的手,他很可能就不会用原先的方式来帮助我。此外,我们也可能出于另外的理由原谅或部分原谅一个对我造成伤害的人:如果他对我造成的伤害并不严重,并且如果不伤害我,自身就会面临无法承受的损失时,我们也理当对他的行为表示谅解。总之,道德生活和其他人际关系中蕴涵的那些期待和要求,首先必须得到人们的认可,但这种认可并不一定导致人们会按照这些期待和要求来行动:由于人类行动中固有的不可预测性,以及常常出现的与这些期待和要求相互冲突(或至少不尽相同)的其他目标,人们的行动常常会超出通常的期待或低于正常的要求。人性中的这一基本事实可以说就是人们采取反应态度的真正根据。
[[388441]]
除了作为反应态度的根据以外,这一基本事实与上文中提到的传统自由意志观中包含的其他价值之间也有密切的关联。以创造性或原创性为例,任何一件被认为是真正具有创造性或原创性的作品似乎都要满足两个条件:一方面,它的产出过程一定是不可预测的;另一方面,它的意义必须能够在人类生活的总体框架中得到解释。更加通俗地说,它必须既在意料之外,又在情理之中。如果不满足前一个条件,那么我们会认为这一作品只不过是机械复制的产物,毫无创造性可言;而如果不满足后一个条件,我们则会将它看作单纯的偶然或随机事件的结果,而不是特定的能动者创造出来的作品。再以自主或自我规定为例:一个行动如果是自主的,就意味着它是出于能动者本身的选择或默许而发生的。换句话说,即使给定在某一时刻与某个能动者相关的一切信息——包括他的信念、欲望、目标和性情等,如果不考虑这一(明确的或默认的)选择活动本身,人们就无法严格推论出该能动者究竟要采取什么样的行动。之所以做不到这一点,原因就在于,一个正常人一般而言在某一时刻总是具有不同的、潜在地相互冲突的目标或冲动,在做出选择以前,没有任何人能够确切推论出他最终会选择实现哪些目标或满足哪些冲动。当然,上面提到的那些信息或许足以让我们以很高的概率估计他将要采取什么样的行动,但这样的估计毕竟不同于严格的推论。与之相反,对于一个毒瘾发作或被催眠的人,我们则有充分的理由准确预测出他的行为。因此,潜在冲突的目标与行动的不可预测性似乎就构成了自主或自我规定的前提条件。
综上所述,我们可以得出结论说,人类行动的不确定性或不可预测性、潜在冲突的目标或冲动以及对人类生活中种种期待与要求的认可,这三者共同构成了与人类自由相关的种种价值——成为反应态度的适当对象、真正的创造性、自主和尊严等——的基础。因此,人工智能体是否拥有“实践自由”的问题,就转化成了它们是否能够满足这三个条件的问题。我们接下来就对这三个条件逐一做进一步的考察。
04
我们首先来考察不可预测性的概念。在传统的、机械论的哲学图景下,世界上发生的一切原则上都是可预测的;如果人的行动构成了例外,那也只能借助于非物质的灵魂这样的概念来加以解释。由于人工智能体无论如何不可能具有非物质的灵魂,因此它们的一切活动原则上都是可预测的。正如计算机科学的先驱洛芙蕾丝夫人(LadyLovelace,1815—1852)论证的那样,“分析机并不宣称能创作(originate)任何东西。它能做任何我们知道怎样命令它去执行的事”。图灵在他的名文《计算机器与智能》中严肃对待了洛芙蕾丝夫人的这一反驳并给出了两条回应:首先,当人类认为自己能够做出某种“原创性的工作”时,他所做的很可能“只不过是教育在他心中植下的种子的生长,或遵循人们熟知的一般原理而产生的结果”。其次,人们或许会抱有这样的看法,即只有原创性的工作会让人感到惊喜,而机器则无法做到这一点。图灵认为,这种看法“来自一个哲学家和数学家都特别容易犯下的错误”,即“只要一个事实呈现在心灵面前,这个事实的全部后果也就同时涌现到心灵当中”。这一看法尽管并非完全没有道理,但却严重忽视了从原始数据和一般原理出发推导出后果这一工作的重要意义。
[[388442]]
图灵的见解无疑是引人深思的。事实上,如果我们希望避免诉诸非物质的灵魂这样的观念,那么有关人类“真正原创性”的来源问题也会让我们感到无比困惑,而图灵的评论则给我们带来了重要的启发。传统哲学中人们倾向于把“因果关系”“决定论”“可预测性”等概念混淆在一起,但我们应当将它们区分开来:一个事件是另一个事件的原因,并不意味着前者就决定了后者,因为这其中还有许多其他事件可能发挥影响;而即使一个或一组事件决定了另一个事件,也并不意味着我们从关于前者的知识中就能严格推论出后者来。换句话说,决定论与不可预测性之间未必存在冲突,而如果“真正原创性”或“自由意志”只需要以后者为条件,那么它们也就不会受到决定论的威胁。英国著名科学家罗杰·彭罗斯试图在科学层面上说明决定论与可预测性之间的区别:在他看来,在量子世界和经典世界的边缘处存在一种他称为“正确的量子引力”(CQG)的过程,这一过程构成了我们意识的基础。该过程包含一个“本质上非算法的要素”,因此“即使未来或许会为现在所决定,从现在出发也不能计算出未来”。不过,由于彭罗斯把决定论与可计算性之间的区分建立在某种非算法的过程的基础上,因此他主张任何以算法为基础的数字计算机都不可能和人一样拥有自由意志。
我在此无法对彭罗斯的科学假说给出恰当的评判。不过,我认为,我们根本没有必要接受彭罗斯为自由意志设立的如此高的标准——在彭罗斯看来,一个自由的或真正原创的活动必须是原则上不可计算的——而不妨回到图灵更加贴近常识的洞见。一方面,在实际生活中,人工智能体早已呈现出许多完全不可预测并让人感到惊喜的事例,如20世纪末战胜国际象棋世界冠军的“深蓝”,以及不久前横扫人类围棋高手的“阿尔法围棋”等。它们的活动无疑是不可预测的,因为任何人(包括它们的设计者)事先都不知道它们会如何行棋。另一方面,我们之所以认为自己的(某些)选择是不可预测的,并不是因为我们洞见到在这些选择背后有某种非算法的机制在发挥作用,而是因为我们确信在做出选择之前,任何人(包括做选择的人自身在内)在严格意义上都无法知道我们究竟会做出怎样的选择。正是这一确信构成了我们“自由感”的重要来源。现在的问题是,人工智能体是否也有可能拥有这种自由感呢?
美国计算机科学家赛斯·劳埃德在这个问题上的评论颇有启发性。他认为,我们可以在数学上证明以下结论:预测一个决策过程的结果的问题,在计算上要比执行这个过程本身更加困难。因此,即使决策或选择的过程是机械的或决定论的,任何人原则上也无法绕过这一过程而直接预测其最终结果。劳埃德认为,这就是人类自由感的真正基础,而由于对这一结论的证明并不依赖于人类的任何特征,因此它对人工智能体也是成立的,换句话说,人工智能体也可以拥有某种自由感。在我看来,劳埃德的论证如果能够成立,就可以看作对图灵第二点回应的实质性的深化和发展,这对于我们理解人类和人工智能体的自由意志及创造性的基础具有相当重要的意义。不过,即使劳埃德的核心论证是正确的,要推论出人工智能体拥有自由感也显得有些操之过急,因为除了他揭示出的机制以外,自由感作为一种感受很可能还需要其他条件,而这些条件或许是人工智能体不能满足的。但无论如何,在不可预测性或原创性这一点上,人类与人工智能体之间似乎并不存在根本的区别。
我们接下来把目光聚集在人工智能体是否能够具有潜在冲突的目标这个问题上。对这个问题似乎很容易给出肯定的答案:只要我们为一个人工智能体设定多个相互独立的子程序,并通过比较这些子程序产生的结果来决定该智能体的行动,该智能体就可以说是具有潜在冲突的目标。不过人们或许会追问,为人工智能体设定潜在冲突的目标这件事有意义吗?在这里需要注意的是,有多个不同目标不等于有潜在冲突的目标——如果我们为不同目标设定明确的先后次序,那么在它们之间就不会有任何冲突。为了让人工智能体发挥多方面的作用,为它设定多个不同的目标这件事显然是有意义的。但如果不同目标之间存在潜在的冲突,那么事情就很不一样了。假设某一台机器人的唯一目标就是照顾老人,另一台机器人则有照顾老人和训练棋艺这两个目标,并且人们不知道它在某个时刻究竟会追求其中的哪一个,试问有任何人会对第二台更加偏爱吗?如果人们实际上并没有任何动机去制造具有潜在冲突的目标的人工智能体,那么我们似乎就须对这一理论上可能的问题在实践上予以否定的回答。
[[388443]]
然而,更进一步的考虑会让我们认识到,为人工智能体设定潜在冲突的目标也许并不是一件没有意义的事情。首先,当人工智能体变得越来越“通用”,其智能水平变得越来越高的时候,我们就很难为它的不同目标设定明确的先后次序。这一点从人类身上就可以看得很明显:越是简单的任务,就越容易分解成次序分明的几个步骤来完成,而越是复杂的任务,就越没有一定的规律可循,而需要能动者自己想办法化解完成任务过程中可能遇到的种种潜在的冲突。其次,人们或许会认为,我们至少可以仿照阿西莫夫“机器人三定律”的方式,将道德的目标设定在最优先的地位。然而,在人类面临的许多道德两难的情况下,我们必须在若干本身都具有内在价值、但却处于潜在冲突中的目标之间进行选择,而无法按照一套普遍接受的规范体系来指导我们在特定情况下的行动。因此,如果我们希望人工智能体在这种情况下能够帮助我们——我们有理由期望,与在棋类游戏中一样,高度发达的人工智能体在类似情况下也会做出比人类更加合理的决策——那么我们似乎也应当把这些潜在冲突的价值都“教给”人工智能体,并由它在两难状况中自主地做出选择。再者,我们知道,多样性对于人类来说是不可或缺的宝贵财富,因为人类各种各样的才华、智慧和创造力都建立在多样性的基础上。因此,我们似乎有理由相信,为了让人工智能体更好地发展它们的能力,也有必要让它们变得更加多样化。而设定潜在冲突的目标,再以随机的方式让不同的人工智能体各自自主地寻求实现这些目标的方式,似乎是实现人工智能体多样性的一条可行的路径。即使人们没有被上面这些理由说服,但除了它们以外,我们一定还能找到其他重要的理由来支持为人工智能体设定潜在冲突的目标。因此,无论是理论上还是实践上,我们都应当对这一做法给出肯定的回答。
最后,让我们来考虑一下人工智能体与人类生活中的各种期待和要求之间的关系。在上一节中我们已经指出,成为反应态度的适当对象,不仅意味着要服从某些期待和要求,而且还意味着要和道德共同体中的其他成员一道认可这些期待和要求。这种认可的基础是什么呢?答案无非是人的共同天性和生活形式。毋庸讳言,由于时代、文化和个体上的巨大差异,不同的人对同一件事情的看法可能千差万别。在此时此地广受称赞的行为,在彼时彼地也许会遭到普遍唾弃。尽管如此,人类共同的天性和生活形式使得不同的人在最基本的价值和行为模式(如趋乐避苦)上总是表现出广泛的一致,而人与人之间的差异则主要体现在对这些价值的结构以及它们之间先后次序的理解上。由于分享有共同的基本价值,因此人与人之间、文化与文化之间的沟通和相互理解在原则上总是可能的;但由于人们对诸价值的结构以及它们之间先后次序的理解常常是根深蒂固的,因此这种沟通和理解常常是相当困难的。如果相互之间的沟通和理解比较充分,那么人们就会共同认可一些基本的规范,从而也就会倾向于用反应态度来看待对方;反之,如果相互之间的沟通和理解十分匮乏,那么人们就很难在任何实质性的期待和要求上达成共识,因而人们就只能用客观态度来看待对方。
如果此说不谬,那么人工智能体似乎很难成为反应态度的适当对象:问题并不在于人工智能体无法理解人类的思想——从近年来人工智能技术的发展来看,人工智能体已经可以和人类在相当复杂的议题上展开实质性的对话和论辩,其展现出的沟通和说服的技巧让绝大多数人都望尘莫及。真正的问题在于,我们和人工智能体并没有任何共同的天性或生活形式,因此也谈不上分享哪怕是最基本的价值。我们无法想象人工智能体的快乐或痛苦——即使人工智能体有朝一日能够完美地模拟出人类的快乐或痛苦,这种模拟出的感受对于它们来说,似乎也完全不具有快乐和痛苦本身对于人类来说的那种意义。受到快乐和痛苦的驱使是人之为人不可改易的天性,而是否以及如何在人工智能体上模拟类似的感受则似乎是一个单纯的技术问题。正是因为我们与人工智能体之间这种巨大的不对等关系,让我们不知道对它们究竟应当有怎样的期待和要求,更不知道在什么意义上可以说它们也认可了特定的期待和要求。按照我们目前的想象,即使我们确定了某种合理的期待和要求,当人工智能体满足或者超出期待时,我们似乎也只会像看到一台机器运行良好那样感到满意或惊喜,而不会产生感激之情;而当人工智能体没有满足要求时,我们似乎也只会像看到一台机器出现故障一样感到不满或遗憾,而不会产生怨恨之情。总之,即使人工智能体表现出对人类种种基本价值及其内在结构的充分把握,乃至对不同价值之间的冲突以及可能和解的深入分析,我们仍然会自然地认为,人工智能体向我们传达的一切都缺乏某种“深度”或“厚度”,而这种“深度”或“厚度”对于反应态度来说似乎是不可或缺的。
[[388444]]
当然,我并没有在逻辑上证明对人工智能体采取反应态度是不可能的。也许随着人工智能体愈发融入人类生活中,以及随着人的性质本身可能发生的变化,人类将在与人工智能体的和谐共生中自然地发展出一套相互之间的期待和要求。假如这一天真的会到来,那么我们到那时当然可以(甚至应当)对人工智能体采取反应态度,并认为它们和人类一样拥有上文中所说的“实践自由”,进而赋予其相应的道德乃至法律地位。不过,从现在的眼光来看,这一天似乎还遥不可及。而人工智能技术在当下对自由意志造成的最严重的冲击,则体现在它对于人类实践自由的三个条件的影响上:人类的行为变得越来越容易预测;原本相互冲突的目标或冲动变得越来越容易同时被满足;人们共同认可的期待和要求也在发生着微妙的变化。在这样的条件下,我们无疑需要对自由意志以及与之密切相关的种种价值——如原创性、自主、自我实现、尊严等——重新进行审视。
行文至此,我们不妨来做一个简短的回顾。文章的前半部分致力于在司倬森“反应态度”理论的基础上发展出一种“实践自由”的观念,这一观念既能容纳传统自由意志观中所包含的绝大多数价值,又与现代科学的基本图景和谐一致。在此之后,我们分析了支撑这一观念的三大要素,即行为的不可预测性、潜在冲突的目标以及对一系列期待和要求的共同认可。从原则上来说,前两大要素都可以为人工智能体所满足,但它们是否能够满足第三个要素则是颇为可疑的。
自由意志的问题困扰人类已逾千年之久,而与人工智能相关的一切也都扑朔迷离,因此,本文中的许多论证和结论都注定是试探性的。或许这些讨论并不能让人对本文标题提出的问题获得确切的答案,但我希望借助于人工智能体这面镜子,我们得以廓清自己对自由意志的理解。自由意志的价值并不在于它是来自上帝的恩赐,也不完全在于它是我们自主选择、创造性和个体性的基础,而是很大程度上在于它与我们那不起眼的、但却充满人性的道德生活和人际交往之间密不可分的联系。或许这就是司倬森带给我们的最重要的启示,也是本文最终的结论。