探索构建符合中国国情的人工智能治理框架——全国政协“人工智能发展中的科技伦理与法律问题”双周协商座谈会发言摘登
■编者按:
任何一项重大科技创新都会促进社会生产力和生产关系的变化,也会影响社会生活方式和伦理秩序的调整。人工智能技术具有广泛渗透性和颠覆性,带来的科技伦理与法律问题更加复杂多元,可能引发潜在伦理和法律风险,需要引起高度重视。12月23日,全国政协召开双周协商座谈会,专门就此问题进行协商议政。现将有关发言摘登如下——
全国政协副主席,民盟中央常务副主席陈晓光作主题发言
全国政协将“人工智能发展中的科技伦理与法律问题”作为双周协商座谈会的主题,紧扣关乎国家发展的前瞻性、战略性问题协商议政,是充分发挥政协人才库、智慧库优势的一次生动实践。
结合参加调研的感受和委员们的发言,我谈以下几点意见。
一、充分认识人工智能科技伦理与法律建设的战略意义
人工智能的健康发展,必须回答人工智能到底该由谁掌控、人工智能发展的基本准则是什么、人工智能发展的禁区在哪里等问题,必须通过建立理性的伦理规则和法律规范为人工智能发展的风险防范设置“控制阀”。
在发展人工智能技术的同时,必须同步开展伦理和法律层面对人工智能的引领和规范工作,改变“先发展后治理”的模式和“重科技研发、轻治理研究”的思维,大力加强人工智能伦理和法律相关问题的研究。
二、构建多元主体共同参与协同合作的治理体系
充分发挥我国国家制度和国家治理体系优势,在国家层面加强顶层设计,统筹多方力量,构建多元主体共同参与、协同合作的人工智能治理体系。通过制定政策和法律,明确政府对人工智能发展的监督管理和规范指导职责,健全人工智能治理的资源统筹、部门协作、信息共享的工作机制,搭建人工智能治理的框架。鼓励行业协会、标准化组织、产业联盟等社会团体,制定人工智能产业标准、技术标准和行业规范,不断加强行业自律。倡导企业率先开展相关研究,制定企业伦理规则、建立内部审查机制,进行自我监管。建立公众参与人工智能治理机制,保障公众的知情权、参与权、表达权、监督权。
积极推动国际社会在人工智能伦理和法律建设中凝聚共识、开展合作。鼓励国内研究机构、智库等利益主体多方参与人工智能治理。与多国多方多边加强人工智能技术、标准等方面的合作、共享,探索人工智能在应对全球性问题方面的应用。
三、构建远近结合的综合规制体系
总的来看,人工智能治理需要在充分发挥技术手段的基础上,注重伦理与制度的结合,逐步形成“技术防范+伦理规范+法律规制”的综合规制体系。
从近期看,应着重加强技术应对和伦理规范。遵循市场规律,坚持应用导向,完善人工智能标准体系,将基础安全,数据、算法和模型安全,技术和系统安全,安全管理和服务等作为人工智能安全与隐私保护技术标准的重要发力方向。
从中长期考虑,全面研究和论证人工智能法律规制体系,制定立法策略。围绕国家和社会层面的数据安全、数据权利等进行立法。在人工智能发展相对成熟的领域,适时开展相关的规范立法。
四、广泛开展人工智能知识宣传教育活动
在全社会,全面、客观、深入宣传人工智能发展将给人类社会带来的根本性变革,促使公众形成对人工智能的科学、理性认识。抓好学校教育,将人工智能知识、计算机思维普及教育纳入国民教育体系,“从娃娃抓起”,培养良好科技伦理素养。抓好劳动技能培训教育,着眼于人工智能时代对劳动者的要求,积极应对人工智能带来的就业替代。
加强对科研人员的科技伦理和法律教育培训,从源头防范人工智能风险。将科研人员职业道德、学术道德规范等相关内容作为上岗前的重要培训内容,在项目申请、管理中,加大对人工智能科技伦理、法律法规的考核比重。强化大学科技伦理教育,建立系统性、多维度科技伦理人才培养体系,设置科技伦理专业方向;将人工智能伦理法律等课程纳入与人工智能开发、运用相关专业的核心课程,完善教学体系。
全国政协委员、社会和法制委员会副主任,公安部原副部长陈智敏作调研情况综述:高度重视人工智能健康发展和风险防范
为做好本次会议筹备工作,今年9-10月,陈晓光副主席、汪永清副主席分别率专题调研组赴安徽、江苏、北京开展4次调研,深入26家企业、科研院所和高校,与企业负责人、一线科研人员、专家学者和相关部门广泛交流。
调研中看到,新一代人工智能正在与实体经济深度融合,广泛应用于社会民生领域,激发创新活力和社会潜能,成为经济发展新引擎。我国人工智能发展势头迅猛,但发展机遇与风险并存,对人类社会发展也可能带来重大风险和潜在威胁。一是数据信息采集应用可能侵犯公民权利,威胁隐私。二是算法偏好可能加剧社会偏见或歧视,威胁公平。三是机器深度学习难以理解人性和道德,无人驾驶汽车紧急避险等智能决策可能危及特定人群生命,威胁安全。四是人机交互式产品广泛应用带来的工作生活高度依赖,对人类情感体验、家庭社会关系等带来了一定冲击,可能影响未来社会塑造,威胁伦理。
当前,人工智能发展的科技伦理与法律问题研究已经在实践中逐步探索和实施。2017年,国务院发布《新一代人工智能发展规划》,提出了人工智能治理体系建设的时间表和路线图。但总体来看,已经开展的研究和探索基本上还处于自发和分散状态,缺乏规划和统筹,难以形成合力;社会各方面对伦理和法律促进和保障人工智能健康发展的基础性作用,重视不够、认识不足;科技研发和应用中的风险意识、规则意识不强,“科技向善”的融合度、共识度和实践性都有待提高。建议:
一、从国家发展战略高度制定人工智能发展规划,引导人工智能发展与国家创新驱动发展战略相衔接,特别是高端制造业。重视人工智能红利形成的“数字鸿沟”“贫富鸿沟”等社会财富分配问题、人工智能发展引发的就业问题等科技伦理和法律问题研究,构建多部门协同、多学科融合、多元主体参与的风险治理和规则治理研究框架和工作体系。
二、弘扬“科技向善”理念,在科研人员中树立扬善避恶、造福人类的道德准则,明确道德底线。针对深度伪造技术可能引发政治风险、个人信息被窃取倒卖引发刑事犯罪、“数据投毒”导致人工智能系统误判等问题,建立数据安全保障、算法安全审查等制度,为人工智能发展形成正确价值导向和稳定社会预期提供有力保障。
三、立足先发优势,积极参与和引领人工智能治理国际规则制定,为构建适应人类命运共同体安全发展需要的人工智能全球治理新规则新秩序新格局,贡献中国智慧和中国方案。
全国政协常委,湖南省政协副主席,九三学社中央常委、湖南省委会主委张大方:警惕人工智能发展所带来的社会公平问题
人工智能主要以大数据和深度学习为基础,从理论上来说,客观的数据和理性的算法没有情绪也没有偏好,不会带来偏见。但是,往往数据的缺失、数据的质量、算法的歧视和人工的变化,会导致一些偏见出现。也许,人类真正优越于人工智能的,不是更强大的逻辑运算能力或创造力,而是崇高的道德感和同情心。
面对人工智能发展所带来的潜在与现实的社会公平问题,我个人的思考与建议是:
一、“上限”不能过。人工智能发展应该公平地服务于人类的公共利益,而不应该侵害甚至颠覆人类社会的公平与正义。人工智能应该被合乎伦理的设计开发与利用,一切有悖于科学伦理、加剧社会不平等、拉大贫富差距的技术研发,应该受到限制。
二、“底线”不能破。应致力于帮助每个人做好应对的准备,包括帮助学生应对未来的职业挑战,帮助劳动者应对不断变化的行业形势,以及建立相关制度以帮助劳动者和就业机会进行匹配。应大力推广计算思维普及教育,让每一个人都能成为人工智能的理解者与受益者;大力推动各行业数字化转型,让每一家公司都能成为人工智能的使用者与创造者。
三、“红线”不能踩。必须加强政府引导、行业自律、企业自觉及公民共识的氛围营造,从设计研发之始,就要在技术标准化上加以规范,下大力气培养一线从业人员遵从科学道德伦理,自觉规避好奇与邪恶,并从中获得职业释怀的幸福感,从而使人工智能在政策、法律和规范的指导下更具效能。
全国政协常委,湖南省政协副主席,九三学社中央常委、湖南省委会主委张大方:警惕人工智能发展所带来的社会公平问题
人工智能主要以大数据和深度学习为基础,从理论上来说,客观的数据和理性的算法没有情绪也没有偏好,不会带来偏见。但是,往往数据的缺失、数据的质量、算法的歧视和人工的变化,会导致一些偏见出现。也许,人类真正优越于人工智能的,不是更强大的逻辑运算能力或创造力,而是崇高的道德感和同情心。
面对人工智能发展所带来的潜在与现实的社会公平问题,我个人的思考与建议是:
一、“上限”不能过。人工智能发展应该公平地服务于人类的公共利益,而不应该侵害甚至颠覆人类社会的公平与正义。人工智能应该被合乎伦理的设计开发与利用,一切有悖于科学伦理、加剧社会不平等、拉大贫富差距的技术研发,应该受到限制。
二、“底线”不能破。应致力于帮助每个人做好应对的准备,包括帮助学生应对未来的职业挑战,帮助劳动者应对不断变化的行业形势,以及建立相关制度以帮助劳动者和就业机会进行匹配。应大力推广计算思维普及教育,让每一个人都能成为人工智能的理解者与受益者;大力推动各行业数字化转型,让每一家公司都能成为人工智能的使用者与创造者。
三、“红线”不能踩。必须加强政府引导、行业自律、企业自觉及公民共识的氛围营造,从设计研发之始,就要在技术标准化上加以规范,下大力气培养一线从业人员遵从科学道德伦理,自觉规避好奇与邪恶,并从中获得职业释怀的幸福感,从而使人工智能在政策、法律和规范的指导下更具效能。
全国政协委员,北京搜狗科技发展有限公司首席执行官王小川:以未来之眼光看待人工智能
人工智能是引领新一轮科技革命和产业变革的战略性技术,这要求我们跳出今天的思维定式,以未来的眼光看待人工智能。
我想先区分开大数据和人工智能。算法、算力和数据是人工智能的三大驱动力。今天的人工智能是建立在数据智能基础上,数据对人工智能的发展更容易产生作用,但是数据本身涉及个人信息保护等问题,现在已经引起了人们的高度重视。我先抛开大数据不谈,谈人工智能,集中谈算法。
算法在短期内能实现如人们期待的突破吗?当前算法已经取得了一定突破,但短期看突破还不够。长期看,算法能不能实现预期中的突破是不可预测的一件事,需要长时间的思考和科研。因此,我们应该有规划、有规模地开展人工智能技术普及工作,分层次地推进全社会人工智能普及教育。
人工智能是一个未来命题,教育同样也是,需要长远布局。立足当下,我们看到的是人工智能对就业带来影响。越来越多简单的重复性劳动,逐步被人工智能取代,后者甚至达到人类难以企及的速度和精准度。而长远地看,尚没有充分研究成果显示人工智能可以替代人完成创造性的劳动。我们更需要关注如何在教育中鼓励创造,改革那些交给机器做可以更高效、更精准的工作。通过转变教育方式、推动学科改革,实现对人才培养方向的引导,以优化的人才结构适应未来的需要。
以未来的眼光看待人工智能,还意味着要更多关注取舍两难的问题。取舍两难的问题,不是直观的恶与善,他们会伴随人工智能与社会经济发展的深度融合,以穿透科学与人文的复杂方式呈现出来。从社会治理的角度看,这些更需要我们提前去思考和关注。
全国政协委员,九三学社重庆市委会副主委,重庆医科大学校长黄爱龙:加强人工智能应用中的个人隐私保护
人工智能需要大量个人数据支撑,其中很多是个人隐私。隐私信息一旦泄露,可能对消费者人身、财产安全及企业、公共利益造成严重威胁。加强隐私保护,不但是人工智能开发、应用中的伦理道德底线,还是保障公民依法享有《宪法》《民法典》等所规定的人格权、隐私权的重要体现。
从2020国家网络安全宣传周“App个人信息保护”发布活动上了解到,工业和信息化部联合相关单位连续两年开展App违法违规收集使用个人信息专项治理。2020年累计巡查4.8万余款App,专项检查了200余款App,依法处置了7000余款存在违法违规行为的App。可见,问题App占比很大。各部门下了很大力气,制定技术规范、建立举报平台、督促问题整改,取得了很好的效果。
App安全认证制度是一项很好的措施。但目前认证的App数量较少,需要进一步推广,提升实施效果。希望监管部门持续开展治理工作,进一步扩大工作范围,加大处罚力度,提高违法违规成本,对违法违规行为形成有力震慑。加强对举报平台的宣传推广,鼓励公众积极参与提供问题线索,完善公众权益救济渠道,形成全民监督的良好社会氛围。在《App违法违规收集使用个人信息行为认定方法》统一标尺的基础上,针对金融、安防、医疗、教育等重点领域,出台有针对性的细化办法。
另外,我建议隐私信息采集应区分“战时”和“平时”,并坚持“最小够用”原则,比如,“健康码”采集的信息,疫情过后再使用的话,要有相关规定;“行程码”显示的行程信息,建议由逐一列出手机使用者去过的地区,调整为只列出去过的中高风险地区。
同时,建议构建“制度+科技”治理机制,政府、司法、行业、企业等多方协同治理,在推进人工智能应用的同时有效保护隐私。
全国政协委员,上海众人网络安全技术有限公司董事长谈剑锋:支持人工智能发展数据管控需先行
一旦个人隐私数据泄露,就是重大的社会事件,不仅会危及老百姓的财产和生命安全,而且会影响社会稳定。更进一步来看,随着人工智能数据收集、分析以及信息生成技术的不断发展,很多东西可以被仿造,信息仿造不仅会侵蚀社会的诚信体系,还可能会给国家的政治安全、经济安全和社会稳定带来巨大的负面影响。
在海量大数据中,尤其需要关注的是不可再生性数据,比如人脸、指纹、DNA等生物特征数据,以及个人医疗档案数据等。这些数据具有唯一性,是无法更改的,一旦被采集到不安全的网络上,极有可能带来灾难性后果。
人工智能技术的发展是趋势,应该予以支持。但针对个人生物特征、医疗数据等唯一性、不可再生性的重要数据,必须提前设防。生物识别技术应当成为“最后的救济手段”,在使用规范上要有更加严格的要求,防范各类风险。建议采用负面清单制,明确禁止具有唯一特征的不可再生性数据在互联网上的应用,切断风险源头。
我还有一点思考,建议国家设立“数据银行”,成立专门机构来统一管控、存储和应用不可再生性大数据,从而限制企业自行采集收集和垄断,并运用区块链技术分布式存储,运用密码技术严格保护数据。
作为一名数据安全领域的工作者,我认为必须严控大数据的使用场景。科技需要从0到1的创造,而不是滥用场景式的所谓“创新”。要对互联网企业的信息采集进行严格的管理规定,只可针对企业产品的特性进行相关必要的数据采集,不得过度、无序、随意地采集,并出台相关条例,明确规范由谁来采集、如何采集等相关安全技术规范和流程标准,采取严格的安全防范措施。
全国政协委员,最高人民法院副院长姜伟:尽快出台数据权利保护类法律
我们在调研中发现,因数据的权属不明确,有三个问题困扰着有关企业:一是创新难,数据企业之间爬取数据、滥用数据的现象普遍存在。二是交易难,因数据价值缺乏统一评估标准,需要逐一谈判,数据交易成本高。三是维权难,数据平台遭到侵权的问题时有发生。
建议尽快出台数据权利保护类法律,主要有以下几点考虑:
一、数字经济需要法律保障。在信息化时代,迫切需要建立一个安全、有序的数据流通环境。明确数据产权,就是建立一套公平合理的法律规则,规范数据的权属、使用、交易、共享机制,激发市场主体的积极性和创造性,促进数据开放、流动、共享。
二、数据属性需要制度创新。数据形态与现有法律客体的形态和性质均有不同,其权利主体是多元的,权利内容是多维的,涉及个人信息、企业利益、政府资源、数据主权、国家安全等多重维度,无法将数据所有权绝对化,不能简单地套用传统的物权规范。需要根据数据的属性特点建立数据产权制度,破解“个人数据与企业产权”的矛盾、平衡“数据安全与数据利用”的冲突,对各种类型数据合理确权,解决数据属谁所有、数据如何使用、数据收益归谁等问题。
三、司法实践需要法律依据。民法典总则编第127条规定:“法律对数据、网络虚拟财产的保护有规定的,依照其规定。”表明法律保护数据权利的鲜明态度,关键是现有法律规范不健全,后续立法应细化数据权利保护规则,落实这个原则性规定,为司法裁判提供依据。
全国政协委员,香港中文大学工程学院副院长,香港计算机教育学会荣誉会长黄锦辉(视频连线):加强对可解释权的立法
人工智能的任务是仿效人类的行为,并以机器代人为终极目标。医疗及教学是常见的人工智能应用,但不少现有的系统都未能为决定作出合理解释,使用户质疑其效能。比如在没有病征的情况下被确诊为肺炎,但医生没有解释;比如一名学生很努力地写了论文,老师却评为不及格又没有说出理由根据。遇到上述场景,当事人必然感到无奈,从而对医生及老师失去信任。而在这些医疗及教学的人工智能应用背后,所使用的大数据分析算法,都会用到深度学习。
深度学习是制造人工智能系统的关键技术。它利用神经网络算法对输入数据进行表征分析及学习,从而构建出一个对应的信息处理模型。神经网络是一套端对端的学习运算方法,换言之,当操作者输入了数据,网络便会自动学习,找出最佳结果作为输出。尽管如此,它的自动学习算法以黑箱式作业,并不透明,剥夺了数据拥有者的权利。欧盟于2016年推出的《一般数据保护规范》当中,可解释权是一项重要法规。理论上,可解释权是对算法(例如深度学习)输出进行解释的权利。
提两个建议:一是建议国家在人工智能方面加强对可解释权的立法。二是建议国家有关部门邀请香港代表一起,参与联合国在人工智能伦理和治理方面的国际标准制定工作。
全国政协委员,北京市通州区人民法院副院长、民事审判一庭庭长李迎新:为人工智能把好“运行控制关”
如果将“人工智能产业”比作高速行驶的汽车,那么在努力踩好“油门”不断加速的同时,更应提高风险防控意识,把好运行控制关,确保人工智能产业发展始终在造福人民正轨上行驶。
作为一名法律人,我对人工智能系统致人损害时引发的侵权责任问题,谈一点思考。人工智能基于神经网络的深度学习,具备自我学习和进化的能力,拥有不断迭代的自主性。以无人驾驶汽车为例,假设车辆在无人驾驶中发生事故致人伤害,那么事故原因究竟是无人车的生产设计者过错导致的产品瑕疵或缺陷?还是无人汽车使用者自身操作不当?又或者是人工智能系统超越原控制方案通过自主学习而引发的“自身危险行为”?从法律思维角度,应当明确分析原因,界定责任主体。对于人工智能存在的无法归责于生产设计者也不宜归责于使用人的侵权责任,或可考虑设立类似于交强险的“人工智能责任险”,以便及时对被侵权人提供救济,同时分担生产设计者的创新风险。实践中广泛存在的其他人工智能产品可能带来的侵权损害,可以参照上述责任分配机制。请教司法部的领导同志可否借鉴道交中的交强险做法,设置人工智能责任险?
再就人工智能可能带来的“数字鸿沟”“发展鸿沟”谈一点思考。数据是人工智能不断进化的“燃料”。目前主流观点表明,数据集合会产生市场价值倍增。巨型网络交易平台作为原始数据的搬运者和收集者,通过多种渠道获取原始数据,汇总后加工并最终获得价值密度极高的“大数据”,进而以“精准营销”等方式,获取商业利润。就此类因数据产生的利润分配机制是否公平?是否可能导致收入差距进一步加大?目前多国已经针对大型互联网企业及电商交易平台开征或正考虑开征数字税。想请教发改委和工信部的领导同志,如果时机成熟,是否对巨型互联网企业相关互联网业务产生的利润征收适当“数字税”?
全国政协常委,民盟中央副主席、上海市委会主委,上海市副市长陈群:加快构建人工智能健康发展治理体系
随着人工智能赋能百业态势的不断发展,隐私保护、安全可控、公平公正等法律伦理问题逐渐成为社会关注焦点和影响人工智能产业可持续发展的关键。结合上海的探索实践,提三点建议。
一是加快构建促进人工智能健康发展的良好生态。上海近年来探索表明,要推动人工智能健康发展,除了加大科研投入、推动人才集聚、丰富应用场景和政策供给外,还需要着力构建良好的发展生态,目前上海正积极建设人工智能综合性研究机构,打造人工智能算法评测和交易平台,建设面向人工智能主流技术的算法评测标准体系和通用算法库,开展算法知识产权保护;推动制定人工智能应用的企业标准、行业标准和地方标准;加快制定医疗、交通等重点领域人工智能产品和服务责任认定条例,开展人工智能产业发展监管、人工智能数据安全等立法调研。
二是加快构建以人为本的人工智能治理体系。下阶段,人工智能将进一步深入社会生活,需要政府在坚持包容审慎原则的同时,更加积极作为。建议在国家层面搭建人工智能治理框架,设立专业管理机构,加强风险和挑战研判,推动全国性治理原则制定,并探索出台相关法律法规。
三是发声人工智能全球治理。在国家层面加快相关制度创新,布局建设人工智能认证体系和全球赋码系统。同时进一步加强人工智能国际对话合作。
全国政协委员,民盟北京市委会副主委,中科院理化技术研究所副所长汪鹏飞:加强科技伦理宣传教育
先进科技在推动人类社会迅速发展同时,也带来科技重大伦理风险。特别是近年来生物医学科技、人工智能技术的快速发展与普及已引发广泛的伦理与风险问题。就加强人工智能科技伦理风险意识的宣传方面提三点建议。
一、加强宣传力度,提高全社会对科技风险的敏感性以及对科技风险的认知水平和能力。首先强化对教师及科研人员的宣传教育。将教师与科研人员职业道德、学术道德规范等相关内容作为上岗前的重要培训内容,在项目申请、管理中,承担单位应加强宣传教育与培训,提高科研人员在科技伦理、科技安全等方面的责任感与法律意识。强化国家科技伦理方面的法律法规在高校、科研院所及企业等单位的宣传与推广,建立相关宣传体系,推动科技伦理科普宣传,将科技伦理纳入公民科学素质建设中。
二、强化对高校学生的科技伦理教育。建立系统性、多维度科技伦理人才培养体系,强化专业化、多元化人才培养;探索完善科技伦理课程内容设置、教学方法创新,如:将科技伦理法规规范、伦理哲学道德、生物与临床医学伦理、人工智能工程伦理等相关学科课程纳入高校教育核心课程。
三、加强对党政领导干部的人工智能伦理风险教育培训。领导干部需要对人工智能这一科技伦理方面发展的风险有较科学理性的看法,从发展角度辩证、客观地看待发展中存在的问题。
清华大学法学院院长申卫星:关于对人工智能进行多重规制的建议
人工智能是一把双刃剑,深刻改变人类社会生活、改变世界的同时,其发展的不确定性也给个人隐私、经济安全和社会稳定乃至全球治理带来前所未有的新挑战。
针对人工智能技术发展中的风险,应落实以人民为中心的发展思想,在大力发展人工智能的同时,高度重视可能带来的安全风险挑战,加强前瞻预防与约束引导,最大限度降低风险、化解风险,从技术、伦理和法律三个路径共同构建符合人工智能运作基本逻辑的规制体系,确保人工智能安全、可控发展。建议:
一、通过技术手段防范人工智能带来的风险和损害。遵循市场规律,坚持应用导向,完善人工智能标准体系,将基础安全,数据、算法和模型安全,技术和系统安全,安全管理和服务等作为人工智能安全与隐私保护技术标准的重要发力方向。
二、制定促进人工智能发展的伦理规范。伦理准则是保障个人智能安全可靠可控发展的重要措施,要加强人工智能相关伦理和社会问题研究,建立保障人工智能健康发展的伦理道德框架。开展人工智能行为科学和伦理等问题研究,建立伦理道德多层次判断结构及人机协作的伦理框架。制定人工智能产品研发设计人员的道德规范和行为守则,加强对人工智能潜在危害与收益的评估,构建人工智能复杂场景下突发事件的解决方案。
三、构建综合性立法和具体场景立法相结合的“总-分”式立法体系。综合性立法是进行人工智能顶层设计的最佳形式,通过专门的中央立法可以强有力地指导各地、各领域的人工智能发展。具体场景分别立法的领域包括自动驾驶、自动化决策、精准医疗等,区分不同行业和场景对人工智能技术进行规范。“总-分”的立法体系设计将有利于增强国内外对于中国人工智能技术的信任度,提升人工智能国际竞争中的软实力。为保障立法的科学性,可以分别构建高级别的人工智能发展协调机构和安全治理机构,共同牵头立法组织工作,按照分别起草、逐个审议、汇编成法的思路开展立法工作。同时积极参与人工智能全球治理,加强机器人异化和安全监管等人工智能重大国际共性问题研究,深化在人工智能法律法规、国际规则等方面的国际合作,共同应对全球性挑战。
《新一代人工智能伦理规范》发布
9月25日,国家新一代人工智能治理专业委员会发布了《新一代人工智能伦理规范》(以下简称《伦理规范》),旨在将伦理道德融入人工智能全生命周期,为从事人工智能相关活动的自然人、法人和其他相关机构等提供伦理指引。
《伦理规范》经过专题调研、集中起草、意见征询等环节,充分考虑当前社会各界有关隐私、偏见、歧视、公平等伦理关切,包括总则、特定活动伦理规范和组织实施等内容。《伦理规范》提出了增进人类福祉、促进公平公正、保护隐私安全、确保可控可信、强化责任担当、提升伦理素养等6项基本伦理要求。同时,提出人工智能管理、研发、供应、使用等特定活动的18项具体伦理要求。《伦理规范》全文如下:
新一代人工智能伦理规范为深入贯彻《新一代人工智能发展规划》,细化落实《新一代人工智能治理原则》,增强全社会的人工智能伦理意识与行为自觉,积极引导负责任的人工智能研发与应用活动,促进人工智能健康发展,制定本规范。
第一章 总则
第一条 本规范旨在将伦理道德融入人工智能全生命周期,促进公平、公正、和谐、安全,避免偏见、歧视、隐私和信息泄露等问题。
第二条 本规范适用于从事人工智能管理、研发、供应、使用等相关活动的自然人、法人和其他相关机构等。(一)管理活动主要指人工智能相关的战略规划、政策法规和技术标准制定实施,资源配置以及监督审查等。(二)研发活动主要指人工智能相关的科学研究、技术开发、产品研制等。(三)供应活动主要指人工智能产品与服务相关的生产、运营、销售等。(四)使用活动主要指人工智能产品与服务相关的采购、消费、操作等。
第三条 人工智能各类活动应遵循以下基本伦理规范。(一)增进人类福祉。坚持以人为本,遵循人类共同价值观,尊重人权和人类根本利益诉求,遵守国家或地区伦理道德。坚持公共利益优先,促进人机和谐友好,改善民生,增强获得感幸福感,推动经济、社会及生态可持续发展,共建人类命运共同体。(二)促进公平公正。坚持普惠性和包容性,切实保护各相关主体合法权益,推动全社会公平共享人工智能带来的益处,促进社会公平正义和机会均等。在提供人工智能产品和服务时,应充分尊重和帮助弱势群体、特殊群体,并根据需要提供相应替代方案。(三)保护隐私安全。充分尊重个人信息知情、同意等权利,依照合法、正当、必要和诚信原则处理个人信息,保障个人隐私与数据安全,不得损害个人合法数据权益,不得以窃取、篡改、泄露等方式非法收集利用个人信息,不得侵害个人隐私权。(四)确保可控可信。保障人类拥有充分自主决策权,有权选择是否接受人工智能提供的服务,有权随时退出与人工智能的交互,有权随时中止人工智能系统的运行,确保人工智能始终处于人类控制之下。(五)强化责任担当。坚持人类是最终责任主体,明确利益相关者的责任,全面增强责任意识,在人工智能全生命周期各环节自省自律,建立人工智能问责机制,不回避责任审查,不逃避应负责任。(六)提升伦理素养。积极学习和普及人工智能伦理知识,客观认识伦理问题,不低估不夸大伦理风险。主动开展或参与人工智能伦理问题讨论,深入推动人工智能伦理治理实践,提升应对能力。
第四条 人工智能特定活动应遵守的伦理规范包括管理规范、研发规范、供应规范和使用规范。
第二章 管理规范
第五条 推动敏捷治理。尊重人工智能发展规律,充分认识人工智能的潜力与局限,持续优化治理机制和方式,在战略决策、制度建设、资源配置过程中,不脱离实际、不急功近利,有序推动人工智能健康和可持续发展。
第六条 积极实践示范。遵守人工智能相关法规、政策和标准,主动将人工智能伦理道德融入管理全过程,率先成为人工智能伦理治理的实践者和推动者,及时总结推广人工智能治理经验,积极回应社会对人工智能的伦理关切。
第七条 正确行权用权。明确人工智能相关管理活动的职责和权力边界,规范权力运行条件和程序。充分尊重并保障相关主体的隐私、自由、尊严、安全等权利及其他合法权益,禁止权力不当行使对自然人、法人和其他组织合法权益造成侵害。
第八条 加强风险防范。增强底线思维和风险意识,加强人工智能发展的潜在风险研判,及时开展系统的风险监测和评估,建立有效的风险预警机制,提升人工智能伦理风险管控和处置能力。
第九条 促进包容开放。充分重视人工智能各利益相关主体的权益与诉求,鼓励应用多样化的人工智能技术解决经济社会发展实际问题,鼓励跨学科、跨领域、跨地区、跨国界的交流与合作,推动形成具有广泛共识的人工智能治理框架和标准规范。
第三章 研发规范
第十条 强化自律意识。加强人工智能研发相关活动的自我约束,主动将人工智能伦理道德融入技术研发各环节,自觉开展自我审查,加强自我管理,不从事违背伦理道德的人工智能研发。
第十一条 提升数据质量。在数据收集、存储、使用、加工、传输、提供、公开等环节,严格遵守数据相关法律、标准与规范,提升数据的完整性、及时性、一致性、规范性和准确性等。
第十二条 增强安全透明。在算法设计、实现、应用等环节,提升透明性、可解释性、可理解性、可靠性、可控性,增强人工智能系统的韧性、自适应性和抗干扰能力,逐步实现可验证、可审核、可监督、可追溯、可预测、可信赖。
第十三条 避免偏见歧视。在数据采集和算法开发中,加强伦理审查,充分考虑差异化诉求,避免可能存在的数据与算法偏见,努力实现人工智能系统的普惠性、公平性和非歧视性。
第四章 供应规范
第十四条 尊重市场规则。严格遵守市场准入、竞争、交易等活动的各种规章制度,积极维护市场秩序,营造有利于人工智能发展的市场环境,不得以数据垄断、平台垄断等破坏市场有序竞争,禁止以任何手段侵犯其他主体的知识产权。
第十五条 加强质量管控。强化人工智能产品与服务的质量监测和使用评估,避免因设计和产品缺陷等问题导致的人身安全、财产安全、用户隐私等侵害,不得经营、销售或提供不符合质量标准的产品与服务。
第十六条 保障用户权益。在产品与服务中使用人工智能技术应明确告知用户,应标识人工智能产品与服务的功能与局限,保障用户知情、同意等权利。为用户选择使用或退出人工智能模式提供简便易懂的解决方案,不得为用户平等使用人工智能设置障碍。
第十七条 强化应急保障。研究制定应急机制和损失补偿方案或措施,及时监测人工智能系统,及时响应和处理用户的反馈信息,及时防范系统性故障,随时准备协助相关主体依法依规对人工智能系统进行干预,减少损失,规避风险。
第五章 使用规范
第十八条 提倡善意使用。加强人工智能产品与服务使用前的论证和评估,充分了解人工智能产品与服务带来的益处,充分考虑各利益相关主体的合法权益,更好促进经济繁荣、社会进步和可持续发展。
第十九条 避免误用滥用。充分了解人工智能产品与服务的适用范围和负面影响,切实尊重相关主体不使用人工智能产品或服务的权利,避免不当使用和滥用人工智能产品与服务,避免非故意造成对他人合法权益的损害。
第二十条 禁止违规恶用。禁止使用不符合法律法规、伦理道德和标准规范的人工智能产品与服务,禁止使用人工智能产品与服务从事不法活动,严禁危害国家安全、公共安全和生产安全,严禁损害社会公共利益等。
第二十一条 及时主动反馈。积极参与人工智能伦理治理实践,对使用人工智能产品与服务过程中发现的技术安全漏洞、政策法规真空、监管滞后等问题,应及时向相关主体反馈,并协助解决。
第二十二条 提高使用能力。积极学习人工智能相关知识,主动掌握人工智能产品与服务的运营、维护、应急处置等各使用环节所需技能,确保人工智能产品与服务安全使用和高效利用。
第六章 组织实施
第二十三条 本规范由国家新一代人工智能治理专业委员会发布,并负责解释和指导实施。
第二十四条 各级管理部门、企业、高校、科研院所、协会学会和其他相关机构可依据本规范,结合实际需求,制订更为具体的伦理规范和相关措施。
第二十五条 本规范自公布之日起施行,并根据经济社会发展需求和人工智能发展情况适时修订。
国家新一代人工智能治理专业委员会
2021年9月25日
人工智能常用框架
上一讲我们简单探讨了人工智能是什么,那么既然知道是什么,下一步去搞清楚,怎么去做?用什么去做?目前市面上了,大家都是怎么做的,正所谓,工欲善其事,必先利其器,本来是个非常复杂的工程,利用工具,我们就能轻松运用和理解
下面简单介绍几种框架,帮我们实现人工智能
1.TensorFlow“使用数据流图表的可伸缩机器学习的计算”
语言:C++或Python。
TensorFlow是谷歌基于DistBelief进行研发的第二代人工智能学习系统,其命名来源于本身的运行原理。Tensor(张量)意味着N维数组,Flow(流)意味着基于数据流图的计算,TensorFlow为张量从流图的一端流动到另一端计算过程。TensorFlow是将复杂的数据结构传输至人工智能神经网中进行分析和处理过程的系统。
TensorFlow是一个使用数据流图表进行数值计算的开源软件。这个框架被称为具有允许在任何CPU或GPU上进行计算的架构,无论是台式机、服务器还是移动设备。这个框架在Python编程语言中是可用的。
TensorFlow对称为节点的数据层进行排序,并根据所获得的任何信息做出决定。点击查看详情!
优点:
使用易于学习的语言(Python)。使用计算图表抽象。用于TensorBoard的可用性的可视化。缺点:
这很慢,因为Python不是语言中最快的。缺乏许多预先训练的模型。不完全开源。2.MicrosoftCNTK“开源深度学习工具包”
语言:C++。
我们可以称之为微软对Google的TensorFlow的回应。
微软的计算网络工具包是一个增强分离计算网络模块化和维护的库,提供学习算法和模型描述。
在需要大量服务器进行操作的情况下,CNTK可以同时利用多台服务器。
据说它的功能与Google的TensorFlow相近;但是,它会更快。在这里了解更多。
优点:
这是非常灵活的。允许分布式训练。支持C++、C#、Java和Python。缺点:
它以一种新的语言——网络描述语言(NetworkDescriptionLanguage,NDL)来实现。缺乏可视化。3.Theano“数值计算库”
语言:Python。
Theano是TensorFlow的强有力竞争者,是一个功能强大的Python库,允许以高效率的方式进行涉及多维数组的数值操作。
Theano库透明地使用GPU来执行数据密集型计算而不是CPU,因此操作效率很高。
出于这个原因,Theano已经被用于为大规模的计算密集型操作提供动力大约十年。
然而,在2017年9月,宣布Theano的主要开发将于2017年11月发布的1.0版本后停止。
这并不意味着它是一个不够强大的库。你仍然可以随时进行深入的学习研究。在这里了解更多。
优点:
正确优化CPU和GPU。有效的数字任务。缺点:
与其他库相比,原生Theano有点低级。需要与其他库一起使用以获得高度的抽象化。AWS上有点bug。4.Caffe“快速、开源的深度学习框架”
语言:C++。
Caffe是一个强大的深度学习框架。
像这个清单上的其他框架一样,深度学习的研究速度非常快。
借助Caffe,您可以非常轻松地构建用于图像分类的卷积神经网络(CNN)。Caffe在GPU上运行良好,这有助于在运行期间提高速度。查看主页获取更多信息。
Caffe主要的类有:
优点:
Python和MATLAB的绑定可用。性能表现良好。无需编写代码即可进行模型的训练。缺点:
对于经常性网络不太好。新体系结构不太好。5.Keras“人类的深度学习”
语言:Python。
Keras是一个用Python编写的开源的神经网络库。
与TensorFlow、CNTK和Theano不同,Keras不是一个端到端的机器学习框架。
相反,它作为一个接口,提供了一个高层次的抽象化,这使得无论它坐落在哪个框架上,神经网络的配置都会变得容易。
谷歌的TensorFlow目前支持Keras作为后端,而微软的CNTK也会在很短的时间内做到这一点。在这里了解更多。
优点:
它是用户友好的。它很容易扩展。在CPU和GPU上无缝运行。与Theano和TensorFlow无缝工作。缺点:
不能有效地用作独立的框架。6.Torch“一个开源的机器学习库”
语言:C。
Torch是一个用于科学和数字操作的开源机器学习库。
这是一个基于Lua编程语言而非Python的库。
Torch通过提供大量的算法,使得深度学习研究更容易,并且提高了效率和速度。它有一个强大的N维数组,这有助于切片和索引等操作。它还提供了线性代数程序和神经网络模型。点击查看详情!
优点:
非常灵活。高水平的速度和效率。大量的预训练模型可用。缺点:
不清楚的文献记录。缺乏即时使用的即插即用代码。它基于一种不那么流行的语言——Lua。7.Accord.NET“机器学习、计算机视觉、统计和.NET通用科学计算”
语言:C#。
这是专为C#程序员设计的。
Accord.NET框架是一个.NET机器学习框架,使音频和图像处理变得简单。
这个框架可以有效地处理数值优化、人工神经网络,甚至可视化。除此之外,Accord.NET对计算机视觉和信号处理的功能非常强大,同时也使得算法的实现变得简单。点击查看详情。
优点:
它有一个强大而积极的开发团队。非常有据可查的框架。质量可视化。缺点:
不是一个非常流行的框架。比TensorFlow慢。8.SparkMLlib“可扩展的机器学习库”
语言:Scala。
Apache的SparkMLlib是一个非常可扩展的机器学习库。
它非常适用于诸如Java、Scala、Python,甚至R等语言。它非常高效,因为它可以与Python库和R库中的numpy进行互操作。
MLlib可以轻松插入到Hadoop工作流程中。它提供了机器学习算法,如分类、回归和聚类。
这个强大的库在处理大型数据时非常快速。在网站上了解更多信息。
优点:
对于大规模数据处理非常快速。提供多种语言。缺点:
陡峭的学习曲线。即插即用仅适用于Hadoop。9.Sci-kitLear“用Python的机器学习”
语言:Python。
Sci-kitlearn是一个非常强大的机器学习Python库,主要用于构建模型。
使用numpy、SciPy和matplotlib等其他库构建,对统计建模技术(如分类、回归和聚类)非常有效。
Sci-kitlearn带有监督学习算法、无监督学习算法和交叉验证等功能。点击查看详情!
优点:
许多主要算法的可用性。有效的数据挖掘。缺点:
不是构建模型的最佳选择。GPU效率不高。10.MLPack“可扩展的C++机器学习库”
语言:C++。
MLPack是一个用C++实现的可扩展的机器学习库。因为它是用C++编写的,所以你可以猜测它对于内存管理是非常好的。
MLPack以极高的速度运行,因为高质量的机器学习算法与库一起出现。这个库是对新手友好的,并提供了一个简单的API使用。点击查看详情!
优点:
非常可扩展。Python和C++绑定可用。缺点:
不是最好的文献记录。11、Pytorch
2017年1月,由Facebook人工智能研究院(FAIR)基于Torch推出了PyTorch。Pytorch和Torch底层实现都用的是C语言,但是Torch的调用需要掌握Lua语言,相比而言使用Python的人更多,根本不是一个数量级,所以Pytorch基于Torch做了些底层修改、优化并且支持Python语言调用。它是一个基于Python的可续计算包,目标用户有两类:
使用GPU来运算numpy一个深度学习平台,提供最大的灵活型和速度人工智能
文章目录框架理论框架的基本结构框架的表示实例框架框架系统框架之间的纵向联系框架之间的横向联系框架理论框架理论认为,我们对世间事物的认识都是以类似框架的结构存储在记忆中的。当遇到一个新事物就从记忆中找出一个合适的框架,并根据新的情况对齐细节加以修改、补充,从而形成对这个新事物的认识。
用以往经验来认识新事物使人们常用的方法,但是我们又不可能把过往发生过的所有经验都存在脑海中,而只能用一种通用的数据结构吧它们存储起来,当新情况发生的时候只需把新的数据添加到已有的通用数据结构中便可以实例化一个具体的实体。这种通用数据结构就是框架。
框架理论中,框架是知识的基本单位,把一组有关的框架连接起来便可以形成一个框架系统。
框架的基本结构框架通常有描述事物各个方面的若干槽(slot)组成,每一个槽也可以根据实际情况拥有若干个侧面(aspect),每一个侧面又可以拥有若干个值(value)。
在框架系统中每个框架都有自己的名字,称为框架名,每个槽跟侧面也都有自己的名字。
例如:
这个框架共有10个槽,分别描述一个硕士生在姓名,性别,年龄等10个方面的情况。其中性别这个槽的第二个侧面是默认值(default)。
该框架中的每个槽或侧面都给出了相应的说明信息,这些说明信息用来指出填写槽值或侧面值时的一些格式限制。
单位(unit):用来指出填写槽值或侧面值时的书写格式,例如姓名槽应先写姓后写名范围(Area):用来指出所填的槽值仅能在指定的范围内选择默认值(default):用来指出当相应槽没填入槽值时,以其默认值作为槽值。尖括号’’:表示由它括起来的是框架名。框架中给出这些说明信息,可以使框架的问题描述更加清楚,但这些信息不是必须,也可以进一步简化,省略以上说明并直接放置槽值或侧面值也可以。
框架的表示当只是的结构比较复杂时,往往需要多个相互联系的框架来表示。
例如上面的硕士框架可以用学生框架和新的硕士框架来表示,其中新的这个硕士框架是学生框架的子框架。
学生框架描述所有学生的共性,硕士框架描述硕士生的个性,并继承学生框架的所有属性。
学生框架:
硕士框架:
在硕士框架中使用了一个系统预定义槽名AKO。所谓系统预定义槽名,是指框架表示法中事先定义好的可公用的一些标准槽名。
框架的继承,通常由框架中设置的三个侧面:Default、If-needed、If-Added来组合实现:
If-needed:当某个槽不能提供统一的默认值时,可在该槽增加一个If-needed侧面,系统通过调用该侧面提供的过程产生相应的属性值If-added:当某个槽值变化会影响到其他槽时,需要在该槽增加一个If-added侧面,系统通过调用该侧面提供的过程去完成对其相关槽后继处理。实例框架当把一个学生的具体情况填入硕士框架之后,就可得到一个实例框架。
在这个实例框架中,用到了一个系统预定义槽名ISA,表示这个实例框架是硕士框架的实例。
框架系统框架之间的纵向联系纵向联系是通过定义槽名AKO、ISA来实现的。
框架之间的横向联系一个框架的槽值或侧面值可以是另外一个框架的名字,这就在框架之间建立了横向联系。
中小学人工智能课程内容设计及实施案例分析
我国中小学人工智能教育取得飞速发展与瞩目成绩的同时,也存在以下几点主要问题。
其一,缺乏完善的课程体系,无论是国家课程还是校本课程,人工智能教育都是依托其他课程开展的,这导致了人工智能教育内容分量难以确定,目标难以明晰。横向来看,教学内容过于碎片化,学生难以构建相关知识体系;纵向来看,学段间的人工智能教育内容联系不够紧密,这既不利于学生循序渐进的知识与技能学习,也使得教师难以把握学情从而导致教学目标与教学效果之间的落差。此外,现阶段中小学人工智能教育的教材大多属于产品说明书或用户指南[4]。
二、中小学人工智能课程设计
表1中小学人工智能课程目标及内容架构
人工智能技术虽然复杂深奥,但是其应用广泛且贴近生活,知识内容间紧密联系,对学生而言并非是不可感知、无法构建的。以人工智能为依托培养学生的计算思维、智能素养也并非是难以实现的。教师如何设计人工智能课程内容以及课程间以何种方式组织就显得尤为重要。
(一)中小学人工智能课程内容设计案例
下面,以初中年级人工智能课程中的“智能灯”为例对中小学人工智能的课程内容设计做详细阐述。“智能灯”一课意在通过学生对于生活中常见情境下智能灯的设计了解其背后设计原理,能够通过模块化程序设计和python代码编写出智能灯的程序,激发学生对于人工智能在生活中应用的兴趣。“智能灯”课的具体课程内容设计如图1所示:
图1以“智能灯”为例的人工智能课程内容设计
1.问题提出,明确任务
问题提出:绿色、环保、节能、和谐是当今生活的主旋律,智能灯的出现深化了人类与灯光之间的关系。请同学们结合生活实际谈一谈你所了解的智能灯!
明确任务:明确智能灯的设计要求——内置监测外界光线强度传感器,当光敏值大于700时,灯自动打开,当光敏值小于700时,灯自动熄灭。
2.深入探究,设计展示
深入探究:请学生利用可视化工具,例如思维导图,深入理解智能灯的设计要求,分析其所需要的元器件并搭建其真实应用的简易场景。
设计展示:小组通过分工利用模块化程序语言和python语言对智能灯进行设计,调试形成小组作品,并对本组作品进行演示和分享,讨论这两种不同的计算机语言在应用时的异同之处。
3.总结反思,拓展提高
以思维导图的形式回顾智能灯设计的全过程。在实际生活中往往面临着更为复杂的情境,当外界光线昏暗,智能灯会自动给打开且不能自动关闭,这也造成了一种资源浪费。进而引发学生对智能灯更深入的思考,完善、改进作品设计,为之后的课程内容做好准备。
本案例从生活实际出发引发学生的学习兴趣,在内容设计过程中通过对可视化工具的利用帮助学生理清思维脉络,不仅重视学生对模块程序和计算机语言的学习利用,更是通过比较二者的语言风格加强学生对编程的深入理解,进而培养学生的计算思维。
(二)中小学人工智能课程组织案例
人工智能虽然是一个知识体系丰富的新兴技术领域,其内容架构设计包含人工智能基础、算法与编程、机器人与智能系统等多个模块。表面看起来是彼此独立、互不关联的内容,但实际上,无论是技术特点还是知识内容都是可联系、可互通的。忽视了课程内容间的联系、放弃将内容整合成为模块是无法将人工智能的原理与技术讲解透彻的,也无法将计算思维和智能的培养渗入课堂。因而,以综合任务为导向的模块化组织中小学人工智能课程不仅能够有效帮助学生构建人工智能知识体系,更有助于教师组织形式丰富、内容多样的系统课程,增加课堂趣味性、有效性。
以“模拟城市交通系统”为例组织相关课程内容。如图2所示,智能路灯、自动道闸、智能信号灯、环线巴士、无人加油站原本都是独立的课程内容,根据课程与生活实际的联系整合成模拟城市交通系统为主题的模块。教师利用5-10个课时实践此模块,引导学生设计完成模拟城市交通系统这个综合任务实践每课内容,帮助学生在体验人工智能的同时,创造性地应用人工智能解决实际问题。
图2“模拟城市交通系统”课程模块
三、中小学人工智能课程实施策略
(一)跨学科整合式教学
人工智能是研究、开发用于模拟、延伸和扩展人的智能的理论、方法、技术及应用系统的一门新的技术科学。它的涉及领域除了计算机科学外,更包括了生物学、心理学等。跨学科的整合能够将数学、生物、神经科学等多学科知识与人工智能知识相融合、渗透。在这个过程中,教师不仅能够利用其他学科知识帮助学生理解人工智能知识内容,更利用其他学科思维帮助学生培养计算思维的核心素养。跨学科整合式的教学是将人工智能学科与其他相关学科进行融合,以项目形式实践课程内容,利用人工智能技术创造性地解决实际生活问题。以“机器视觉”一课为例设计如下,这一课中,教师将人工智能中机器视觉的知识与神经科学相结合(如图3),以人是如何看到事物的为导入,进而类比解释机器是如何“看到”事物的。该教学设计在渗透了脑科学知识的基础上,帮助学生联系生活实际体验人工智能的应用与价值。
图3“机器视觉”与神经科学知识融合
(二)情境游戏化教学
由于中小学学生的认知水平存在局限性和差异性,以及人工智能领域知识特性,学生难以通过讲授和演示直接理解课程内容。人工智能技术的发展也为创设情境提供了条件,教师完全可以利用人工智能技术的应用反哺课堂教学,帮助学生增强学习的体验感,对人工智能技术形成直观、形象的理解。借助游戏化的角色、模式以及元素,为学生提供丰富、有趣的学习内容;通过机制、增益等策略,能够丰富学习者的经历和体验,同时提高学习者在活动中的参与率和巩固率[9]。因而,将情境的创设与游戏化学习相结合,有利于增强人工智能教学课堂的趣味性、个性化。例如东南大学举办的人工智能为主题的夏令活动中实施的“火灾演练”,要求学生扮演消防员在模拟灭火行动中完成救援。创设的火灾情境融合机器人小车巡线、FPV第一视角等教学内容。氛围营造、综合竞赛及消防员的角色扮演都极大激发了学生的课堂兴趣及参与感。该项目在实践中得到了学生与教师的一致肯定。该设计能够帮助学生将人工智能知识与生活实际相联系,建构开源硬件的知识体系。鼓励学生在游戏化式轻松的教学环境中大胆创新。从而达到培养学生核心素养与创新能力的目标。
表2“火灾演练”项目内容
面向中小学开展人工智能课程有利于学生了解现代科技发展、适应未来生活有着重要的意义。目前,我国中小学人工智能教育尚在探索发展阶段,无论是课程内容的设计还是其组织方式、或是教学策略均未成型,本研究希望借以案例的分析,促进研究者对中小学人工智能课程设计广泛、深入的思考。
参考文献
[1]国务院关于印发新一代人工智能发展规划的通知[EB/OL].
[2]教育部关于印发《教育信息化2.0行动计划》的通知
[3][7]谢忠新,曹杨璐,李盈.中小学人工智能课程内容设计探究[J].中国电化教育,2019(4):17-22.
[4]徐多,胡卫星,赵苗苗.困境与破局:我国机器人教育的研究与发展[J].现代教育技术,2017,27(10):94-99.
[5]周邵锦,王帆.K-12人工智能教育的逻辑思考:学生智慧生成之路——兼论K-12人工智能教材[J].现代教育技
术,2019,29(4):12-18.
[6]解月光,杨鑫,付海东.高中学生信息技术学科核心素养的描述与分级[J].中国电化教育,2017(5):8-14.
[8]李德毅.AI——人类社会发展的加速器[J].智能系统学报,2017,(5):583-589.
[9]祝智庭,魏非.教育信息化2.0:智能教育启程,智慧教育领航[J].电化教育研究,2018,39(9):5-16.
东南大学百研工坊:21世纪是我国创新型人才培养的关键期。东南大学百研工坊(儿童发展与教育研究所)结合信息技术、生物医学工程、脑科学技术,进行青少年科学素养的国际比较研究和学生核心概念掌握水平的评测系统的研究与开发,我们的目标是:(1)面向中小学学生综合能力发展的steam研究;(2)通过实证教育研究,探究科学素养的本质及有效的培养途径;(3)将科学素养的传统评测方法与现代信息技术相结合,探究基于ECD模型的学生科学素养评测方法研究;(4)运用ERP、EEG和眼动等脑科学技术,开展对学生核心概念熟练掌握程度的评测研究。
责编:罗培
推荐关注:韦钰院士公众号
可鑫的科学漫步
介绍有关神经教育学、神经信息工程和科学教育的相关信息
推荐书籍
滑动查看更多>>>返回搜狐,查看更多
人工智能的伦理挑战
原标题:人工智能的伦理挑战控制论之父维纳在他的名著《人有人的用处》中曾在谈到自动化技术和智能机器之后,得出了一个危言耸听的结论:“这些机器的趋势是要在所有层面上取代人类,而非只是用机器能源和力量取代人类的能源和力量。很显然,这种新的取代将对我们的生活产生深远影响。”维纳的这句谶语,在今天未必成为现实,但已经成为诸多文学和影视作品中的题材。《银翼杀手》《机械公敌》《西部世界》等电影以人工智能反抗和超越人类为题材,机器人向乞讨的人类施舍的画作登上《纽约客》杂志2017年10月23日的封面……人们越来越倾向于讨论人工智能究竟在何时会形成属于自己的意识,并超越人类,让人类沦为它们的奴仆。
一
维纳的激进言辞和今天普通人对人工智能的担心有夸张的成分,但人工智能技术的飞速发展的确给未来带来了一系列挑战。其中,人工智能发展最大的问题,不是技术上的瓶颈,而是人工智能与人类的关系问题,这催生了人工智能的伦理学和跨人类主义的伦理学问题。准确来说,这种伦理学已经与传统的伦理学旨趣发生了较大的偏移,其原因在于,人工智能的伦理学讨论的不再是人与人之间的关系,也不是与自然界的既定事实(如动物,生态)之间的关系,而是人类与自己所发明的一种产品构成的关联,由于这种特殊的产品――根据未来学家库兹威尔在《奇点临近》中的说法――一旦超过了某个奇点,就存在彻底压倒人类的可能性,在这种情况下,人与人之间的伦理是否还能约束人类与这个超越奇点的存在之间的关系?
实际上,对人工智能与人类之间伦理关系的研究,不能脱离对人工智能技术本身的讨论。在人工智能领域,从一开始,准确来说是依从着两种完全不同的路径来进行的。
首先,是真正意义上的人工智能的路径,1956年,在达特茅斯学院召开了一次特殊的研讨会,会议的组织者约翰・麦卡锡为这次会议起了一个特殊的名字:人工智能(简称AI)夏季研讨会。这是第一次在学术范围内使用“人工智能”的名称,而参与达特茅斯会议的麦卡锡和明斯基等人直接将这个名词作为一个新的研究方向的名称。实际上,麦卡锡和明斯基思考的是,如何将我们人类的各种感觉,包括视觉、听觉、触觉,甚至大脑的思考都变成称作“信息论之父”的香农意义上的信息,并加以控制和应用。这一阶段上的人工智能的发展,在很大程度上还是对人类行为的模拟,其理论基础来自德国哲学家莱布尼茨的设想,即将人类的各种感觉可以转化为量化的信息数据,也就是说,我们可以将人类的各种感觉经验和思维经验看成是一个复杂的形式符号系统,如果具有强大的信息采集能力和数据分析能力,就能完整地模拟出人类的感觉和思维。这也是为什么明斯基信心十足地宣称:“人的脑子不过是肉做的电脑。”麦卡锡和明斯基不仅成功地模拟出视觉和听觉经验,后来的特里・谢伊诺斯基和杰弗里・辛顿也根据对认知科学和脑科学的最新进展,发明了一个“NETtalk”的程序,模拟了类似于人的“神经元”的网络,让该网络可以像人的大脑一样进行学习,并能够做出简单的思考。
然而,在这个阶段中,所谓的人工智能在更大程度上都是在模拟人的感觉和思维,让一种更像人的思维机器能够诞生。著名的图灵测试,也是在是否能够像人一样思考的标准上进行的。图灵测试的原理很简单,让测试一方和被测试一方彼此分开,只用简单的对话来让处在测试一方的人判断,被测试方是人还是机器,如果有30%的人无法判断对方是人还是机器时,则代表通过了图灵测试。所以,图灵测试的目的,仍然在检验人工智能是否更像人类。但是,问题在于,机器思维在作出自己的判断时,是否需要人的思维这个中介?也就是说,机器是否需要先绕一个弯路,即将自己的思维装扮得像一个人类,再去作出判断?显然,对于人工智能来说,答案是否定的,因为如果人工智能是用来解决某些实际问题,它们根本不需要让自己经过人类思维这个中介,再去思考和解决问题。人类的思维具有一定的定势和短板,强制性地模拟人类大脑思维的方式,并不是人工智能发展的良好选择。
二
所以,人工智能的发展走向了另一个方向,即智能增强(简称IA)上。如果模拟真实的人的大脑和思维的方向不再重要,那么,人工智能是否能发展出一种纯粹机器的学习和思维方式?倘若机器能够思维,是否能以机器本身的方式来进行。这就出现了机器学习的概念。机器学习的概念,实际上已经成为发展出属于机器本身的学习方式,通过海量的信息和数据收集,让机器从这些信息中提出自己的抽象观念,例如,在给机器浏览了上万张猫的图片之后,让机器从这些图片信息中自己提炼出关于猫的概念。这个时候,很难说机器自己抽象出来的猫的概念,与人类自己理解的猫的概念之间是否存在着差别。不过,最关键的是,一旦机器提炼出属于自己的概念和观念之后,这些抽象的概念和观念将会成为机器自身的思考方式的基础,这些机器自己抽象出来的概念就会形成一种不依赖于人的思考模式网络。当我们讨论打败李世石的阿尔法狗时,我们已经看到了这种机器式思维的凌厉之处,这种机器学习的思维已经让通常意义上的围棋定势丧失了威力,从而让习惯于人类思维的棋手瞬间崩溃。一个不再像人一样思维的机器,或许对于人类来说,会带来更大的恐慌。毕竟,模拟人类大脑和思维的人工智能,尚具有一定的可控性,但基于机器思维的人工智能,我们显然不能作出上述简单的结论,因为,根据与人工智能对弈之后的棋手来说,甚至在多次复盘之后,他们仍然无法理解像阿尔法狗这样的人工智能如何走出下一步棋。
不过,说智能增强技术是对人类的取代,似乎也言之尚早,至少第一个提出“智能增强”的工程师恩格尔巴特并不这么认为。对于恩格尔巴特来说,麦卡锡和明斯基的方向旨在建立机器和人类的同质性,这种同质性思维模式的建立,反而与人类处于一种竞争关系之中,这就像《西部世界》中那些总是将自己当成人类的机器人一样,他们谋求与人类平起平坐的关系。智能增强技术的目的则完全不是这样,它更关心的是人与智能机器之间的互补性,如何利用智能机器来弥补人类思维上的不足。比如自动驾驶技术就是一种典型的智能增强技术,自动驾驶技术的实现,不仅是在汽车上安装了自动驾驶的程序,更关键地还需要采集大量的地图地貌信息,还需要自动驾驶的程序能够在影像资料上判断一些移动的偶然性因素,如突然穿过马路的人。自动驾驶技术能够取代容易疲劳和分心的驾驶员,让人类从繁重的驾驶任务中解放出来。同样,在分拣快递、在汽车工厂里自动组装的机器人也属于智能增强类性质的智能,它们不关心如何更像人类,而是关心如何用自己的方式来解决问题。
三
这样,由于智能增强技术带来了两种平面,一方面是人类思维的平面,另一方面是机器的平面,所以,两个平面之间也需要一个接口技术。接口技术让人与智能机器的沟通成为可能。当接口技术的主要开创者费尔森斯丁来到伯克利大学时,距离恩格尔巴特在那里讨论智能增强技术已经有10年之久。费尔森斯丁用犹太神话中的一个形象――土傀儡――来形容今天的接口技术下人与智能机器的关系,与其说今天的人工智能在奇点临近时,旨在超越和取代人类,不如说今天的人工智能技术越来越倾向于以人类为中心的傀儡学,在这种观念的指引下,今天的人工智能的发展目标并不是产生一种独立的意识,而是如何形成与人类交流的接口技术。在这个意义上,我们可以从费尔森斯丁的傀儡学角度来重新理解人工智能与人的关系的伦理学,也就是说,人类与智能机器的关系,既不是纯粹的利用关系,因为人工智能已经不再是机器或软件,也不是对人的取代,成为人类的主人,而是一种共生性的伙伴关系。当苹果公司开发与人类交流的智能软件Siri时,乔布斯就提出Siri是人类与机器合作的一个最朴实、最优雅的模型。以后,我们或许会看到,当一些国家逐渐陷入老龄化社会之后,无论是一线的生产,还是对这些因衰老而无法行动的老人的照料,或许都会面对这样的人与智能机器的接口技术问题,这是一种人与人工智能之间的新伦理学,他们将构成一种跨人类主义,或许,我们在这种景象中看到的不一定是伦理的灾难,而是一种新的希望。
(作者:蓝江,系南京大学哲学系教授)