“人工智能腔调”是创新还是滥用
随着人工智能技术驱动的自然语言处理工具ChatGPT的火热发展,这波浪潮已开始蔓延至教育领域。这个被网友称为“地球上最聪明的‘人’”,不仅能帮老师减负,还能帮学生写作业。国外一项调查显示,在1000多名学生中,有超过89%的人使用ChatGPT来帮助完成家庭作业。
北京青年报记者发现,国内高校也出现了类似情况,越来越多的学生开始用ChatGPT辅助完成课程作业及论文。有意思的是,在ChatGPT强大“代工”的影响下,传统人力代写这条灰色产业链受到了冲击,论文代写出现了降价潮……
体验
自建语料库生成“定制化”论文
“我觉得它跟我写得越来越像了。”北京体育大学新闻传播学院的研究生秦子说。
最近,秦子用ChatGPT完成了一篇综述和两篇小论文。
他的使用感受是,ChatGPT与其他AI写作工具不同,它可以通过学习大量的语言数据和模式来不断完善自己,从而基于用户的对话内容,不断自我学习和进化,并更新资料库,以便很好地完成个性化需求。
为了让ChatGPT更好地帮自己完成作业,秦子首先通过不停地“投喂”语料,使得ChatGPT逐渐了解他的语言习惯。
“我花了大概一个月时间才搭建好整个语料库。”秦子回忆,他在完成了语料采集、质量检查和清洗、语料上传和审核后,开始在ChatGPT上输入指令:“阅读下面两篇文章,××是××的修订版本。”最终,ChatGPT为秦子生成了完整的论文。
不仅是像秦子这样的文科生,软件工程、计算机等理工科专业的学生们在做课程作业时同样能够向ChatGPT借力,比如,可以直接用ChatGPT完成编程作业。
贵州大学软件工程专业的本科生小保,就借助ChatGPT完成过课程作业。以往,小保做编程作业时通常需要先寻找开源项目,然后再进行反复修改。但自从学会了使用ChatGPT,小保发现,竟然可以直接用它完成编程作业。
“在Django项目里面用python语言写一个搜索栏,请给我一个代码,我该放在哪并让它可以运行起来。”输入简单的指令,小保跟着ChatGPT的指示完成了一个抽奖网页制作的课题。
“ChatGPT回答得都很好,就像老师一样,一步一步地引导我,节约了很多时间和精力。”小保说。
缺点
存在情感缺位某些领域显不足
尽管ChatGPT的文本生成方面表现出色,但也并非全能“作业写手”。比如,天文图像处理专业的同学就发现,在这个细分的领域下,ChatGPT的数据库并不算十分充足,“用它来收集我们方向的文献就不那么好用,可能是因为我们这个专业要用的文献都是外文的,ChatGPT的数据库里面并没有这部分资料。”在理工科研究生小辉看来,在某些学科和领域,ChatGPT还显得有些捉襟见肘。
也有同学发现,在应对一些需要创造性地表达的场景时,ChatGPT的处理能力仍然有限。秦子在实习期间曾做过体育转播工作,在他看来,捕捉赛场中发生的一些突发情况或是动人的事件仍需要人来完成,仅用ChatGPT则会有些情感缺位。
北青报记者调查发现,无论如何,在完成日常作业,甚至是毕业论文时,不少大学生都已经开始尝试向ChatGPT借力。当然,写作业变得“省力”的同时,同学们也感受到了一些冲击。
小保还记得自己第一次使用ChatGPT写代码时的感受,有那么一瞬间他甚至感到前途一片黑暗,“ChatGPT太强大了!”他一度担心未来可能根本不再需要自己去敲代码。
影响
传统人力论文代写“灰产”降价
“代写8000字的论文要多少钱?”
“ChatGPT辅助代写200元,纯人力代写500元左右,最后的作品基本区别不出来,包查重。”
在某购物平台,北青报记者以顾客的身份进行了代写咨询。一位商家透露,正值毕业季,已经有很多学生下单,大家普遍会选择更加便宜的ChatGPT进行论文代写。
显然,在大学校园外,ChatGPT也已成为某些代写机构的新“神器”。在某些购物平台上,不少商家打出“超级AI写作”的广告,并在介绍文案中宣称ChatGPT可以轻松应对软文、广告语、诗歌、故事、论文、小说等各种写作需求。这些代写机构和个人利用ChatGPT等AI工具,以更快、更便宜的方式完成代写任务,从而获得更多的利润。
据了解,目前代写分“传统”人力代写和AI辅助代写两种操作模式。“传统”人力代写不存在AI参与合成,商家会安排专业对口的老师或学生完成代写,这种模式一般会根据客户要求的字数、交稿时间、题目难度及查重率等具体要求来定价,总体上说,价格在每千字70元到100元不等。
而在AI辅助代写模式中,不少商家声称购买了美国OpenAI账号,能够正常使用ChatGPT4.0。这一代写模式收费低至每千字10元左右。
此外,北青报记者还注意到,还有商家向客户销售“山寨”ChatGPT账号,方便客户自行使用,从而实现代写。这些产品提供了与ChatGPT类似的语言聊天功能,同样支持AI辅助写作。
AI代写商家阿阳(化名)声称,最近,他的店铺里每天咨询AI代写的人有近10人,最后下单的能占到半数。在他看来,相比人力代写,ChatGPT等AI代写价格低廉的原因无外乎三点:操作便捷、专业性强、效率高。
阿阳介绍,如果让ChatGPT4.0写一篇学术论文,要输入的指令非常简单。只需输入论文各个组成部分的具体要求。比如,摘要、关键词、绪论、研究背景、章节标题、致谢等结构信息,再请ChatGPT4.0根据这个题目写一篇论文就可以。有时,如果没有确定下题目或章节,仅给出一个宽泛的主题,ChatGPT4.0也能完成代写。
除此之外,阿阳认为,如果只论学术性和专业性,其实ChatGPT4.0比很多人类写手要强很多,“它在专业领域上的数据非常好,只是可能在某些小众领域的数据会少一些,但即便如此,它仍然能写出论文。”阿阳说。
不过,与人类写手相比,ChatGPT4.0更胜在效率。阿阳表示,一篇8000字的论文,如果交给人类写手,最快也需要花上几天的时间,但同样的工作量如果让ChatGPT4.0来操作,20分钟左右就可以搞定。
对于ChatGPT等AI技术在学术领域的渗透,以及对代写这个灰色产业的影响,阿阳也提出了自己的看法:“最终要看人是出于什么目的去用它,有人只是用作参考,有人用它就是为了代写。技术更迭从来不以人的意志为转移,我们能做的只有不断提升自己,让自己变得比它更强大。”
现象
部分高校禁限AI代写
北青报记者了解到,目前,国内外已有部分高校发布了禁止或限制ChatGPT使用的相关规定。
香港大学曾向全体师生发出通告称,要求校内全面禁止使用ChatGPT或其他AI工具上课、做作业或考试。如果必须要使用,需事先获得相关课程导师的书面许可,否则将被视为“潜在抄袭”行为。如果教师怀疑学生使用了ChatGPT,可要求学生讨论有关论文或作品,设额外的补充口试、新增课堂考试等。
另外,一些期刊和出版机构也对人工智能写作工具的使用提出了相应要求。
《暨南学报(哲学社会科学版)》明确表示将暂不接受任何大型语言模型工具(例如,ChatGPT)单独或联合署名的文章。《天津师范大学学报(基础教育版)》也发布了相关声明,建议作者在参考文献、致谢等文字中对使用人工智能写作工具(例如,ChatGPT等)的情况予以说明。
观点
善于利用有利提升学生综合能力
ChatGPT正被广泛地运用于学术论文写作中,这一现实情况同样引起了一些高校教师的关注和思考。
南京大学历史系教授王涛认为,老师能否察觉学生提交的作业是不是用ChatGPT完成的,也跟学生使用ChatGPT的水平有直接关系。如果老师比较关注人工智能,对于生成式人工智能工具有直观的了解,可能会对其文本风格有一定的判断。特别是当作业涉及“创新性”的主题时,如果学生大量依靠ChatGPT,会很容易被看出文本的“人工智能腔调”。
北京体育大学教师梁骏同样认为,要辨别学生是否使用ChatGPT完成作业存在一定的难度,“为了避免学生滥用ChatGPT,老师能做的恐怕只有从源头上打消同学们想用ChatGPT完成作业的念头,可以鼓励他们通过GPT去梳理框架,或者找参考文献,从而节约时间,但最终的核心内容还是要靠同学们自己去完成。”
针对近来国内高校有部分学生开始用ChatGPT找答案、写编程、做文献梳理的情况,王涛教授认为,用ChatGPT进行自主学习,是一个好现象,“我看到有国外的教授将学生用它写作业视为洪水猛兽,其实没有必要那么紧张。如果学生善于运用ChatGPT的话,其实有利于提升学生的综合能力、提高作业质量,也会督促教授反思自己的教学方法和内容。”
对于有学生用ChatGPT辅助写作业甚至是完全代写,中国教育科学研究院研究员储朝晖在接受北青报记者采访时表示,“ChatGPT本身没有诚信,只有使用它的人才存在诚信问题。”
储朝晖认为,人类需要保留自主性和自觉意识,不要用工具“奴役”自己。无论未来技术发展到什么程度,人类都需要坚守以人为本的原则,以人为本地使用工具。
储朝晖还提到,老师需要更细致地检验学生是否使用了ChatGPT进行抄袭:“它输出的内容缺乏个性化的回答,很多是普遍化、标准化的回应。老师可以从这方面判断、评估学生的学习成果。”(记者王婧懿张知依实习生代紫庭)
讨论
让技术生长?
还是一禁了之?
对于ChatGPT等提高效能的工具是否该被禁用,储朝晖认为:“不能一禁了之,但要以人为本地使用。未来,提升数字素养,培养批判性思维,重构知识及课程体系对师生来说尤为重要。”
对于高校是否应该禁止师生使用ChatGPT,北京体育大学教师梁骏老师的观点也是“不能一刀切”。因为不同的人可能有不同的需求,例如,教师把ChatGPT用于备课,能够省时省力地提高他们的工作效率。因此,梁骏表示,不宜过早地将ChatGPT“扼杀”在摇篮之中,而是应该给技术一定的生长空间,“与其一禁了之,不如对其使用做出规范化处理。”
贵州大学传媒学院的一位教师还提到,对于学生而言,滥用ChatGPT最大的弊端恐怕是会使学生对于信息的准确性和真实性不再敏感,“因为ChatGPT是基于大规模文本训练出来的,并不能进行事实核实,学生在使用时往往会忽视这一点。”
该教师还认为,由于这项技术输出的内容本身就存在版权问题,且其提供的学术内容缺乏规范的引用和标注,因此,学生直接使用它完成作业,存在着严重的学术不端风险。
毋庸置疑,ChatGPT等人工智能技术确实能为师生带来很多便利和创新。储朝晖介绍,比如,根据学生的学习情况和兴趣,为学生提供个性化的学习内容,在教学上,ChatGPT可以作为一个辅助工具,对学生学习数据进行分析和预测、评估,并为老师提供反馈与建议。
然而,在某些教学领域,ChatGPT仍可能很难找到“用武之地”。因为这项技术目前主要是在信息传递和加工方面有着突出的表现力,而涉及情感、态度、价值等方面的教学则需要更加人性化和个性化的回应,ChatGPT很难做到这一点。因此,从这个角度讲,目前ChatGPT只能作为一个辅助工具,不能完全替代人的作用。
最后,储朝晖还指出,随着信息技术的发展,ChatGPT带来的问题和效益是同时增长的,因此人类需要用更高的智慧来应对这些问题,“人类需要保持开放的心态,不断学习和探索,以便应对未来的挑战。”
人工智能伦理问题的现状分析与对策
中国网/中国发展门户网讯 人工智能(AI)是第四次产业革命中的核心技术,得到了世界的高度重视。我国也围绕人工智能技术制定了一系列的发展规划和战略,大力推动了我国人工智能领域的发展。然而,人工智能技术在为经济发展与社会进步带来重大发展机遇的同时,也为伦理规范和社会法治带来了深刻挑战。2017年,国务院印发的《新一代人工智能发展规划》提出“分三步走”的战略目标,掀起了人工智能新热潮,并明确提出要“加强人工智能相关法律、伦理和社会问题研究,建立保障人工智能健康发展的法律法规和伦理道德框架”。2018年,习近平总书记在主持中共中央政治局就人工智能发展现状和趋势举行的集体学习时强调,要加强人工智能发展的潜在风险研判和防范,维护人民利益和国家安全,确保人工智能安全、可靠、可控。要整合多学科力量,加强人工智能相关法律、伦理、社会问题研究,建立健全保障人工智能健康发展的法律法规、制度体系、伦理道德。2019年,我国新一代人工智能发展规划推进办公室专门成立了新一代人工智能治理专业委员会,全面负责开展人工智能治理方面政策体系、法律法规和伦理规范研究和工作推进。《中华人民共和国国民经济和社会发展第十四个五年规划和2035年远景目标纲要》中专门强调要“探索建立无人驾驶、在线医疗、金融科技、智能配送等监管框架,完善相关法律法规和伦理审查规则”。这些均体现了我国对人工智能伦理及其治理的密切关注程度和积极推进决心,同时也突出了这一问题的重要性。
当前人工智能伦理问题
伦理是处理人与人之间关系、人与社会之间关系的道理和秩序规范。人类历史上,重大的科技发展往往带来生产力、生产关系及上层建筑的显著变化,成为划分时代的一项重要标准,也带来对社会伦理的深刻反思。人类社会于20世纪中后期进入信息时代后,信息技术伦理逐渐引起了广泛关注和研究,包括个人信息泄露、信息鸿沟、信息茧房、新型权力结构规制不足等。信息技术的高速变革发展,使得人类社会迅速迈向智能时代,其突出表现在带有认知、预测和决策功能的人工智能算法被日益广泛地应用在社会各个场景之中;前沿信息技术的综合运用,正逐渐发展形成一个万物可互联、万物可计算的新型硬件和数据资源网络,能够提供海量多源异构数据供人工智能算法分析处理;人工智能算法可直接控制物理设备,亦可为个人决策、群体决策乃至国家决策提供辅助支撑;人工智能可以运用于智慧家居、智慧交通、智慧医疗、智慧工厂、智慧农业、智慧金融等众多场景,还可能被用于武器和军事之中。然而,迈向智能时代的过程如此迅速,使得我们在传统的信息技术伦理秩序尚未建立完成的情况下,又迫切需要应对更加富有挑战性的人工智能伦理问题,积极构建智能社会的秩序。
计算机伦理学创始人 Moore将伦理智能体分为4类:伦理影响智能体(对社会和环境产生伦理影响);隐式伦理智能体(通过特定软硬件内置安全等隐含的伦理设计);显示伦理智能体(能根据情势的变化及其对伦理规范的理解采取合理行动);完全伦理智能体(像人一样具有自由意志并能对各种情况做出伦理决策)。当前人工智能发展尚处在弱人工智能阶段,但也对社会和环境产生了一定的伦理影响。人们正在探索为人工智能内置伦理规则,以及通过伦理推理等使人工智能技术的实现中也包含有对伦理规则的理解。近年来,越来越多的人呼吁要赋予人工智能机器一定的道德主体地位,但机器能否成为完全伦理智能体存在巨大的争议。尽管当前人工智能在一些场景下的功能或行为与人类接近,但实则并不具有“自由意志”。从经典社会规范理论来看,是否能够成为规范意义上的“主体”来承担责任,并不取决于其功能,而是以“自由意志”为核心来构建的。黑格尔的《法哲学原理》即以自由意志为起点展开。因此,当前阶段对人工智能伦理问题的分析和解决路径构建应主要围绕着前3类伦理智能体开展,即将人工智能定性为工具而非主体。
当前阶段,人工智能既承继了之前信息技术的伦理问题,又因为深度学习等一些人工智能算法的不透明性、难解释性、自适应性、运用广泛等特征而具有新的特点,可能在基本人权、社会秩序、国家安全等诸多方面带来一系列伦理风险。例如:人工智能系统的缺陷和价值设定问题可能带来公民生命权、健康权的威胁。2018年,Uber自动驾驶汽车在美国亚利桑那州发生的致命事故并非传感器出现故障,而是由于 Uber在设计系统时出于对乘客舒适度的考虑,对人工智能算法识别为树叶、塑料袋之类的障碍物做出予以忽略的决定。人工智能算法在目标示范、算法歧视、训练数据中的偏失可能带来或扩大社会中的歧视,侵害公民的平等权。人工智能的滥用可能威胁公民隐私权、个人信息权。深度学习等复杂的人工智能算法会导致算法黑箱问题,使决策不透明或难以解释,从而影响公民知情权、程序正当及公民监督权。信息精准推送、自动化假新闻撰写和智能化定向传播、深度伪造等人工智能技术的滥用和误用可能导致信息茧房、虚假信息泛滥等问题,以及可能影响人们对重要新闻的获取和对公共议题的民主参与度;虚假新闻的精准推送还可能加大影响人们对事实的认识和观点,进而可能煽动民意、操纵商业市场和影响政治及国家政策。剑桥分析公司利用 Facebook上的数据对用户进行政治偏好分析,并据此进行定向信息推送来影响美国大选,这就是典型实例。人工智能算法可能在更不易于被察觉和证明的情况下,利用算法歧视,或通过算法合谋形成横向垄断协议或轴辐协议等方式,破坏市场竞争环境。算法决策在社会各领域的运用可能引起权力结构的变化,算法凭借其可以处理海量数据的技术优势和无所不在的信息系统中的嵌入优势,对人们的权益和自由产生显著影响。例如,银行信贷中通过算法进行信用评价将影响公民是否能获得贷款,刑事司法中通过算法进行社会危害性评估将影响是否进行审前羁押等,都是突出的体现。人工智能在工作场景中的滥用可能影响劳动者权益,并且人工智能对劳动者的替代可能引发大规模结构性失业的危机,带来劳动权或就业机会方面的风险。由于人工智能在社会生产生活的各个环节日益广泛应用,人工智能系统的漏洞、设计缺陷等安全风险,可能引发个人信息等数据泄露、工业生产线停止、交通瘫痪等社会问题,威胁金融安全、社会安全和国家安全等。人工智能武器的滥用可能在世界范围内加剧不平等,威胁人类生命与世界和平……
人工智能伦理风险治理具有复杂性,尚未形成完善的理论架构和治理体系。人工智能伦理风险的成因具有多元性,包括人工智能算法的目标失范、算法及系统缺陷、受影响主体对人工智能的信任危机、监管机制和工具欠缺、责任机制不完善、受影响主体的防御措施薄弱等。人工智能技术和产业应用的飞速发展,难以充分刻画和分析其伦理风险及提供解决方案。这要求我们必须克服传统规范体系的滞后性,而采用“面向未来”的眼光和方法论,对人工智能的设计、研发、应用和使用中的规范框架进行积极思考和构建,并从确立伦理准则等软法开始,引领和规范人工智能研发应用。
关于人工智能的发展,我们既不能盲目乐观,也不能因噎废食,要深刻认识到它可以增加社会福祉的能力。因此,在人类社会步入智能时代之际,必须趁早从宏观上引导人工智能沿着科学的道路前行,对它进行伦理反思,识别其中的伦理风险及其成因,逐步构建科学有效的治理体系,使其更好地发挥积极价值。
人工智能伦理准则、治理原则及进路
当前全球人工智能治理还处于初期探索阶段,正从形成人工智能伦理准则的基本共识出发,向可信评估、操作指南、行业标准、政策法规等落地实践逐步深入,并在加快构建人工智能国际治理框架体系。
伦理准则
近几年来,众多国家、地区、国际和国内组织、企业均纷纷发布了人工智能伦理准则或研究报告。据不完全统计,相关人工智能伦理准则已经超过40项。除文化、地区、领域等因素引起的差异之外,可以看到目前的人工智能伦理准则已形成了一定的社会共识。
近年来,中国相关机构和行业组织也非常积极活跃参与其中。例如:2018年1月,中国电子技术标准化研究院发布了《人工智能标准化白皮书(2018版)》,提出人类利益原则和责任原则作为人工智能伦理的两个基本原则;2019年5月,《人工智能北京共识》发布,针对人工智能的研发、使用、治理 3 个方面,提出了各个参与方应该遵循的有益于人类命运共同体构建和社会发展的15条原则;2019年6月,国家新一代人工智能治理专业委员会发布《新一代人工智能治理原则——发展负责任的人工智能》,提出了人工智能发展的8项原则,勾勒出了人工智能治理的框架和行动指南;2019年7月,上海市人工智能产业安全专家咨询委员会发布了《人工智能安全发展上海倡议》;2021年9月,中关村论坛上发布由国家新一代人工智能治理专业委员会制定的《新一代人工智能伦理规范》等。从发布内容上看,所有准则在以人为本、促进创新、保障安全、保护隐私、明晰责任等价值观上取得了高度共识,但仍有待继续加深理论研究和论证,进一步建立共识。
治理原则
美国、欧洲、日本等国家和地区在大力推动人工智能技术和产业发展的同时,高度重视人工智能的安全、健康发展,并将伦理治理纳入其人工智能战略,体现了发展与伦理安全并重的基本原则。
习近平总书记高度重视科技创新领域的法治建设问题,强调“要积极推进国家安全、科技创新、公共卫生、生物安全、生态文明、防范风险、涉外法治等重要领域立法以良法善治保障新业态新模式健康发展”。近年来,我国在应对新技术新业态的规制和监管方面,形成了“包容审慎”的总体政策。这项基本政策在2017年就已正式提出。在2020年1月1日起实施的《优化营商环境条例》第55条中更是专门规定了“包容审慎”监管原则:“政府及其有关部门应当按照鼓励创新的原则,对新技术、新产业、新业态、新模式等实行包容审慎监管,针对其性质、特点分类制定和实行相应的监管规则和标准,留足发展空间,同时确保质量和安全,不得简单化予以禁止或者不予监管。”这为当前人工智能伦理治理提供了基本原则和方法论。一方面,要注重观察,认识到新技术新事物往往有其积极的社会意义,亦有其发展完善的客观规律,应予以一定空间使其能够发展完善,并在其发展中的必要之处形成规制方法和措施。另一方面,要坚守底线,包括公民权利保护的底线、安全的底线等。对于已经形成高度社会共识、凝结在法律之中的重要权益、价值,在执法、司法过程中都要依法进行保护。这既是法律对相关技术研发者和使用者的明确要求,也是法律对于在智能时代保护公民权益、促进科技向善的郑重承诺。
治理进路
在人工智能治理整体路径选择方面,主要有两种理论:“对立论”和“系统论”。
“对立论”主要着眼于人工智能技术与人类权利和福祉之间的对立冲突,进而建立相应的审查和规制制度。在这一视角下,一些国家和机构重点关注了针对人工智能系统本身及开发应用中的一些伦理原则。例如,2020年《人工智能伦理罗马倡议》中提出7项主要原则——透明、包容、责任、公正、可靠、安全和隐私,欧盟委员会于2019年《可信赖人工智能的伦理指南》中提出人工智能系统全生命周期应遵守合法性、合伦理性和稳健性3项要求,都体现了这一进路。
“系统论”则强调人工智能技术与人类、其他人工代理、法律、非智能基础设施和社会规范之间的协调互动关系。人工智能伦理涉及一种社会技术系统,该系统在设计时必须注意其不是一项孤立的技术对象,而是需要考虑它将要在怎样的社会组织中运作。我们可以调整的不仅仅是人工智能系统,还有在系统中与之相互作用的其他要素;在了解人工智能运作特点的基础上,可以在整个系统内考虑各个要素如何进行最佳调配治理。当前在一些政策和法规中已有一定“系统论”进路的体现。例如,IEEE(电气与电子工程师协会)发布的《合伦理设计》11中提出的8项原则之一即为“资质”(competence),该原则提出系统创建者应明确对操作者的要求,并且操作者应遵守安全有效操作所需的知识和技能的原则,这体现了从对使用者要求的角度来弥补人工智能不足的系统论视角,对智能时代的教育和培训提出了新需求。我国国家新一代人工智能治理专业委员会2019年发布的《新一代人工智能治理原则——发展负责任的人工智能》中,不仅强调了人工智能系统本身应该符合怎样的伦理原则,而且从更系统的角度提出了“治理原则”,即人工智能发展相关各方应遵循的8项原则;除了和谐友好、尊重隐私、安全可控等侧重于人工智能开放和应用的原则外,还专门强调了要“改善管理方式”,“加强人工智能教育及科普,提升弱势群体适应性,努力消除数字鸿沟”,“推动国际组织、政府部门、科研机构、教育机构、企业、社会组织、公众在人工智能发展与治理中的协调互动”等重要原则,体现出包含教育改革、伦理规范、技术支撑、法律规制、国际合作等多维度治理的“系统论”思维和多元共治的思想,提供了更加综合的人工智能治理框架和行动指南。基于人工智能治理的特殊性和复杂性,我国应在习近平总书记提出的“打造共建共治共享的社会治理格局”的指导下,系统性地思考人工智能的治理维度,建设多元共治的人工智能综合治理体系。
我国人工智能伦理治理对策
人工智能伦理治理是社会治理的重要组成部分。我国应在“共建共治共享”治理理论的指导下,以“包容审慎”为监管原则,以“系统论”为治理进路,逐渐建设形成多元主体参与、多维度、综合性的治理体系。
教育改革
教育是人类知识代际传递和能力培养的重要途径。通过国务院、教育部出台的多项措施,以及联合国教科文组织发布的《教育中的人工智能:可持续发展的机遇与挑战》、《人工智能与教育的北京共识》13等报告可以看到,国内外均开始重视教育的发展改革在人工智能技术发展和应用中有着不可或缺的作用。为更好地支撑人工智能发展和治理,应从4个方面进行完善:普及人工智能等前沿技术知识,提高公众认知,使公众理性对待人工智能;在科技工作者中加强人工智能伦理教育和职业伦理培训;为劳动者提供持续的终身教育体系,应对人工智能可能引发的失业问题;研究青少年教育变革,打破工业化时代传承下来的知识化教育的局限性,回应人工智能时代对人才的需求。
伦理规范
我国《新一代人工智能发展规划》中提到,“开展人工智能行为科学和伦理等问题研究,建立伦理道德多层次判断结构及人机协作的伦理框架”。同时,还需制定人工智能产品研发设计人员及日后使用人员的道德规范和行为守则,从源头到下游进行约束和引导。当前有5项重点工作可以开展:针对人工智能的重点领域,研究细化的伦理准则,形成具有可操作性的规范和建议。在宣传教育层面进行适当引导,进一步推动人工智能伦理共识的形成。推动科研机构和企业对人工智能伦理风险的认知和实践。充分发挥国家层面伦理委员会的作用,通过制定国家层面的人工智能伦理准则和推进计划,定期针对新业态、新应用评估伦理风险,以及定期评选人工智能行业最佳实践等多种方式,促进先进伦理风险评估控制经验的推广。推动人工智能科研院所和企业建立伦理委员会,领导人工智能伦理风险评估、监控和实时应对,使人工智能伦理考量贯穿在人工智能设计、研发和应用的全流程之中。
技术支撑
通过改进技术而降低伦理风险,是人工智能伦理治理的重要维度。当前,在科研、市场、法律等驱动下,许多科研机构和企业均开展了联邦学习、隐私计算等活动,以更好地保护个人隐私的技术研发;同时,对加强安全性、可解释性、公平性的人工智能算法,以及数据集异常检测、训练样本评估等技术研究,也提出了很多不同领域的伦理智能体的模型结构。当然,还应完善专利制度,明确算法相关发明的可专利性,进一步激励技术创新,以支撑符合伦理要求的人工智能系统设计。
此外,一些重点领域的推荐性标准制定工作也不容忽视。在人工智能标准制定中,应强化对人工智能伦理准则的贯彻和支撑,注重对隐私保护、安全性、可用性、可解释性、可追溯性、可问责性、评估和监管支撑技术等方面的标准制定,鼓励企业提出和公布自己的企业标准,并积极参与相关国际标准的建立,促进我国相关专利技术纳入国际标准,帮助我国在国际人工智能伦理准则及相关标准制定中提升话语权,并为我国企业在国际竞争中奠定更好的竞争优势。
法律规制
法律规制层面需要逐步发展数字人权、明晰责任分配、建立监管体系、实现法治与技术治理有机结合。在当前阶段,应积极推动《个人信息保护法》《数据安全法》的有效实施,开展自动驾驶领域的立法工作;并对重点领域的算法监管制度加强研究,区分不同的场景,探讨人工智能伦理风险评估、算法审计、数据集缺陷检测、算法认证等措施适用的必要性和前提条件,为下一步的立法做好理论和制度建议准备。
国际合作
当前,人类社会正步入智能时代,世界范围内人工智能领域的规则秩序正处于形成期。欧盟聚焦于人工智能价值观进行了许多研究,期望通过立法等方式,将欧洲的人权传统转化为其在人工智能发展中的新优势。美国对人工智能标准也尤为重视,特朗普于2019年2月发布“美国人工智能计划”行政令,要求白宫科技政策办公室(OSTP)和美国国家标准与技术研究院(NIST)等政府机构制定标准,指导开发可靠、稳健、可信、安全、简洁和可协作的人工智能系统,并呼吁主导国际人工智能标准的制定。
我国在人工智能科技领域处于世界前列,需要更加积极主动地应对人工智能伦理问题带来的挑战,在人工智能发展中承担相应的伦理责任;积极开展国际交流,参与相关国际管理政策及标准的制定,把握科技发展话语权;在最具代表性和突破性的科技力量中占据发展的制高点,为实现人工智能的全球治理作出积极贡献。
(作者:张兆翔、谭铁牛,中国科学院自动化研究所;张吉豫中国人民大学法学院;《中国科学院院刊》供稿)
强化人工智能安全治理(新论)
作为新一轮科技革命和产业变革的重要驱动力量,人工智能技术发展与应用拓展正在按下“快进键”。今年11月,习近平总书记主持召开的中央政治局会议强调,加快提升生物安全、网络安全、数据安全、人工智能安全等领域的治理能力。这为推动人工智能健康发展提供了重要指引。
在人机协同、跨界融合、共创分享的智能时代,人工智能的应用场景愈发广泛。人工智能为经济社会发展注入活力的同时,也给人类生活带来了新的风险挑战,比如对个人隐私权、知情权、选择权的侵犯,以及窃取、篡改、泄露等非法收集利用个人信息的行为,等等。为此,迫切需要加快提升人工智能安全治理能力,加强人工智能相关法律、伦理、社会问题等研究,建立健全保障人工智能健康发展的法律法规与伦理体系。
加快提升人工智能安全治理能力,需要完善相关的法律法规及行业标准。人工智能的安全秩序包含算法安全、数据安全、伦理安全、国家安全等维度。2019年以来,中国先后发布《新一代人工智能治理原则――发展负责任的人工智能》《全球数据安全倡议》等文件,明确了人工智能治理框架和行动指南。今年9月发布的《新一代人工智能伦理规范》强调,将伦理道德融入人工智能全生命周期,促进公平、公正、和谐、安全,避免偏见、歧视、隐私和信息泄露等问题,为从事人工智能相关活动的自然人、法人和其他相关机构等提供了伦理指引。
加快提升人工智能安全治理能力,要引导社会公众正确认识人工智能。人工智能监管者要提高站位,加强宏观战略研究与风险防范;人工智能研发者要坚持正确价值导向,避免可能存在的数据与算法偏见,努力实现人工智能系统的普惠性、公平性和非歧视性;人工智能的技术提供者要明确告知义务,加强应急保障;人工智能产品的使用者,应当保证这一技术不被误用、滥用或恶用。要对各类伦理道德风险保持高度警惕,坚持以人为本,落实科技向善理念,弘扬社会主义核心价值观。
加强人工智能发展的潜在风险研判和防范,确保人工智能安全、可靠、可控,也是摆在世界各国面前的重要课题。在推动完善人工智能全球治理方面,中国是积极倡导者,也是率先践行者。2020年9月,中国发布《全球数据安全倡议》,明确提出秉持共商共建共享理念,齐心协力促进数据安全;今年5月,中国担任联合国安理会轮值主席期间,主持召开“新兴科技对国际和平与安全的影响”阿里亚模式会议,推动安理会首次聚焦人工智能等新兴科技问题,为国际社会探讨新兴科技全球治理问题提供了重要平台,体现了大国责任担当。
数字化浪潮扑面而来,信息化、数字化、智能化趋势不断演进。主动加强对人工智能的伦理与法律规范,才能更好适应人工智能快速发展的新变化、新要求,在法治轨道上推动人工智能向善发展、造福人类。
(作者为北京理工大学法学院教授)
《人民日报》(2021年12月30日05版)(责编:袁勃、赵欣悦)分享让更多人看到
生成式人工智能:构成犯罪滥用的风险
2023/5/2615:13生成式人工智能:构成犯罪滥用的风险千家网黑客对生成式人工智能(AI)的使用已成为对网络安全的新威胁。生成式人工智能允许黑客生成逼真且令人信服的虚假数据,例如图像、视频和文本,并将这些数据用于网络钓鱼诈骗、社会工程攻击和其他类型的网络攻击。
本文将对黑客使用的生成式人工智能进行全面的技术分析,包括其架构、操作和部署。
不同种类的生成式人工智能
生成式人工智能是机器学习(ML)的一个子集,其涉及训练模型以生成与原始训练数据相似的新数据。黑客可以使用各种类型的生成式人工智能模型,例如生成对抗网络(GAN)、变分自动编码器(VAE)和递归神经网络(RNN)。
生成对抗网络(GAN):GAN由两个神经网络组成:生成器和鉴别器。生成器生成假数据,鉴别器区分真假数据。生成器通过接收来自鉴别器的反馈来学习创建真实数据。黑客可以使用GAN来创建虚假图像、视频和文本。
变分自动编码器(VAE):VAE是另一种生成式人工智能模型,涉及将输入数据编码到低维空间,然后对其进行解码以生成新数据。VAE可用于生成新的图像、视频和文本。
递归神经网络(RNN):RNN是一种神经网络,可以生成新的数据序列,例如文本或音乐。黑客可以使用RNN生成虚假文本,例如网络钓鱼电子邮件。
生成式人工智能:风险
生成式人工智能模型通过学习原始训练数据中的模式和关系,然后生成与原始数据相似的新数据来运行。
黑客可以在图像、视频和文本等真实数据的大型数据集上训练这些模型,以生成令人信服的假数据。黑客还可以使用迁移学习来微调现有的生成式人工智能模型,以生成特定类型的虚假数据,例如特定人的图像或针对特定组织的虚假电子邮件。
迁移学习涉及采用预训练的生成式人工智能模型,并在较小的新数据集上对其进行微调。黑客可以使用一系列机器学习算法来生成令人信服的虚假数据。
更详细点,GAN可用于通过在真实图像和视频的数据集上训练生成器来生成逼真的图像和视频。VAE可用于生成新图像,方法是将它们编码到低维空间,然后将它们解码回原始空间。RNN可用于生成虚假文本,例如网络钓鱼电子邮件。
黑客可以在大型合法电子邮件数据集上训练RNN,然后对其进行微调以生成在语气和风格上与原始电子邮件相似的假电子邮件。这些虚假电子邮件可能包含恶意链接或附件,可以感染受害者的计算机或窃取敏感信息。
学术研究:用于恶意活动的生成式人工智能
几篇研究论文探讨了生成式人工智能在网络攻击中的应用。例如,一篇名为“使用对抗网络生成对抗样本”的论文探讨了如何使用GAN生成可以愚弄机器学习模型的对抗样本。对抗性示例是机器学习模型的输入,其被有意设计为导致模型出错。
另一篇名为“基于GAN为黑盒攻击生成对抗性恶意软件示例”的论文探讨了如何使用GAN生成可以逃避防病毒软件检测的对抗性恶意软件示例。该论文证明,GAN可用于生成恶意软件样本,这些样本可以绕过基于签名的检测方法,也可以逃避基于启发式的检测方法。
除了研究论文,还有一些可用的工具和框架可以让黑客使用生成式人工智能轻松生成虚假数据。例如,DeepFakes是一种允许用户通过交换现有视频中的人脸来创建逼真的假视频的工具。该工具可用于恶意目的,例如制作虚假视频来诽谤某人或传播虚假信息。
生成式人工智能:促进犯罪分子的工作
如今,黑客以各种方式使用生成式人工智能模型进行网络攻击。例如,黑客可以使用虚假图像和视频来创建令人信服的网络钓鱼电子邮件,这些电子邮件似乎来自合法来源,例如银行或其他金融机构。
犯罪分子还可以使用OpenAI或类似工具生成的假文本,来创建针对受害者的个性化的令人信服的网络钓鱼电子邮件。这些电子邮件可以使用社会工程策略来诱骗受害者点击恶意链接或提供敏感信息。
生成式人工智能中的黑客用例,包括:
网络钓鱼攻击:黑客可以使用生成式人工智能来创建令人信服的虚假数据,例如图像、视频和文本,以制作看似来自合法来源的网络钓鱼电子邮件。这些电子邮件可能包含链接或附件,这些链接或附件会在受害者的计算机上安装恶意软件或窃取他们的登录凭据。
社会工程攻击:生成式人工智能可用于创建看似真实的虚假社交媒体资料。黑客可以使用这些配置文件获得目标的信任,并诱使其提供敏感信息或点击恶意链接。
恶意软件开发:黑客可以使用生成式人工智能创建新的恶意软件,旨在逃避传统防病毒软件的检测。通过生成单个恶意软件样本的数千个变体,其可以创建难以检测的独特恶意软件版本。
密码破解:生成式人工智能可用于生成新的密码组合,以对受密码保护的系统进行暴力攻击。通过在现有密码和模式上训练人工智能模型,黑客可以生成很可能成功的新密码组合。
欺诈活动:黑客可以使用生成式人工智能来创建看似合法的虚假文件,例如发票和收据。其可以使用这些文件进行欺诈活动,例如账单欺诈或费用报销欺诈。
冒充攻击:生成式人工智能可用于创建可用于冒充他人的虚假录音或视频。这可用于诱骗受害者提供敏感信息或执行未经授权的操作。
降低生成性人工智能被网络犯罪分子滥用的风险
随着网络犯罪分子越来越多地使用生成人工智能来开展各种恶意活动,采取适当措施降低其滥用风险已变得至关重要。以下是为实现这一目标可以采取的一些措施:
实施强有力的安全措施:组织和个人应实施强有力的安全措施,以保护其系统和数据免受网络威胁。这包括使用多重身份验证、强密码以及定期更新软件和应用。
开发高级安全工具:研究人员和安全专家应继续开发高级安全工具,以检测和防止使用生成人工智能的网络攻击。这些工具应该能够识别和阻止使用人工智能模型生成的虚假数据的恶意流量。
提高认识和教育:重要的是要提高对生成人工智能滥用的潜在风险的认识和教育。这包括培训员工和个人如何识别和避免网络钓鱼攻击、社会工程策略和其他类型的网络威胁。
加强监管:政府和监管机构应加强围绕生成人工智能的使用的监管,以防止其被滥用。这包括制定数据隐私和安全标准,以及监控和强制合规性。
降低生成人工智能被网络犯罪分子滥用的风险需要个人、组织和政府的共同努力。通过实施强有力的安全措施、开发先进的安全工具、提高意识和教育以及加强监管,可以创造一个更安全、更有保障的数字世界。
总结
总之,生成式人工智能是一种强大的工具,可用于合法和恶意目的。虽然其在医学、艺术和娱乐等领域具有许多潜在应用,但也构成了重大的网络安全威胁。
黑客可以使用生成式人工智能创建令人信服的虚假数据,这些数据可用于执行网络钓鱼诈骗、社会工程攻击和其他类型的网络攻击。网络安全专业人员必须了解生成式人工智能的最新进展,并制定有效的对策来抵御此类攻击。
给作者点赞0VS0写得不太好生成式人工智能:构成犯罪滥用的风险
免责声明:本文仅代表作者个人观点,与C114通信网无关。其原创性以及文中陈述文字和内容未经本站证实,对本文以及其中全部或者部分内容、文字的真实性、完整性、及时性本站不作任何保证或承诺,请读者仅作参考,并请自行核实相关内容。