博舍

专家称人工智能对道德伦理问题提出重大挑战 人工智能伦理道德问题素材图片大全

专家称人工智能对道德伦理问题提出重大挑战

人工智能可高效开展实际任务,如给照片贴标签、理解口头和书面自然语言、甚至帮助确诊等。

新浪科技讯北京时间3月21日消息,据国外媒体报道,人工智能如今无处不在。从决定购买哪本书、订哪一班航班,到申请工作、获取银行贷款,我们生活的各个方面都与人工智能有着或多或少的联系。

如今,这类事情主要由复杂的软件系统做决定。人工智能在过去几年中取得了巨大进展,有望从许多方面改善我们的生活。

几年来,人工智能的崛起已成了必然趋势。人工智能初创公司收到了大笔投资。许多现有的科技公司,如亚马逊、Facebook和微软等巨头,都已创建了研究实验室。可以毫不夸张地说,软件如今就代表着“人工智能”。

有些人预言,人工智能将掀起一场比因特网更加猛烈的变革。而至于机器带来的迅速变化将对人类产生怎样的影响,几乎所有科技人员都将道德伦理视为关注重点。

对于谷歌研究带头人和机器学习的领军人物皮特·诺维格(PeterNorvig)而言,虽然由数据驱动的人工智能技术近期取得了一系列成功,但关键问题在于,我们必须弄清如何使这些新系统造福整个社会,而不仅是该系统的控制者。“人工智能可高效开展实际任务,如给照片贴标签、理解口头和书面自然语言、甚至帮助确诊等。”他指出,“而我们必须确保所有人都能从中受益。”

最大的问题在于,这些软件往往极为复杂,无法参透人工智能系统采取某一行动的原因。如今的人工智能以机器学习技术为基础,导致我们无法透过表面、看个究竟。因此我们只能姑且信任它们。但我们必须找出新方法,有效监控和审查人工智能参与的系统。

哈佛法学院网络法教授乔纳森·齐特林(JonathanZittrain)认为,随着计算机系统日趋复杂,人们或许将难以对人工智能系统进行密切监视。“随着我们的计算机系统越来越复杂、联系越来越紧密,人类的自主控制权也不断减少,这使我很担心。”他表示,“如果我们‘放手不管,忘到脑后”,不考虑道德伦理问题,计算机系统的演化或许会令我们懊悔不已。”

其他人也表达了同样的忧虑。“我们如何判断这些系统是否安全呢?”美国杜克大学人类与自主实验室主管米西·康明斯(MissyCummings)指出。她曾是美国海军首批战斗机飞行员之一,如今是一名无人机专家。

人工智能需要受到监视,但具体做法尚不清楚。“目前我们还未就监视方法达成统一意见,”康明斯表示,“在缺乏系统测试的行业标准的情况下,这些技术很难得到大规模应用。”

随着人工智能的发展,机器人可以胜任更加复杂的工作。例如,日本的一家商店采用了机器人“导购”。

但当今世界日新月异,监管机构往往落后一步。在刑事司法系统和医疗保健等重要领域,许多公司已经开始探索人工智能在假释和诊断等问题上的决策能力。但如果将决策权交予机器,我们就面临着失控的风险——这些系统真能在每起案例中做出正确的判断吗?

微软研发部门的主要研究员丹娜·博伊德(DanahBoyd)称,我们必须严肃考虑此类系统附含的价值,还要确定最终担责方。“监管机构、公民社会和社会理论学家都强力要求这些技术公平公正、符合道义,但这些理念仍然含糊不清。”

道德问题对就业影响颇深。随着人工智能的发展,机器人可以胜任更加复杂的工作,能够取代越来越多的人类工人。例如,中国富士康集团已经宣布将用机器人取代六万名工厂工人。福特汽车在德国科隆的工厂也启用了机器人,与人类工人并肩工作。

此外,如果不断提升的自动化水平对就业产生了重大冲击,便会影响人类心理健康。“人生的意义来自三个方面:有意义的人际关系,充满激情的兴趣爱好、以及有意义的工作。”美国前总统奥巴马医疗顾问、生物伦理学家伊齐基尔·伊曼努尔(EzekielEmanuel)指出,“有意义的工作是自我认同感的重要组成部分。”他还表示,在工厂倒闭率和员工失业率较高的地区,居民自杀、滥用药物和患抑郁症的概率也较高。

因此,社会需要更多的伦理学家。“公司当然会跟随市场潮流行事,这不是坏事,但我们不能指望他们负伦理责任。”麻省理工学院法律与伦理专家凯特·达尔林(KateDarling)指出,“我们应当将监管措施落实到位。每当有新技术出现,我们都会开展这一讨论,研究应对策略。”

许多工厂中,机器人已经开始与人类并肩工作。有些人认为这会使工人的心理健康受到影响。

达尔林指出,谷歌等许多知名公司已经成立了伦理委员会,监控人工智能技术的研发和部署。但这一做法还应进一步普及。“我们无意阻止创新,但眼下也许我们就该成立这样的机构。”

有关谷歌伦理委员会的成员和工作细节,我们还知之甚少。但去年九月,Facebook、谷歌和亚马逊达成合作,旨在为人工智能为安全和隐私造成的挑战提出解决方案。一家名为OpenAI的组织致力于研发和推广造福全民的开源人工智能系统。“机器学习必须得到广泛研究,并通过公开出版物和开源代码传播,这样我们才能实现福利共享。”谷歌研究员诺维格指出。

为制定行业与伦理标准、充分了解当前面临的风险,需要伦理学家、科技人员和企业领导人共同参与。这一问题涉及如何驾驭人工智能、使人类更加擅长自己最拿手的领域。“我们更应关注如何利用相应技术帮助人类思考和决策、而非将人类取而代之。”齐特林指出。

标签:人工智能道德伦理谷歌凯特·达尔林伦理学家

更多好物在等你新浪众测·免费送推荐阅读聚焦应用中心新浪公益新浪游戏新浪视频新浪科技带领皇室家族赢得胜利靠反应力还不如背赛道动脑筋喂小怪物吃饼干轻松延长手机续航时间练就梦寐以求的好身材帮助保持健康生活方式随心所欲打造完美效果银河系最全新番齐放送复杂世界里一个就够了进入机器梦境寻找真相疯狂逃离恐怖的压碎机冰锋暗影古色庙殿狂奔斗巫师夺回被偷的糖果屯兵练兵出征攻占堡垒伪装胖猪混敌营救伙伴国内最专业的手机地图帮你一起保护你的颈椎随时随地轻松订火车票沈阳遭遇六级重度雾霾2万大妈齐跳小苹果禁烟范冰冰传递社会正能量未富先老养老金吃紧益调查:慈善需立法么反虐待动物法制化呼声高涨如何看待广州拟奖拾金不昧环保部即将解决红顶中介明星婚礼上的“善”姿“百名春蕾之星”评选舞剧《画皮》关注孤独症女孩患尿毒症自筹药费互联网发展基金会成立林青霞为慈善参加节目全面实施城乡大病保险儿童安全座椅强制认证办养老院真的是机会么志愿者慰问抗战老兵战舰世界海神节礼包乱斗西游2新浪独家卡倩女幽魂2夏日特权卡功夫熊猫新手高级礼包新倩女幽魂新浪特权卡灵魂战神不删档测试码我是大主宰新浪荣耀卡大话西游2免费版礼包西楚霸王新浪荣耀礼包镇魔曲神兵觉醒尊享卡完美国际2一生有你卡新天龙八部新手特权卡问道经典十年至尊礼包大战神新浪独家礼包热血传奇新区独享礼包剑网3萌宠浪浪大礼包创世2封测激活码问道手游媒体礼包极限Girl美与野性结合让萌宠当一天司机亲千万不要手贱啊超级屌的视觉错觉运动地球上最美丽的天堂鸟新一代武林最萌小道士神奇的PS造钱术大开眼界的泡面新吃法让宝宝嘴馋的菠萝炒饭经典电影镜头神级剪辑亲手教你范爷经典妆容盘点全球最糟糕山寨品恶搞:当一骷髅在开车健身是把整容刀三分钟看尽十年成长和TFBOYS一起过暑假不用去医院的牙美白术一分钟识别面试潜台词Windows10升级秘籍净水器的水有多深?识趣毕业季户外特辑用户关注手机哪些功能有曰:国内外展会吐槽三十年经典Moto手机ChinaJoy2015大看点东芝虚增利润财务丑闻紫光集团收购美光科技诺基亚为未来电影造球全球APP开发创意大赛享说第四期主持人李晨猎豹靠近捕食熟睡疣猪非洲血腥动物标本加工相机拍泡腾片遇水冒泡冰岛令人窒息美景懒惰青蛙蜗牛背搭便车美摄影师拍奇怪毛毛虫

人工智能的道德拷问与对标:亟待制定规则建立监管

原标题人工智能的道德拷问与对标

来源 证券时报

作者张锐

鉴于美国、以色列、韩国、俄罗斯和英国等国都在发展智能机器人武器系统,微软公司总裁史密斯日前明确表示,“杀手机器人”的出现未来将无法避免,人类社会应该有一个新的“数字《日内瓦公约》”也就是一套道德标准来约束与引导人工智能(AI)的发展。

史密斯的判断并不是危言耸听,并且人工智能引发的道德问题也不仅仅存在于武器系统方面,而是辐射到了公众社交生活的各个层面,只不过由于对AI的变革与创新能量存在着猎奇心态与“晕轮效应”,人们往往忽视了AI道德的重要性。拿不久前世界人工智能大会上ZAO推出的“AI换脸App”为例,用户只需要一张正脸照,就可以替换为影视作品的人物,生成以自己为主角的视频片段,结果,这款App一夜之间火爆全网,在赢得用户尖叫的同时,支持App的服务器陷入瘫痪。可是,成功换脸赢得了片刻的刺激与兴奋之后,相信所有的用户都会因绑在自己身上的ZAO协议而惴惴不安。

根据ZAO的用户协议:用户上传发布内容后,意味着“同意或确保肖像权利人授予‘ZAO’及其关联公司全球范围内完全免费、不可撤销、永久、可转授权和可再许可的权利”,而且“侵权了明星肖像,若对方提告,最后责任都在用户”,就此,我们对用户提出以下问题:被换脸的明星如果提出诉讼,你是否还会镇定自如?如果有人就此制作虚假视频并栽赃于你,你是否会义愤填膺?你的人脸被用于刷脸支付,你是否会忐忑不安乃至惊慌失措?如果就这些问题得出了肯定性答案,相信每一个人都不会对AI道德问题熟视无睹。

其实,类似“换脸App”引起的AI道德拷问已经不计其数。不久前,DeepNude推出一款“一键脱衣”软件,用户只需在该程序上添加一张照片,App便可以自动“脱掉”女性身上的衣服。在这款软件中,女性无疑成为了最大受害者;还比如斯坦福大学运用AI算法,通过照片便可识别谁是同性恋,黑灰产能够通过AI技术伪造录制场景,保险公司利用脸书数据预测事故发生率就可拒绝用户投保等等,AI突破道德底线并且沦为作恶的工具已经超过了人们的想象,甚至用技术在狂奔,道德在退步来形容一点也不为过。

对于AI所触发的道德问题,目前形成的一种主流判断是,技术无罪但操控技术的人一定有过。按照墨菲定理,如果一件事情有可能出错,它就一定会出错。也就是说,如果做某项工作有多种方法,而其中有一种方法必然导致错误,那么一定有人会按这种方法去做。一项针对1010名英国科技工作者的研究发现,90%的人认为科技是一种正能量,但59%在人工智能领域工作的人表示,他们从事的项目可能对社会有害,18%的人因为伦理道德问题而辞职。对此,我们想强调的是,尽管AI违背或者践踏道德也只是少数技术操作者的行为,也就是墨菲定理所指的个别人犯错,但这种错误又极易被更多人所模仿,而且借助网络传播的力量无限放大,最终造成的社会危害程度也无法估量。

但是,如何平衡AI创新与AI道德的确又是一个非常棘手的难题。对于人类社会而言,我们不仅无法抵挡AI的诱惑,而且需要更多的创新成果来提供贴近生产与生活的各种服务,这就需要企业不断地寻求突破,但是,如果套上更多的条条框框,又势必抑制与捆绑AI探索的脚步与空间。拿AI的基础数据为例,用户的身份、职业、年龄等以及阅读、购物等行为偏好,都是优化推荐算法的关键依据,科技公司获取的隐私数据越多,就越能让AI的服务更精确地贴合公众需求,同时利于商业主体精准发力。但如果注入了道德元素,数据的限制与缺失不仅会使AI的服务功能大打折扣,同时会面临着资本的反制与遗弃,也正是如此,几乎没有哪一家科技公司希望自己在获取用户数据方面受到约束。虽如此,我们还是要强调,任何创新的闸门并不是不可以把控的,人类既然能够让机器变得非常智慧,同样也可让它行走在指定的路径与划定的边界之内,比如一件AI可在哪些场景下使用,以及使用越界时的自动纠正功能等,这样,无论机器具有怎样的学习天赋,我们都可以让它在决策时像人一样在感知是非善恶的前提下正确行事。

显然,基于创新与发展的需要,不能因为AI的局部不道德而对其实施简单而粗暴的管制,甚至一禁了之。同时,要引导AI变得有道德,首先须让科技公司变成道德主体。对于科技企业来说,科技向善应当成为其恪守与贯彻的道德底线,为人类创造福祉并驱动社会发生积极变革应当成为其存在与发展的最高圭臬。对此,所有的AI企业都有必要像微软成立人工智能伦理道德委员会那样,创建由工程师、科学家、律师和公司领导组成的监管机构,负责对每一款AI产品的道德伦理风险评估以及运行内外部审查和实施相应的改进机制,保证产品在开发过程中就有成色厚重的道德元素。

相比于企业对AI的自我审查而言,行业协会是把控人工智能的第一道外部道德关口。目前,除了世界电气电子工程师学会(IEEE)在《人工智能设计的伦理准则》中提出了人权、福祉、问责与透明的伦理标准外,亚马逊、微软、谷歌以及苹果等全球百余家科技巨头还创建了非营利性的人工智能合作组织PartnershiponAI,提出了公平、没有伤害、公开透明以及问责等伦理道德框架。各国各行业可以以此为参照建立自己的AI道德评价矩阵与评估流程。相对于企业自我道德评价,作为第三方的行业道德评价可以有效地克服前者在商业诉求与道德诉求上的角色冲突与结果倾斜,同时过滤企业道德评价中的不合理因素,确保AI伦理道德评估结论的公正与可信。值得强调的是,为了更广泛地反映社会不同群体对AI道德的基本诉求,行业道德监督机构应当最大程度地吸收更多利益相关者的加入。

当然,制定AI伦理道德准则也是各国政府义不容辞的职责,而且衡量一个国家人工智能水平的高低已经不仅仅只有技术指标,道德维度也成为了各国AI竞争的新高地。最新数据显示,美国人工智能企业数量2039家位列全球第一,中国(不含港澳台地区)有1040家,两国占到全球人工智能企业数的一半以上,同时全球36524位顶尖AI人才一半以上在中美。中国与美国在AI领域难分伯仲。而相比之下,欧盟感觉掉队不少,于是便从伦理角度切入,率先推出了涵盖人的能动性和监督能力、安全性、隐私数据管理、透明度、包容性、社会福祉以及问责机制等七项内容的AI伦理道德准则。相比于欧盟,虽然我国有《网络安全法》和《信息安全技术个人信息安全规范》,相关组织发布的《人工智能北京共识》,但在AI的道德界限以及道德标准细化方面仍有待提炼与加工,对此,完全有必要通过“头脑风暴法”的形式邀请社会各界人士参与到人工智能道德准则的补充和完善中来。

最后需要指出的是,目前的AI道德准则更多地是针对科技公司与开发者提出的要求,但AI的使用者同样不应该成为道德盲区。从ZAO的“AI换脸App”服务器被挤爆,到DeepNude“一键脱衣”软件遭到疯抢,足以说明使用者在购买产品时不仅不计成本,而且存在翻越道德门槛的强烈动机,如此种种不仅对开发者的失德之举构成有力声援,而且势必扭曲互联网社交的健康躯体。为此,有必要出台AI使用的道德与法律规则,并建立起可以监控的人工智能平台,对所有使用不道德AI产品的用户进行账号管制,以此倒逼科技公司调整与校准自己的研发行为,进而让AI道德演变成民众信任的基础。

(作者系中国市场学会理事、经济学教授)

中国关于加强人工智能伦理治理的立场文件

一、人工智能作为最具代表性的颠覆性技术,在给人类社会带来潜在巨大发展红利的同时,其不确定性可能带来许多全球性挑战,甚至引发根本性的伦理关切。在伦理层面,国际社会普遍担心如不加以规范,人工智能技术的误用滥用恐将损害人的尊严和平等、侵犯人权和基本自由、加剧歧视和偏见、冲击现有法律体系等,并对各国政府管理、国防建设、社会稳定其至全球治理产生深远影响。

中国始终致力于在人工智能领域构建人类命运共同体,积极倡导“以人为本”和“智能向善”理念,主张增进各国对人工智能伦理问题的理解,确保人工智能安全、可靠、可控,更好赋能全球可持续发展,增进全人类共同福祉。为实现这一目标,中国呼吁各方秉持共商共建共享理念,推动国际人工智能伦理治理。

二、2021年12月,中国发布《关于规范人工智能军事应用的立场文件》,呼吁各方遵守国家或地区人工智能伦理道德准则。中国现结合自身在科技伦理领域的政策实践,参考国际社会相关有益成果,从人工智能技术监管、研发、使用及国际合作等方面提出以下主张:

(一)监管

各国政府应坚持伦理先行,建立并完善人工智能伦理准则、规范及问责机制,明确人工智能相关主体的职责和权力边界,充分尊重并保障各群体合法权益,及时回应国内和国际相关伦理关切。

各国政府应重视人工智能伦理与法律的基础理论问题研究,逐步建立并完善人工智能伦理规范、法律法规和政策体系,形成人工智能伦理指南,建立科技伦理审查和监管制度,加强人工智能安全评估和管控能力。

各国政府应增强底线思维和风险意识,加强研判人工智能技术的潜在伦理风险,逐步建立有效的风险预警机制,采取敏捷治理,分类分级管理,不断提升风险管控和处置能力。

各国政府应立足自身人工智能发展阶段及社会文化特点,遵循科技创新规律,逐步建立符合自身国情的人工智能伦理体系,健全多方参与、协同共治的人工智能伦理治理体制机制。

(二)研发

各国政府应要求研发主体加强对人工智能研发活动的自我约束,主动将伦理道德融入人工智能研发过程各环节,避免使用可能产生严重消极后果的不成熟技术,确保人工智能始终处于人类控制之下。

各国政府应要求研发主体努力确保人工智能研发过程的算法安全可控,在算法设计、实现、应用等环节,不断提升透明性、可解释性、可靠性,逐步实现可审核、可监督、可追溯、可预测、可信赖。

各国政府应要求研发主体努力提升人工智能研发过程的数据质量,在数据收集、存储、使用等环节,严格遵守所在国的数据安全规定、伦理道德及相关法律标准,提升数据的完整性、及时性、一致性、规范性和准确性等。

各国政府应要求研发主体加强对数据采集和算法开发伦理审查,充分考虑差异化诉求,避免可能存在的数据采集与算法偏见,努力实现人工智能系统的普惠性、公平性和非歧视性。

(三)使用

各国政府应禁止使用违背法律法规、伦理道德和标准规范的人工智能技术及相关应用,强化对已使用的人工智能产品与服务的质量监测和使用评估,研究制定应急机制和损失补偿措施。

各国政府应加强人工智能产品与服务使用前的论证和评估,推动人工智能伦理培训机制化,相关人员应充分了解人工智能技术的功能、特点、局限、潜在风险及后果,并具备必要的专业素质与技能。

各国政府应保障人工智能产品与服务使用中的个人隐私与数据安全,严格遵循国际或区域性规范处理个人信息,完善个人数据授权撤销机制,反对非法收集利用个人信息。

各国政府应重视公众人工智能伦理教育,保障公众知情权与有效参与,发挥科技相关社会团体作用,引导社会各界自觉遵守人工智能伦理准则与规范,提高人工智能伦理意识。

(四)国际合作

各国政府应鼓励在人工智能领域开展跨国家、跨领域、跨文化交流与协作,确保各国共享人工智能技术惠益,推动各国共同参与国际人工智能伦理重大议题探讨和规则制定,反对构建排他性集团、恶意阻挠他国技术发展的行为。

各国政府应加强对人工智能领域国际合作研究活动的伦理监管,相关科技活动应符合各方所在国家的人工智能伦理管理要求,并通过相应的人工智能伦理审查。

中国呼吁国际社会在普遍参与的基础上就人工智能伦理问题达成国际协议,在充分尊重各国人工智能治理原则和实践的前提下,推动形成具有广泛共识的国际人工智能治理框架和标准规范。

人工智能的道德代码与伦理嵌入

    人工智能和包括机器人在内的智能化自动系统的普遍应用,不仅仅是一场结果未知的开放性的科技创新,更将是人类文明史上影响甚为深远的社会伦理试验。诚如霍金所言,人工智能的短期影响由控制它的人决定,而长期影响则取决于人工智能是否完全为人所控制。

 

人工智能体的拟主体性与人工伦理智能体

 

    人工智能的伦理问题之所以受到前所未有的关注,关键原因在于其能实现某种可计算的感知、认知和行为,从而在功能上模拟人的智能和行动。在人工智能创立之初,英国科学家图灵、美国科学家明斯基等先驱的初衷是运用计算机制造能实现人类所有认知功能的通用人工智能或强人工智能。但科学家们不久就发现,要使机器像人一样理解语言和抽象概念,通过学习全面达到人类智能的水平,并非一日之功。迄今为止,应用日益广泛的各种人工智能和机器人尚属狭义人工智能或弱人工智能,只能简单地执行人交给它们的任务。

 

    一般地,人工智能及智能自动系统能根据人的设计自动地感知或认知环境(包括人)并执行某些行动,还可能具备一定的人机交互功能甚至可以与人“对话”,常常被看作具有一定自主性和交互性的实体。有鉴于此,人工智能学家引入了智能体(agents,又称智能主体)的概念来定义人工智能:对能够从环境中获取感知并执行行动的智能体的描述和构建。于是,可将各种人工智能系统称为人工智能体或智能体。从技术上讲,智能体的功能是智能算法赋予的:智能体运用智能算法对环境中的数据进行自动感知和认知,并使其映射到自动行为与决策之中,以达成人为其设定的目标和任务。可以说,智能体与智能算法实为一体两面,智能算法是智能体的功能内核,智能体是智能算法的具体体现。

 

    从智能体概念出发,使人工智能系统更为明晰地呈现为可以模拟和替代人类的理性行为,因可与人类相比拟乃至比肩的存在,故可视之为“拟主体”,或者说智能体具有某种“拟主体性”。如果仅将智能体看作一般的技术人造物,其研究进路与其他科技伦理类似,主要包括面向应用场景的描述性研究、凸显主体责任的责任伦理研究以及基于主体权利的权利伦理研究。但在人们赋予智能体以拟主体性的同时,会自然地联想到,不论智能体是否像主体那样具有道德意识,它们的行为可以看作是与主体伦理行为类似的拟伦理行为。进而可追问:能不能运用智能算法对人工智能体的拟伦理行为进行伦理设计,即用代码编写的算法使人所倡导的价值取向与伦理规范得以嵌入到各种智能体之中,令其成为遵守道德规范乃至具有自主伦理抉择能力的人工伦理智能体?

 

机器人三定律与嵌入式的机器伦理调节器

 

    其实,这一思路并不新鲜,早在70多年前,美国人阿西莫夫在对机器人三定律的科学幻想中,就提出了通过内置的“机器伦理调节器”使机器人成为服从道德律令的类似构想。在短篇科幻小说《转圈圈》(1942)中,阿西莫夫提出了按优先顺序排列的机器人三定律:第一定律,机器人不得伤害人类或坐视人类受到伤害;第二定律,在与第一定律不相冲突的情况下,机器人必须服从人类的命令;第三定律,在不违背第一与第二定律的前提下,机器人有自我保护的义务。此后,为了克服第一定律的局限性,他还提出了优先级更高的机器人第零定律:机器人不得危害人类整体或坐视人类整体受到危害。

 

    从内涵上讲,机器人定律是一种康德式的道德律令,更确切地讲是人为机器人确立的普遍道德法则,以确保其成为遵守绝对道德律令的群体。而更耐人寻味的是,机器人三定律是通过技术实现的。在《转圈圈》中,三定律是根深蒂固地嵌入到机器人的“正电子”大脑中的运行指令:每个定律一旦在特定场景中得到触发,都会在机器人大脑中自动产生相应的电位,最为优先的第一定律产生的电位最高;若不同法则之间发生冲突,则由它们的大脑中自动产生的不同电位相互消长以达成均衡。这表明,机器人定律并不全然是道德律令,也符合其技术实现背后的自然律。换言之,机器人定律所采取的方法论是自然主义的,它们是人以技术为尺度给机器人确立的行为法则,既体现道德法则又合乎自然规律。

 

    历史地看,这些富有电气化时代色彩的机器人伦理设计实际上是一种科技文化创新。自英国作家雪莱夫人创作《弗兰肯斯坦》(1818)到捷克的恰佩克发表《罗素姆万能机器人》(1921),不论是前者呈现的科学怪人的形象,还是后者昭示的机器人造反,都体现了人对其创造物可能招致毁灭性风险与失控的疑惧。机器人定律则为摆脱这种情结提供了可操作性的方案——通过工程上的伦理设计调节机器人的行为,使其成为可教化的道德的机器人——合伦理的创造物。但从自然主义的方法论来看,这一构想又似乎明显超前。在提出第零定律时,阿西莫夫也意识到,机器人可能无法理解人类整体及人性等抽象概念。或许是这些困难令他转而畅想,一旦机器人灵活自主到可以选择其行为,机器人定律将是人类理性地对待机器人或其他智能体的唯一方式。这似乎是在暗示,使人工智能体成为可以自主作出伦理抉择的人工伦理智能体的前提是其可与人的智能媲美。

 

走向可计算的机器伦理与智能体伦理嵌入

 

    回到人工智能的现实发展,随着无人机、自动驾驶、社会化机器人、致命性自律武器等应用的发展,涌现出大量人可能处于决策圈外的智能化自主认知、决策与执行系统,这迫使人们在实现强人工智能之前,就不得不考虑如何让人工智能体自主地做出恰当的伦理抉择,试图将人工智能体构造为人工伦理智能体。从技术人工物所扮演的伦理角色来看,包括一般的智能工具和智能辅助环境在内的大多数人工物自身往往不需要做出价值审度与道德决策,其所承担的只是操作性或简单的功能性的伦理角色:由人操作和控制的数据画像等智能工具,具有反映主体价值与伦理诉求的操作性道德;高速公路上的智能交通管理系统所涉及的决策一般不存在价值争议和伦理冲突,可以通过伦理设计植入简单的功能性道德。反观自动驾驶等涉及复杂的价值伦理权衡的人工智能应用,其所面对的挑战是:它们能否为人类所接受,在很大程度上取决于其能否从技术上嵌入复杂的功能性道德,将其构造为人工伦理智能体。

 

    让智能机器具有复杂的功能性道德,就是要构建一种可执行的机器伦理机制,使其能实时地自行做出伦理抉择。鉴于通用人工智能或强人工智能在技术上并未实现,要在智能体中嵌入其可执行的机器伦理,只能诉诸目前的智能机器可以操作和执行的技术方式——基于数据和逻辑的机器代码——就像机器人三定律所对应的电位一样,并由此将人类所倡导或可接受的伦理理论和规范转换为机器可以运算和执行的伦理算法和操作规程。机器伦理的理论预设是可以用数量、概率和逻辑等描述和计算各种价值与伦理范畴,进而用负载价值内涵的道德代码为智能机器编写伦理算法。论及伦理的可计算性,古典哲学家边沁和密尔早就探讨过快乐与痛苦的计算,而数量、概率、归纳逻辑和道义逻辑等都已是当代伦理研究的重要方法,机器伦理研究的新需求则力图将“可计算的伦理”的思想和方法付诸实践,如将效益论、道义论、生命伦理原则等转换为伦理算法和逻辑程序。不得不指出的是,用数量、概率和逻辑来表达和定义善、恶、权利、义务、公正等伦理范畴固然有失片面与偏颇,但目前只能通过这种代码转换才能使人的伦理变成程序化的机器伦理。

 

    在实践层面,机器伦理构建的具体策略有三:其一是自上而下,即在智能体中预设一套可操作的伦理规范,如自动驾驶汽车应将撞车对他人造成的伤害降到最低。其二是自下而上,即让智能体运用反向强化学习等机器学习技术研究人类相关现实和模拟场景中的行为,使其树立与人类相似的价值观并付诸行动,如让自动驾驶汽车研究人类的驾驶行为。其三是人机交互,即让智能体用自然语言解释其决策,使人类能把握其复杂的逻辑并及时纠正其中可能存在的问题。但这些策略都有其显见的困难:如何在量化和计算中准确和不走样地表达与定义伦理范畴?如何使智能体准确地理解自然语言并与人进行深度沟通?

 

    鉴于机器伦理在实践中的困难,人工智能体的伦理嵌入不能局限于智能体,而须将人的主导作用纳入其中。可行的人工伦理智能体或道德的智能机器的构造应该包括伦理调节器、伦理评估工具、人机接口和伦理督导者等四个环节。伦理调节器就是上述机器伦理程序和算法。伦理评估工具旨在对智能体是否应该以及是否恰当地代理了相关主体的伦理决策做出评估,并对机器伦理的道德理论(如效益论、道义论等)和伦理立场(如个性化立场、多数人立场、随机性选择等)等元伦理预设做出评价和选择。人机接口旨在使人与智能体广泛借助肢体语言、结构化语言、简单指令乃至神经传导信号加强相互沟通,使机器更有效地理解人的意图,并对人的行为做出更好的预判。伦理督导者则旨在全盘考量相关伦理冲突、责任担当和权利诉求,致力于厘清由人类操控不当或智能体自主抉择不当所造成的不良后果,进而追溯相关责任,寻求修正措施。

 

    对人类文明而言,人工智能将是一个好消息还是坏消息,最终取决于我们的伦理智慧。在中国推出新一代人工智能发展规划的今天,我们更要悉心体味孕育了巧夺天工精神和天工开物情怀的中国思想,审天人之性,度万物之势,以探求人机和谐、文明通达之道。

 

    (作者:段伟文,系中国社会科学院哲学所研究员)

 

作文备考:材料作文“人工智能与伦理价值”的审题指导与例文导写

李任驰

历史的车轮滚滚向前,新事物层出不穷,令人眼花缭乱。人工智能,作为当今一项被广泛使用的新型技术,委实是把“双刀剑”。该如何正确看待其利与弊,是我们需要恒久探索的命题;辩证地看待人工智能在现实生活中的作用,是我们需要做的。

正确应用人工智能,能使我们的生活更加便利。无人驾驶、刷脸支付、无人超市……这些事物在人工智能技术出现之前,是不可想象的。人工智能的出现,让这些曾经不可想象的情景成为了现实,我们的生活,确是在人工智能的帮助下变得更加便捷。

正确应用人工智能,也能使人类在灾难面前更有底气。在2020年人们始料未及的新冠疫情中,人工智能发挥了巨大的作用。人工智能使隔离生活不再无趣,使防疫措施更加精确,更使全社会能及时获取信息。信息确定是力量之源,信息不确定则徒增恐慌。在人工智能的支持下,人们在灾难面前有了更足的底气,能够更好地克服困难,拥抱更美好的未来。

因此,正确使用人工智能,能够造福人类,意义深远。然而,人工智能这把“双刀剑”所带来的伦理价值问题却也不容忽视。

因为人工智能,许多传统行业的工作岗位被机器人替代,工人陷入失业困境。人工智能使一部分工作、一部分人失去了原有的价值。在举世瞩目的围棋人机大战,即人类顶尖围棋手与计算机顶级围棋程序之间的围棋比赛中,韩国围棋九段棋手李世石、中国围棋九段棋手柯洁分别败给人工智能围棋程序“阿尔法围棋”(AlphaGo)。人工智能挑战着人类智慧的极限。更加让人恐惧的是埃隆·马斯克曾做出过预言,如果我们再不对人工智能加以控制,人工智能将有可能取代人类的位置成为地球的主宰!这使人们开始对人工智能的未来产生畏惧之心。因此,人工智能技术的发展也需要有制约,必须遵守伦理规范,让人工智能在正确的领域发挥正确的作用,是我们的目标。

人工智能是把“双刃剑”,我们既要敢于拥抱人工智能,让人工智能在现实生活中焕发生机与活力,也要谨慎对待人工智能,不允许其“越界”,更不允许人工智能技术被不法之徒利用,给人类带来祸患。

人类最大的尊严就在于其拥有自己的思想,能够把握自身的发展方向。辩证地对待人工智能,让人工智能与伦理价值规范携手同行,弘扬科技的正面效益,更好地为人类造福,一定能让人类文明更好地延续和发展。返回搜狐,查看更多

版权声明:本文内容由互联网用户自发贡献,该文观点仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌抄袭侵权/违法违规的内容,一经查实,本站将立刻删除。

上一篇

下一篇