心理学好写的论文题目(精选200个)
心理学(Psychology)是一门研究人类及动物的心理现象、精神功能和行为的学科,既是理论学科,也是应用学科。心理学分为基础心理学、发展与教育心理学、应用心理学三个方向。
【选题方向1】发展与教育心理学
发展与教育心理学包括发展心理学和教育心理学两个分支。它们是心理学的主干学科。主要研究个体心理的发生与发展,以及人类学习与教育,特别是学校教育在促进个体心理发展变化中的心理学问题。
当前发展与教育心理学明显地表现出两大特点:一是科学研究呈现综合发展的趋势,另一是应用研究广泛开展。与之相应,该学科内部不断产生一些新的交叉学科,如发展心理语言学、发展心理生物学、发展心理病理学、发展心理社会学、教育社会心理学、学科教育心理杂、学核心理学等。所有这些都预示着发展和教育动理学在21世纪的广阔前景和重要价值。
发展与教育心理学学科研究范围为:
(l)发展心理学主要研究人类发展的基本规律和各个年龄阶段的心理发展特点。内容包括婴幼儿、童年、青少年的认知、情绪情感、意志、个性和社会性发展,成人期和老年期的心理发展与适应,特殊和异常儿童的心理发展,人类心理的演化等。
(2)教育心理学主要研究教育领域,尤其是学校教育中的心理学问题,揭示其一般规律及其在教育实践中的应用。内容包括学习与教学心理、品德心理与培养、学科心理、差异心理、特殊教育心理、学校心理学、计算机辅助教学等。
参考论文题目1运用快速阅读策略提高小学生阅读能力的研究
2低年级小学生听说能力训练的教学实验研究
3幼儿早期阅读兴趣的研究
4学习有困难学生(初中)一般能力倾向的研究
5中学生考试焦虑与学业成就归因方式关系的研究
6大学生学业成就归因方式与自信心关系的研究
7大学生的自信心与家庭教育方式关系的研究
8新兵常见的入伍动机与教育对策的研究
9肥胖儿童自我意识发展特征的研究
10关于父母教养方式及社会支持与青少年应付方式发展间关系的研究
11儿童行为问题与父母教养方式及子女教育心理控制源认知间的关系研究
12青少年问题应付方式、防御方式与心理健康之间关系的研究
13依恋类型与学生心理健康
14中小学生学业负担调查
15中小学生零花钱状况调查
16中小学生中“擂肥”现象的调查
17大、中、小学生网络行为研究
18大、中、小学生生活满意感调查
19大、中、小学生电子游戏行为的特点研究
20大、中、小学生学习动机研究
21大、中学生价值观调查
22大、中学生生活压力事件调查
23中小学生对教师的评价研究
24中小学生中课外补习班现象调查
25大学生寝室交往的人际动力研究
26当前青年择业倾向调查
27城市(或农村)人口生活满意感调查
28大学生家庭观念研究
29大学生亲子关系调查
30校园暴力事件调查
31家庭暴力事件调查
32生活价值观的代际比较
33论智力高而成就低的原因
34论青年非智力因素对智力发展的作用
35开发青年智力为什么要重视非智力因素的培养
36论青年是创造性思维发展的重要时期,我们应如何发展青年的创造力?
37论青年情绪情感的和特点与心理卫生
38论青年的焦虑及其调节
39青年的自我评价成熟与自我教育之间的关系
40论青年自尊心的特点
41论青年自我概念及其对个性发展的影响
42论友谊在青年期的特殊意义
43论当前我国青年友谊、爱情观中的积极因素与消极因素
44论我国当代青年道德发展的特点
45论我国当代青年人生观的特点及影响青年人生观形成的心理因素
46论形成青年违法犯罪心理的主客观因素
47论违法犯罪青年在个性意识的倾向性方面的特点
48论青春期性心理特点与性教育
49对当代大学生自杀意念或自杀行为的调查
50对当代大学生自杀动机和原因的调查
51对当代大学生自杀的干预策略研究
52对当代大学生生逃课现状、因以及干预策略的研究
53当代大学生宿舍文化的形成过程,如何形成良好的大学生生宿舍文化
54当代大、中、小学生的自尊发展特点
55当代大、中、小学生的自我控制发展特点
参考书目1.朱智贤:《儿童心理学史》,人民教育出版社,2002年版。
2.M·B·加梅佐,等:《年龄和教育心理学》,人民教育出版社,1984年版。
3.J·皮亚杰:《儿童心理学》,商务印书馆,1980年版。
4.舒华:《心理与教育研究中的多因素实验设计》,北京师范大学出版社,1994年版。
5.[美]RobertJ.Sternberg,LouiseSpear-Swerling著,赵海燕译:《思维教学》,中国轻工业出版社,2001年版。
6.[加]罗比•凯斯著,吴庆麟译:《智慧的发展-一种皮亚杰主义理论》,上海教育出版社,1991年版。
7.[美]LindaCampbell著,王成全译:《多元智能教与学的策略》,中国轻工业出版社,2001年版。
8.[美]DavidR.Shaffer,DevelopmentalPsychology:ChildhoodandAdolescence(影印版)(第六版)中国轻工业出版社,2004年。
9.[美]AnitaWoolfolk,EducationalPsychology(影印版)(第十版)
中国轻工业出版社,2007年。
10.陈琦,刘儒德:《当代教育心理学》(第2版),北京师范大学出版社,2011年版。
【选题方向2】基础心理学
基础心理学是心理学的基础学科。它研究心理学基本原理和心理现象的一般规律,涉及广泛的领域,包括心理的实质和结构,心理学的体系和方法论问题,以及感知觉与注意,学习与记忆,思维与言语。情绪情感与动机、意识,个性倾向性与能力、性格、气质等一些基本的心理现象及其有关的生物学基础。基础心理学也包括;动理学方法的研究,包括实验设计、心理测量和各种具体的研究方法。
基础心理学的发展与脑科学、计算机科学结合的趋势十分明显。心理与大脑的关系成为基础心理学的核心问题。基础心理学通过脑成象技术与脑科学相结合,将有可能解决心理学中的多解问题–对某些认知过程存在多种可能的理论解释。这标志着基础心理学在21世纪将走上更富有成果的发展道路。基础心理学与计算机科学关系密切,彼此共同推进关于人类认知的理论。
参考论文题目1儿童认知发展的研究
2社会认知发展的研究
3任务难度对儿童返回抑制时间进程的影响
4心理学中的动机理论和动机研究(如成就、归因等)
5心理学中的情绪理论和情绪研究
6心理学中的意识理论和研究
7心理学中的智力理论与研究
8心理与语言
9心理与文化
10心理与社会(家庭关系、同伴关系、社区、传媒、网络等)
11心理学数量化方法的优缺点评估
12心理学研究方法的比较研究
13心理实验的逻辑在心理学方法中的作用
14多元统计分析与心理学研究
15论心理研究的生态化取向
16论心理学测量工具的正确使用
17教育与心理实验研究的科学化评估
18教育与心理实验研究的科学化评估
参考书目1.舒华:《心理与教育研究中的多因素实验设计》,北京师范大学出版社,1994年版。
2.JohnJ.Shaughnessy:《ResearchMethodsinPsychology》,HigherEducation,2006.
3.董奇、周勇、陈红兵:《自我监控与智力》,浙江人民出版社,1996年版。
4.M·W·艾森克,M·T·基恩:《认知心理学》,华东师范大学出版社,2004年版。
5.MichaelS.Gazzaniga:《认知神经科学》,上海教育出版社,1998年版。
6.[美]珀文、约翰主编,黄希庭译:《人格手册-理论与研究(上下册)》华东师范大学,2003年版。
7.芭芭拉、斯佩曼等主编:《认知心理学新进展》,北京大学出版社,2007年版。
8.[美]爱德华滋,李波译:《自我与人格结构》,北京大学医学出版社2008年版。
9.朱滢:《实验心理学》,北京大学出版社,2000年版。
10.郑刚等译:《心理学导论》,中国轻工业出版社,2008年版
【选题方向3】应用心理学
应用心理学是心理学中迅速发展的一个重要学科分支。由于人们在工作及生活方面的需要,多种主题的相关研究领域形成应用心理学学科。应用心理学研究心理学基本原理在各种实际领域的应用,包括工业、工程、组织管理、市场消费、社会生活、医疗保健、体育运动以及军事、司法、环境等各个领域。随着经济、科技、社会和文化迅速发展,应用心理学有着日益广阔的前景。
应用心理学学科研究范围为:
运用心理学的基本理论和方法,研究和解决工业、社会、医学、运动和军事等领域的心理学问题。本学科包含若干领域,相互联系,形成体系。其中主要有五个方面
(l)工业心理学:主要研究工程、技术设计和管理工作中人的因素。内容包括:为适应科学技术的进步,实现高效、安全、健康工作的要求,人所必须具备的感知觉、思维、决策和操作特点,组织管理工作中的个体特征、群体心理、领导行为和组织心理等,提出有关人员选拔、训练、评价、激励的方法和人一机系统设计的心理学依据。
(2)社会心理学:主要研究个体和群体的社会心理与社会行为的一般规律,着重阐明人的心理受社会文化制约的基本原理以及社会心理学原理在各类实际部门的应用。内容包括:个体社会化过程。社会认知、社会动机、社会态度、人际关系与沟通、大众心理现象等。
(3)医学心理学:主要研究和探讨医疗保健中的应用心理学理论方法及应用。内容包括:医学心理诊断和评估、行为异常的发生、发展咨询和防治、心理咨询与心理治疗的理论和方法、心理一行为一社会医学模式,以及心理关护和康复等。
(4)运动心理学:主要研究体育运动中的应用心理学原理、方法与应用。内容包括:运动领域的认知过程、情感、意志、技能学习、心理训练、运动员选材,以及心理测试与训练方法等。
(5)军事心理学:主要研究军事领域的应用心理学原理、方法和应用,包括军事人员的选拔、评估、作业过程、训练、咨询和作战心理等。
参考论文题目1关于影响人们对他人作判断的主要因素的研究
2关于归因的偏误的文化特征研究
3关于归因的两难推理的研究
4关于社会偏见的研究
5性别岐视的现状及成因的相关研究
6培养和激发学生学习动机的有效方法
7自我概念及其成因的相关研究
8自我表现的社会心理技能技巧的研究
9自我监控与社会适应的相关研究
10应对压力的社会心理策略研究
11人际交往的年龄特点研究
12人际交往的性别特点研究
13伴侣关系的传统模式与现代模式的异同
14婚姻承诺增强的决定因素
15婚姻关系恶化的决定因素
16控制错觉与社会适应的相关研究
17减少攻击性行为的有效方式
18竞争行为与合作行为的相关研究
19关于态度改变模式的时代特征的研究
20社会压力的种类及其心理机制的研究
21学生心理健康现状调查
22团体辅导实验研究
23辅导课程教学模式研究
24学生心理辅导个案研究
25学校心理辅导研究进展综述
26对学生心理健康标准的思考
27论学校心理辅导的工作模式
28谈学校心理辅导人员的素质
29学校心理辅导方法的比较研究
30学校心理辅导评估技术探讨
31学生学习辅导的若干问题研究(学习动机、策略、考试焦虑、学习困难等)
32校园生活辅导的若干问题研究(情绪、休闲、消费、人际、性、危机干预、网络使用等)
33择业与生涯辅导的若干问题研究
34教师心理健康调查研究
35中外学校心理辅导比较研究
参考书目1.[美]马斯洛等著.林方等译.人的潜能与价值.北京:华夏出版社,1987.
2.[英]约翰·麦克里奥德著.潘洁译.心理咨询导论(第三版).上海:上海社会科学院出版社,2006.
3.[英]福特著.黄峥译.咨询和治疗中的沟通分析技术.北京:中国轻工业出版社,2005.
4.[美]米尔顿等著.施琪嘉,曾奇峰等译.精神分析导论.北京:中国轻工业出版社,2005.
5.[美]贝克著.翟书涛等译.认知疗法:基础与应用.北京:中国轻工业出版社,2001.
6.[美]艾伦·艾维,迈克尔·丹德烈亚等著.汤臻等译.心理咨询与治疗理论:多元文化视角.北京:世界图书出版公司,2008.
7.刘晓明著.视域融合:心理教育中的价值问题研究.长春:东北师范大学出版社,2008.
8.刘晓明,孙文影著.教师心理健康教育概论.北京:中国轻工业出版社,2008.
9.班华主编.心育论.合肥:安徽教育出版社,1997.
10.[苏]列昂节夫著.李沂译.活动·意识·个性.上海:上海译文出版社,1980.
11.[美]RichardS.Sharf著.李茂兴译.生涯谘商理论与实务.台北:弘智文化事业有限公司,1998.
12.江光荣著.人性的迷失与复归——罗杰斯的人本心理学.武汉:湖北教育出版社,2000.
13.[美]迈克尔·R·所罗门著.卢泰宏译.消费者行为学(第6版).北京:电子工业出版社,2006.
14.L·G·希夫曼,L·L·卡纽克著.消费者行为学(第七版).上海:华东师范大学出版社,2002.
15.林建煌著.消费者行为.北京:北京大学出版社,2004.
16.江林著.消费者行为学.北京:科学出版社,2007.
心理学好写的论文题目(精选200个)VIP月卡¥免费VIP年会员¥免费价格¥5.50发布时间2023年7月4日已付费?登录或刷新下载提示:1、如文档侵犯商业秘密、侵犯著作权、侵犯人身权等,请点击“文章版权申述”(推荐),也可以打举报电话:18735597641(电话支持时间:9:00-18:30)。
2、网站文档一经付费(服务费),不意味着购买了该文档的版权,仅供个人/单位学习、研究之用,不得用于商业用途,未经授权,严禁复制、发行、汇编、翻译或者网络传播等,侵权必究。
3、本站所有内容均由合作方或网友投稿,本站不对文档的完整性、权威性及其观点立场正确性做任何保证或承诺!文档内容仅供研究参考,付费前请自行鉴别。如您付费,意味着您自己接受本站规则且自行承担风险,本站不退款、不进行额外附加服务。
原创文章,作者:写文章小能手,如若转载,请注明出处:https://www.sbvv.cn/chachong/138624.html,
【人工智能】人工智能与人类智能的关系
1.基本概念界定
1.1人工智能
人工智能是在20世纪中期以后产生的学科,人工智能就是用机器模拟人类的智能活动,从而用机器代替人类行使某些方面的职能。人工智能是通过探索人的感觉和思维的规律来模拟人的智能活动,电子计算机是人工智能的媒介和基础。阿伦·图灵说:“如果一台计算机能骗过人,使人相信它是人而不是机器,那么它就应当被称作有智能。”如果以此为标准来界定机器的智能,那么人工智能的发展之路仍然任重道远。
1.2人类智能
智能简单地说就是智慧与能力,是综合、复杂的精神活动功能,是人运用自己已有的知识和经验来学习新知识、新概念并且把知识和概念转化为解决问题的能力。智能活动往往和记忆力、感知力、思维、判断、联想、意志等有密切的联系,人类的智能表现在能够进行归纳总结和逻辑演绎,人类对视觉和听觉的感知以及处理都是条件反射式的,大脑皮层的神经网络对各种情况的处理是下意识的反应。
1.3什么是思维
思维是事物的一般属性和内在联系在人脑中的间接的、概括的反映。思维的形式包括概念、理解、判断、推理等。思维往往借助于语言来表达,由直接的感受即感性思维转化为理性,透过现象看到事物的本质,发现普适性的规律。芒福德说人类是“精神的制造者”而不仅仅是“工具的制造者”,因为人类具备思维能力。
2.基于“技术元素”视角下的人工智能
“技术元素”这一说法是凯文·凯利提出的,技术元素就是从人类意识中涌现出的一切东西,包括技术具象的工具,也包括文化、法律、社会机构和一切智能创造物。凯文·凯利说:“科技是人类的发明,也是生命的产物。”居所是动物的技术,是动物的延伸部分,人类的延伸部分是技术元素,科技发明是我们基因创造的躯体的外延。
2.1人工智能是技术进化的成果
凯文·凯利认为人类的延伸由思维产生,因为思维具有创造力,才促使了技术的进步,才创造出了以往没有创造出的东西,所以,“如果说科技是人类的延伸,那也与基因无关,而是思维的延伸。因此科技是观念的延伸躯体”。技术元素伴随着语言、工具的诞生成为人类不可或缺的伙伴,从古至今,除了极少的例外,各种技术都没有消失,而是进化成不同形态的技术。人工智能作为一种科技物种,随着技术的进步而产生发展,是技术进化的成果。
2.2人类与技术共同进步
一切生物都有天然的借助外力的本领,从钻木取火到航空航天,人类经历了漫长的发展,或者说是进化,技术作为一种手段、一种工具从来都与人类相伴相生。“技术元素”赋予技术以生命,人是技术进化的动力,而技术的进化也促进了人类社会的发展,二者是密不可分的。科技与人类正在逐渐融合,或者说人类已经成为科技最适合的载体;“技术元素”的发展虽然具有一定程度的自主性,但是它的发展轨迹从某种意义上来说也是人类意志的体现。人作为技术发展的动力之一与“技术元素”同步运动。
3.人工智能能否超越人类
对于这个问题人们有两种极端的看法:一是认为人工智能必将取代人类,不久的将来人类会沦为机器的奴隶;二是对人类的主体地位有着极度的自信,认为机器始终都是被人控制。前者的依据是人工智能的发展极其快速,超越了人类智能的进化速度,人工智能取代人类只是时间问题。后者的依据是人工智能不具有生命特征,无法融入生物圈从而和自然发生联系,只能作为人类活动的工具而存在。我更偏向于第二种观点,是基于以下几个原因:
3.1缺乏创造性的“特长生”
人工智能开发出的机器可能是某一个领域的“特长生”却不是全才。比如AlphaGO是围棋特长生却不能唱歌,计算器是数字计算的天才却不能陪人聊天,情感机器人负责陪伴和情感安慰却不能真正懂得人类的喜怒哀乐,如此等等,它们按照既定的程序运行,各司其职、各得其所,不会偏离轨道也不懂得创造。塞缪尔说:“机器不能输出任何未经输入的东西。”目前最先进的机器人也是依赖于软件运行,软件是通过人来完成更新升级,人工智能实际上是人类智能的外在表现。人体是一个复杂而庞大的系统,人有特定的背景和生活习惯,人脑的发育会受到所经历的事件和社会环境的影响,能够灵活运用,组合所接受的信息,具备综合分析问题的能力。人脑的控制系统复杂和精密程度远远超过智能机器人,因此,人工智能在技术上不及人类智能,它依赖人类智能而进化,能够胜任人类制定的任务,却缺乏人类智能的创造性。
3.2不能思维的人工智能
在回答“机器能否思维”的时候,我们首先应该对思维进行界定,思维是人脑特有的功能。人脑是一个高度发达的系统,是人类意识活动的物质载体。“电脑思维”在功能上会向人脑思维不断接近,但是两者之间存在不可消除的界限,“电脑思维”是一个简单的逻辑过程,模拟人脑思维功能和思维信息过程,它在本质上区别于人类思维。人脑思维除了能够接受外部信息以外,还能对信息进行主观的加工。人们已经能制造出类人机器人,可是它不能和人一样思维吗,因为思维不仅仅是人脑的生理机能,离开社会实践和人际交往是不能产生思维的。
3.3是辅助而非替代
人工智能简单明了地说就是人类用来改造世界的技术手段,是辅助性的工具,而不是对人类的替代。人工智能出现的历史并不久远,前文说到了技术和人类的共同进化,当人类有能力利用工具来处理复杂繁琐的工作时,这是人类的进化,也是工具的进化。人工智能被用于帮助人类进行某项工作,才能解放人力,人类智能才可以更好发挥主动性和创造性。人工智能承担了人类活动中基础的、不可或缺的、复杂的工作,从而使人类智能转向更核心的科研创造以及思维和判断上来。在人与人工智能的关系上,二者是相辅相成、相互补充的,而不是互相排斥、完全替代。
4.总结
人工智能与人类智能的关系是互为补充、相互制约的,人与技术的融合是必然的。目前人工智能的更新升级必须依赖与人类智能,人类智能的进化程度关系到人工智能的先进程度“技术元素”的进化也要受到社会条件的制约。人工智能可能在某一方面出强大的功能,但是它缺乏思维和创造性,这一点是致命的缺陷,工具作为人类器官的延长,是人类智能的外化之物,被人类智能的发展程度所局限。
AI报告:人工智能究竟对人类有何影响
前言
人工智能(ArtificialIntelligence,简称AI)是一系列技术的集合,其下包括机器学习、推理、感知和自然语言处理等。人工智能的概念和应用65年前就已开始,不过最近AI的进步和应用让这种技术再次成为热议。随着AI被更广阔地应用到人类社会和经济生活各个方面,新的机遇和挑战随之而生。其巨大的潜在影响让人类不得不谨慎思考AI技术的发展与应用。
于今年7月举行的“AINow”研讨会是由白宫科技政策办公室和美国国家经济委员会联合推动的一系列研究的最后一个环节。此前的一系列研究分别从不同的角度对AI进行了分析研究,从政策法规到AI的安全控制,再到AI公益以及如何挖掘AI的更多潜能。这次“AINow”则主要就未来十年AI在社会和经济领域的影响进行讨论。来自全球多个领域的专家学者集聚一堂,发表自己的观点。讨论的问题包括:现阶段AI的迅速发展造成了哪些问题?如何更好地理解与使用AI来创造更公平公正的未来?
社会和经济的问题多不胜数,本次“AINow”主要围绕“医疗”、“劳工就业”、“AI公平”以及“AI道德”准则展开讨论。
之所以选择“医疗”和“劳工就业”作为主要话题,是因为目前这两个领域中AI渗入广泛,AI所能带来的问题在这两个领域中较为突出和明显。而“AI公平”和“AI道德”则是未来大家都关注的问题:AI会有助于世界大同还是会加剧社会不公?以及如何确保AI的利益被全体人类享用?
该研讨会的举行旨在让AI能够更好地造福人类社会。通过众多专家学者聚集一堂进行讨论的方式,本次“AINow”研讨会对人工智能学界内外都具有显著意义。
问题和建议
研讨会对未来AI所可能造成的情况做出了预见,并分别给出相应的建议。需要声明的是,下列建议融合了全体与会人员的智慧,并不代表个人或某组织的立场。
随着AI愈加紧密地被应用到社会经济生活的方方面面,以下列出的问题和对应的建议可以作为投资者和相关领域从业者在对来的参考指南。
1、问题:AI的发展和应用有赖于特定的基础设施和人、物资源。这些基础资源的短缺无疑会限制AI的发展,对这些基础设施和资源的掌握在AI发展前期变的至关重要。
建议:从多个渠道改善发展AI的资源基础。注重数据集、计算机、相关人才教育培训等配套领域的建设。
2、问题:虽然目前AI水平还在初级,不过在多个领域AI已经作为人工辅助的角色存在,并且对劳动关系产生了影响。奥巴马经济顾问委员会的主席杰森·弗曼(JasonFurman)就表示,低技术的体力劳动是最有可能被AI和自动化机械取而代之的职位。如果机器人开始和人类竞争工作,人力资源的分配也将迎来变革。
建议:更新自己的思维和技能,来应对AI参与所带来的就业结构的改变。未来AI机器将承担绝大多数低技术水平的工作职位,人们需要调整自己的技能储备和收支方向以应对新形势。
3、问题:AI和自动化的过程通常都是在人们目所不及的幕后进行。缺少了人类的参与,机器可能做出有失公允或不慎恰当的决定。随着AI应用的进一步增长,对AI判断和勘误将变得更加重要,也更加困难。
建议:支持AI校准和勘误的研究,AI错误危害评估程序也应提上日程。这些研究应和AI的突飞猛进配套发展,就像人类系统中司法之于行政。如此能够及时发现AI犯下的错误,并避免严重后果。
4、问题:针对AI模式下公私机构公平和问责制的研究似乎与当前美国一些法律相忤,比如计算机欺诈与滥用法案(CFAA)和数字千年版权法案(DMCA)。
建议:需要澄清的是,无论是计算机欺诈与滥用法案还是数字千年版权法案,都没有限制相关研究。
5、问题:尽管AI正以飞快的速度被运用在医疗、劳工等诸多领域,但目前人类没有一个公认的办法来在评估AI所带来的影响。
建议:支持AI影响评估系统的研究。而且该领域的研究应该和政府机构通力合作,使成果能为政府行政所用。
6、问题:那些因部署AI而权益受到损害的人,其声音往往被忽视。
建议:在打造AI系统的时候,受影响者的意见应该被听取。AI应由各方共同设计以免有失公允和太过激进。
7、问题:AI的研究主要集中在电子技术上,对于人性方面问题的关注常常不足。在未来,计算机科学领域的成员将益加呈现同质化和单一化对特点,这不利于AI开发者的眼界和经验,进而影响到AI产品的打造。
建议:AI研究员和开发者应该尽量多元化,开发人员的多样与多元也会带来更丰富纷呈的AI产品。未来AI领域应该多多支持跨学科研究,从而使得AI系统能够融合电子计算、社会科学以及人文气息。
8、问题:现有的道德准则已经不能应对AI在现实中所面临问题的复杂性。(比如在医疗、执法、犯罪判决以及劳务等等)同时,在大学里的计算机课堂上,尽管这些理工课程也逐渐开始重视道德教育,然而并未彻底贯彻到实践中。
建议:同美国人工智能协会(AAAI)、美国计算机协会(ACM)以及电器和电子工程师协会(IEEE)这些专业机构进行合作,推动产生可以面对新形势的道德准则。同时在学校课堂上贯彻落实这些新道德准则的教育。每个有志于计算机科学的学生在专业课之外也应接受公民权利、自由等道德教育。相应的,那些有AI渗入的领域(比如医疗场所)的从业人员也应该对这些新道德标准有所知悉。
目前关于人工智能的四个关键性问题
我们现在将对目前关于人工智能的四个关键问题进行深入探讨,为读者提供一个了解业内专家见解以及建议的机会。相关探讨包括每个关键问题所面临的挑战、机遇以及可采用的干预措施。
1.社会不公
人工智能系统如何造成偏见以及歧视等社会不公现象?
人工智能系统在高风险决策领域的作用越来越重要——从信贷、保险再到第三方决策以及假释问题。人工智能技术将代替人工决定谁会获得重要机遇,而谁又将被抛弃,由此将会引发一系列关于权利、自由以及社会公正问题。
有些人认为人工智能系统的应用有助于克服人类主观偏见带来的一系列问题,而有些人则担心人工智能系统将会放大这些偏见,反而会进一步扩大机会的不均等。
在这场讨论中,数据将会起到至关重要的作用,引发人们的强烈关注。人工智能系统的运行往往取决于其所获得的数据,也是这些数据的直观反映。其中也包括这些数据的来源以及收集过程中的偏差。从这方面来讲,关于人工智能的影响是与相应的大数据技术密切相关的。
从广义上讲,数据偏差有两种形式。第一种是采集的数据客观上不能够准确反映现实情况(主要归因于测量方法的不准确;数据采集不完整或过于片面;非标准化的自我评价以及数据采集过程中的其他缺陷)。第二种在数据采集的过程中主观上存在结构性偏差(诸如在关于职业数据的采集中有目的性地通过主观性的重男轻女来预测职场成功率)。前一种的数据偏差可以通过“净化数据”或者改进数据采集过程来加以解决。但后一种则需要复杂的人工干预措施。值得注意的是,虽然有很多机构都为解决这种问题做了大量的工作,但对于如何“检测”数据偏差尚无定论。
当采集的数据存在上述偏差时,用这种数据所训练的人工智能系统也会存在相应偏差,其产生的模型或者结果不肯避免的会复制并放大这种偏差。在这种情况下,人工智能系统所作出的决策将会产生差别效应,从而引发社会不公。而这种不公平要比人为偏见和不公隐晦的多。
在以风险控制为主导的行业中,随着人工智能系统的广泛应用,导致人与人之间的细微差别异化对待等现象显著增加,在保险以及其他社会担保行业尤为如此。人工智能系统的应用能够使公司更加有效地通过“逆向选择”来识别特定群体以及个人,从而有效避免风险。
诸如在医疗保险领域,人工智能系统会对投保人的特征以及表现行为进行分析,并对那些被识别为特殊疾病或者是未来发病率高的投保人收取更多保费。在这种情况下,对于那些健康状况不佳且经济能力差的人群尤为不利。这就是为何批评者经常会指责称,即便人工智能系统的预测准确,保险人行为理性,但效果却常常是带来负面影响。
保险业的竞争或许会加剧这种发展趋势,最终人工智能系统的应用或许会加剧这种不平等性。当然,相关反歧视法律法规中的规范性原则能够为解决这些问题带来帮助,虽然这种方法可能不是最有效、最公平的。此外,对人工智能系统进行设计和部署也很重要,但现有的法律框架或许会使相应研究受到阻碍。诸如如计算机欺诈和滥用法(CFAA)和数字千年版权法案(DMCA)都对这方面研究进行了限制,因此当下也需要对现行法规进行改革,确保必要的研究能够顺利进行。
人工智能将受益少数人?
人工智能系统为经济价值的产生带来了新的方式,也对经济价值的分配产生了新的影响。在某种程度上,人工智能系统的价值分配会使一部分群体受益,从而延续或加剧现有的薪资、收入以及财富分配差距。
那些有能力研发人工智能技术的组织将会加剧这种不平等性。据预测,人工智能是一个每年市值达到数十亿美元的庞大产业。开发人工智能技术需要大量的前期投资,其中包括海量的计算资源以及大数据,两者的成本都非常之大。这导致人工智能的开发和应用被限制在一个特定的范围之内。在这种情况下,那些拥有强大数据以及计算能力的企业才能够通过人工智能系统深入了解市场动态,从而获取更多优势,为自己带来“富者更富”的马太效应,带来更多成功。
从另一方面来说,人工智能以及自动化系统能够降低商品和服务成本,如果这些降低的成本能够使消费者受益,那么人工智能就可以缩小贫富差距。在这种情况下,人工智能系统能够提高整个社会的生活水平,甚至于引发一个渐进式的再分配效应。
此外,人工智能也会带来全新的生活方式。在人工智能环境下,那些工作落伍的人有机会需求获取资源的新方式,而工作受到影响的人也能够通过人工智能创造新的就业机会。换而言之,人工智能能够缓解劳动力危机,让人们自由追求生活以及工作新方式,从而提高社会的整体福利。
尽管如此,一些评论家指出,人工智能系统会使得某些工人的技能多余化,那些被自动化所取代的工人不得不寻求新的就业机会。即便这部分工人能够找到新的工作,这种工作也常常是低附加值的,且工作稳定性更低。从这个角度将,人工智能以及自动化系统反而消除了就业机会。
更进一步,如果学习新的工作技能非常昂贵,工人们或许会认为这种职业技能培训与新工作并不成正比。在这种情况下,人工智能系统不仅会增加社会不公,更会带来永久性的失业以及贫穷。这就是为何理解人工智能系统对劳动力的潜在影响是理解其对经济平等性影响的重要方面。
和以往许多技术一样,人工智能技术也往往反映了其创建者的价值观。因此,也可以通过在人工智能开发、部署、维护阶段的多元化来推动人工智能技术的平等性。
当前,在人工智能甚至于整个计算机科学家技术行业,女性以及少数民族从业人员所占比例还很少。这种现状也在一定程度上导致整个技术缺乏包容性,导致一定的偏见,延续或限制相关从业者对其他群体的考虑。
人们也越来越清楚的认识到,人工智能领域从业者的多样性有助于人工智能系统满足不同人群的利益。为了解决偏见、歧视和不平等问题,人工智能团队需要一个更广泛的视角。
2.劳工关系
目前有关就业和AI系统的讨论往往都集中在对人们未来将会失业的担忧上。最新的研究表明,还存在更加复杂、影响更加直接的问题,这些问题不仅仅影响劳工市场,还影响雇主与雇员之间的关系、权力动力学、职业责任和工作在人类生活中的角色。
许多传统经济研究人员正在密切追踪美国国内劳工市场和企业机构,以此来考量AI系统的影响。这类研究可带来非常重要的定性数据,能够促进对宏观经济趋势和劳工供需状况的理解,比如未来将会有多少工作岗位。
与此同时,社会科学研究则评估工作属性和工作动力的改变正在如何改变人们的日常生活体验。这两个研究视角对于衡量AI系统短期对劳动力的社会影响和经济影响都必不可少。
AI会影响工作岗位需求吗?
自动化技术在经济中的角色远非新议题,事实上对于AI系统影响的考虑是出现于长期以来的讨论。
虽然表面来看劳工需求会随着自动化技术的日益普及而下降,毕竟需要做的工作将会很有限,但也有经济学家并不这么认为,他们称该观点是“劳动合成”谬论。他们指出,随着一个行业的生产力的提升(由于自动化技术或者其它因素),新行业也会诞生,因而会产生新的劳工需求。例如,1900年农业在美国劳动力中的占比为41%,到2000年该占比只有2%。两位劳工经济学家大卫·奥特尔(DavidAutor)和大卫·多恩(DavidDorn)称,即便出现这种剧变,失业率长期来看并没有出现上升,就业人口比率实际上反而出现提升。另外两位经济学家詹姆斯·亨廷顿(JamesHuntington)和卡尔·弗雷(CarlFrey)则给出了可怕的预言:AI系统将会大大减少工作岗位。
还有人在争论劳动市场的变化和波动是否与技术进步有关,是否只是因经济政策而出现。这类看法聚焦于现有的法律体系和监管机制对于AI和自动化系统的发展应该担当什么样的角色。例如,罗伯特·戈登(RobertGordon)认为当前的创新浪潮其实并没有它们表面上看起来那么具有变革性。不少持相反意见的人则称,劳动市场正因为技术变化而发生重要转变。这些人包括约瑟夫·斯蒂格利茨(JosephStiglitz)和拉里·米歇尔(LarryMishel),他们认为,要保护劳动力,就必须要对AI和自动化系统相关的监管和其它政策变化上保持高度的重视。
奥特尔、多恩等经济学家发现“就业两极分化”现象正变得非常明显,即中等技能岗位在减少,而高等技能和低等技能的岗位则在增加。虽然未来可能会出现新的岗位,但它们往往都收入比较低,不受欢迎。
例如,许多支持AI系统的工作事实上需要由人类去完成,他们需要维护那些基础设施,照顾系统的“健康状况”。这种劳动力往往不大显眼,至少从媒体的报道和人们对AI的印象来看是这样。因此它往往受到低估。这类工作包括负责清洁办公室和维护工作的清洁工,负责维修服务器故障的维修工,以及有位记者所说的“数据卫生工”(能够“清理”数据,为数据分析做好准备)。
AI系统对劳动力的影响相关的问题应当不仅仅包括未来是否会创造出新岗位,还应当包括那些岗位会否是能维持生计的体面工作。
此外,有关AI系统和劳工市场未来的讨论通常都专注于传统上被认为是低收入的工人阶级岗位,如制造业、卡车运输、零售或者服务工作,但研究表明,未来各行各业都将受到影响,其中包括需要专业训练或者高学历的专业工作,如放射学或者法律。关于这一点,未来将需要解决职业责任和义务方面的新问题。
AI将会如何影响主雇关系?
近年来,研究人员开始研究依靠大数据的AI和自动化系统(从Uber到应用于大型零售商的自动化调度软件,再到工作间监视)正在如何改变雇主与雇员之间的关系。
研究发现,虽然这类系统可以用来赋能员工,但该类技术也可能会引发大问题,如剥夺员工权利,加剧就业歧视问题,以及催生不当劳动行为。
例如,AI驱动的劳动力管理和调度系统正越来越多地被用来管理劳动力,助力按需经济的增长和“朝不保夕族”(precariat)的崛起。虽然部分研究人员称恰当的调度能够带来很有价值的弹性,但到目前为止,更多的研究发现受该类系统管制的员工存在情绪紧张和缺乏安全感问题。
由这类系统管理的员工的不利体验包括长期不充分就业,财务状况不稳定,缺少传统全职员工能够获得的福利保障,无力为家庭或者自我照顾(又或者因为忍受不了该类工作往往要求的随时待命性质而寻找别的工作)做规划。此外,受这些问题影响的员工更多是女性和少数族裔。
另外,基于AI系统的新远程管理模式会加大将“系统”所做的严重影响员工的决策归责于雇主的难度。因此,员工更容易受到剥削。
例如,像Uber这样的由大数据和AI驱动的平台会远程控制行驶路线、定价、报酬甚至人际交流方面的标准——这些决定传统上说通常都有人工亲自管理。
除了模糊化特定决策的性质和逻辑之外,这类远程管理通常并不被认为是“雇员管理”。
由于这些新管理模式不大符合现有的监管模式,像Uber这样的公司会将自己标榜为技术公司,而非雇员的管理者。按照这一理念,这类公司将自己视作促进连接的平台,因此不会像传统雇主那样对雇员负责。依照这种模式,雇员最终要承担权益保障(如减轻税项负担、医疗保健和其它的劳工保障)和潜在救济模式的就业带来的风险。
3.医疗健康
像我们现在所看到的大多数已被应用到医疗健康领域的AI系统,它们几乎都依赖于大型数据库,这些AI系统会通过各种复杂的统计模型和机器学习技术,从其所收集到的海量数据中,自动提炼出各种重要信息。
那些已投入使用的医疗数据信息源(仍处在不断增长当中)——包括电子病历(EHRs)、临床和医保数据库、从各类消费电子产品和App上传来的健康数据——目前已经被大量地应用到AI系统的实践,这些AI系统具有极大的能改善社会医保水平的潜力。
无论是临床诊断、病人护理,还是施药;无论是药品生产、组织管理,还是医保信息交互,这些AI系统都为医疗从业者的工作起到了极大的助力。
AI是如何被融入到医学研究和医疗健康的?
将AI系统融入到医学研究,具有令人极为欣喜的应用前景,它能帮助我们更好地理解那些疾病的病理,帮助我们开发出更多的新式治疗手段,实现更为精准的医学诊断,甚至还能私人订制地为个人生产出特制的药品。
然而,鉴于目前仍存在的将AI应用到医疗领域的局限和偏见,它们或将阻碍这些应用前景的实现,而这就需要研究人员更为细心谨慎地去探索这一前沿的技术。
目前,这些将AI技术应用到医疗领域的局限,包括有不完整或不准确的研究数据,即未含盖到特定的少数群体,除此之外,尤以美国医保系统为代表的复杂医疗补贴激励制度,也将在一定程度上阻碍到了AI医疗技术的应用。举个简单的例子,目前的一些医疗补贴制度会更支持个别种类的药物研发,或是更倾向于补贴个别治疗方案。
医疗研究数据时常会表现出客观、通用的属性,但在实际应用的过程中,这些研究结论往往会表现出片面、暂时和只针对某些团体或病症的特性,而AI系统根据这些“片面”数据所分析和建立出的模型,可能会引出、建立或是衍生出一些错误的猜测。
所幸的是,这样的错误情况是可以避免的。如果一个AI系统所收集的数据不存在上面我们所提到的那些瑕疵(假设这点是可以被保证的),或是该AI系统所使用的数据框架像随机对照试验方法(randomizedcontroltrials,RCTs)或是其它公共医疗数据库那样,具有自行矫正这些问题的能力,能减小其内在错误偏差的话,它就能有效地避免重大误差的出现。
假设这些误差微小到可被忽略,将AI系统融入到医疗健康研究和临床实践中心的一个最有可能实现的应用前景,是让AI去协助医生进行病症诊断,从海量数据中发现规律性的模式,从而帮助医生更早地揪出那些藏匿在身体深处的“狡猾”病灶。
事实上,AI系统目前已经可以完成对部分病症的诊断了,这其中就包括了白血病。在检查和临床护理环节,AI系统在一些情况下,也有几率能减少,甚至预防误诊情况的出现。须知,误诊是可以致命的,AI辅助诊断技术的价值之高,可想而知。
在这方面,AI系统在诊断和确立病症的环节上,正扮演越来越重要的角色。然而,也正是因为如此,研究人员必须警惕,要避免出现因AI错误猜测,而推断出“正常”或是“平均”等健康状况描述的情况的发生。
类似的,我们只需要回顾一下美国在1973年前的那段历史,就想象出当AI出现误诊时,会发生什么样惨剧。彼时,美国精神病学协会(AmericanPsychiatricAssociation)将同性恋作为一种精神疾病列入到了它权威的精神病诊断和统计手册当中,这样一来,悲剧的出现就不可避免了。
同样的,当AI系统被直接地应用到病人护理时,它们将涉足到诊断和临床管理的方方面面,而这也时常将隔开看护者同病人之间的距离,所以,适当地明确出AI“专业程度”的局限,是非常重要的。
一名人类外科医生在上岗之前,会先上医科大学,在经历过层层严苛的考核后,他们的医术才能获得世人的承认,然而,我们要如何造出一个出色的AI大夫来协助,或者甚至是取代一个有“文凭”的人类名医呢?
这样一个AI医疗系统意味着它需要具有绝对准确的专家级权威水平,不会出现误诊或是诊断偏颇的情况。这种级别的信任代表着这些AI系统无论是在出厂的能力评估上,还是在检测其极限能力上,都可以接受更少的审查,而这也将制造出那些,目前还未被医学伦理框架所囊括的新型伦理问题。
除此之外,我们还需要关注类似于这样的AI医疗系统在医保领域内被布置于何处,使谁受益等等这样的问题。尽管让医疗健康惠及所有人,让大家都能负担得起确实是一种需求,但已有大量的证据表明,取得医保和健康数据的权限并未被公平地分配,在多数情况下,穷人、非白人和女性群体常常处于劣势地位。
让AI系统融入到医保体系,非但不会根除这些系统性的不平等问题,反而还有可能会放大这种问题的严重性。虽然AI系统可以实现合适的定制化医疗护理,让各式各样的人都获益,但它也可以被故意培养成过滤掉那些之前就常常被忽视、被服务不周的外围群体。
如果这些群体没有被给予适当的考虑的话,这反过来也将影响到AI系统所构建出的预测模型。AI预测模型会被那些能用上这种AI系统的特权群体所上传的健康数据所不断的固化,从而只能有效反馈出富人的“健康状况”,并最终构建出一个会完全排斥“边缘人群”的健康与疾病的整体认知模型。
鉴于目前美国存在的医保财政的乱象,这样的忧患确实是值得人们投入更多关注,就像这样的乱象在过去影响到医疗技术的整合一样,它也必然会在未来影响到AI医疗系统的布置和效用,
基于这样的考虑,人们在推动AI医疗系统不断发展的同时,也在不断努力地去降低AI医疗系统造价,而这也将促使那些利益相关者(比如政客、保险公司、健康机构、制药企业、雇主和其他人)把他们的注码,寄托于大规模的健康数据收集和AI系统的研制上,以此来帮助他们更好地维护他们在模型研发和医保护理上的经济利益。
然而,将这些信息技术和AI系统整合到医院和其它医疗健康体系所需要的关键培训、资源和那些正在进行当中的必要维护,并不总是能够得到支持,或者说并不总是能处于“不差钱”的状况。而这种情况其实已经导致了技术资源和技术能力的分配不均。
训练AI所需的数据收集和病患观察将如何影响到个人隐私?
AI系统对数据量的极度依赖和对病例观察的需求也自然而然地催生出了对病人隐私、秘密和安全保护等等急迫的问题。
目前,对AI医疗系统高性能期许的实现依赖于通过各式各样的设备、平台和互联网来源源不断地获取到海量的病患数据,而这一过程也不可避免地会涉及到某些人或机构会在利益的驱使下,做出出格的监视行为。、
与此同时,像同态加密(Homomorphicencryption)、差分隐私(differentialprivacy)和随机隐私(stochasticprivacy)这样的技术带给了我们应对这些乱象现象的新的希望,它们可以让AI系统实现在不“查阅”数据的情况下,直接地去“调用”它们。虽然就目前来说,这些新技术仍处于研发的初步阶段,连一个通用应用程序都还没有被开发出来,但它展现出能令人鼓舞的应用前景。
除此之外,随着近期美国政府对循证医学(Evidence?basedmedicine)的推广和《平价医保法案》(AffordableCareAct)已由原先的按服务收费转变至按治疗行为收费的这一变化,监管行为背后所涉及到的经济利益问题和对敏感健康数据消费的问题,都在不断地加剧恶化当中。
至于那些保险公司,在AI系统入局的情况下,其所需面对的对验证交叉补贴方案合理性的呼声的压力也在与日俱增。
举个例子,尽管美国政府在2008年就颁布了《基因资讯平等法》(GeneticInformationNondiscriminationAct),但出于对保险分层管理的需求,保险公司对能获取到遗传危险率信息的兴趣也在日益增长。事实上,差别定价目前已经成为了数据分析供应商的一项业内通用做法,而这反过来也进一步地巩固和加剧了目前的不平等现象。
此外,“智能设备”和其它能让AI系统获取到所需数据的联网传感器也已让追踪和监视变得无处不在,而这也将目前的那些隐私保护政策的覆盖范围不断地拓宽,像《医疗健康可携性和责任法案》(HealthInsurancePortabilityandAccountabilityAct)就是在这一考虑下的产物。
随着AI系统被越来越多地融入到健康和电子消费产品上,病人因细分数据而被重新定义,或是由代理数据来预测出他们的身份、所患疾病和其它健康信息的风险,正不断地升高。
除此之外,那些驱动这些数据收集设备的软件也常常是为私人所持有,而不是开源的(不受外部审查审计的约束)。虽然,美国政府最近签署的法令对《数字千禧年著作权法案》(DigitalMillenniumCopyrightAct)中的相关条例进行了免除,让审查外部医疗设施的代码成为可能,但更为重要的或许是审查那些内部医疗设施,然而这种行为并未被这一豁免权所囊括到。
总的来说,相关业内专家们都已经对在物联网设备上,布置联网技术所潜在的重大安全隐患做过警告了,在这些警告中,有很多就是专门针对医疗设备安全问题的。
AI将如何影响患者和医疗保险供应商?
那些已被实现或是有望被实现的AI技术,对健康护理系统的构建有着深远的意义,对需要照顾的病患,或是那些虚弱体质的人也意义非凡。
人们对于AI系统,进行了许多美好的构想,寄予它们护理工作调解员的角色,并相信它们在未来有可能完全取缔了护工的工作。这一转变前景乐观、经济,且高效,很可能会改善患者与医生或其他护工之间的关系和他们的工作方式。
能展示AI系统具有代替或者协助人工护理工作的潜力的例子非常之多,包括有机器人外科医生、虚拟管家和陪护机器人等等。这些例子逐渐引发了一些争论,比如代理照顾和陪同护理的社会意义是否可以让非人类的机器来代替?当机器替代人工时,它是否能不仅仅只是增强人工的专业性,而能做到真正的独当一面呢?当我们认为一台机器有能力“护理”病人时,它具备了哪些“护理”能力呢?我们又是如何定义“护理”这个词呢?这些我们以为的“以为”是否是站在病人权益的角度上,去考虑的呢?
就目前来说,虽然陪护机器人在取代人工护理工作上,还未取得什么明显的效果,但由AI驱动的APP和联网设备能让病人取回对自己健康管理的控制权的前景正在与日俱增,而这也预示着AI医疗系统同病人的直接交互,正处于早期发展阶段。。
这种人与AI的直接交互其实也是一把双刃剑。一方面,它能让病人康复地更快、对自身病情有更多的了解。另一方面,这种变革也需要他们担负更多的风险。这些风险包括它可能会误导病患,影响他们可能会接收到的信息的质量和准确性,而这也是美国联邦贸易委员会(FTC)在近些年来,所要传达给我们的担虑。
除此之外,这些搭载了AI的APP也可以将原先医疗从业者所需要承担的责任转移病人本身,但这对病人来说不见得是什么好消息,因为并不是所有人都有时间、财力和AI技术获取渠道,来实现对他们自身健康的护理。
那么,什么样的患者能优先享受到这些仍在不断改进当中的AI医疗技术的红利呢?对于那些“装备”不良却想管理和维护自己个人数据的病患来说,他们所接受到的健康看护是否是不合格的呢?
再者,那些搭载了AI技术的应用的设计者和研发者在这一社会演变过程中,又需要扮演什么新的角色?需要承担哪些新的责任?
那些始终处于风口浪尖的医学道德伦理,又将如何融入到这些与众不同的,新式工程技术的载体上呢?
4.道德责任
AI系统的部署不仅将引发新的责任,也将对职业道德、研究道德、甚至公共安全评估等现有领域造成挑战。
近来,人们对道德和AI系统的讨论倾向于优先考虑很久以后可能会出现的AI系统,例如,“奇点”的来临,或超级智能的发展。
也就是说,这种讨论往往并未关注AI系统在短期或中期内会产生的道德影响,例如,当前已投入使用的大量任务型AI系统引发了新挑战、可能加剧不平等、或从根本上改变权利机制。
当代AI系统上能够执行各种各样的活动,这类技术会引发各种隐性和显性后果,因此可能对传统伦理框架提出新挑战。AI系统被部署在人类社会中时或许会引发不可预测的相互作用和后果。
在资源配置以及让权力和信息集中或重组的潜力方面,我们迫切需要处理一些关键问题来确保AI技术不会造成伤害,特别对于已被边缘化的群体。
我们如何向AI授予权力或委派AI展开决策?
AI系统在社会和经济领域内的融合需要我们把社会问题转变为能够被AI解决的技术问题。这种转变无法保证AI系统产生的错误会少于它将取代的现有系统。瑞安?卡洛(RyanCalo)指出,人们通常以为,AI系统(如,自主驾驶汽车)犯的错误将少于人类。实则不然。复杂程度不高的AI系统无法避免地会犯一些人类不会犯的新错误。
在许多领域中,伦理框架往往需要产生记录,例如,病历、律师的案卷、或研究人员向机构审查委员会提交的文件。此外,人们还面向患者、客户或感觉自己遭遇了不公正待遇的对象设立了补救机制。
当代的AI系统往往无法提供此类记录或补救机制,要么因为技术上无法实现,要么因为设计者并未考虑此类记录或机制。
这意味着,受到影响的特定群体或个人往往无法对AI或其他预测系统的决策进行检验或质疑。这会恶化各种形式的权力不对等现象。而权力不对等是一个很重要的伦理议题。
当受到影响的个人无法对这类自动化决策展开检验、质疑或上诉时,他们就处在了权力相对缺失的位置上。
这带来的风险是,AI系统不仅将削弱弱势群体的质疑权力,而且将赋予设计方更多定义道德行为的权力。这种权力能够以十分微妙的形式呈现出来。例如,各种自动化系统往往被用来从某种方向来影响或“微调”某些个体,而很大程度上扮演决定或支配角色的是设计部署此类系统并从中获利的一方。
若要从零开始构建AI系统,以实现纠正上述不平衡现象等目标,这本身就要受到实力差距的限制。打造和维护AI系统需要大量的计算资源和大量数据。而拥有海量数据和计算资源的企业相对缺乏这类资源的企业拥有更多的战略优势。
我们如何在现有的各种行业中应对与AI相关的伦理问题?
随着AI系统在不同行业环境(如,医学、法律、金融)中的融入愈加深入,我们还将面临跨越不同行业的新的道德困境。
例如,AI系统在保健环境中的应用将对医疗专业人员道德准则中秉持的核心价值(如,涉及保密、护理的连续性、避免利益冲突以及知情权)造成挑战。
随着医疗业的不同利益相关方推出了各种各样的AI产品和服务。对这些核心价值的挑战可能会以全新的和意想不到的方式呈现。
当一名医生使用的AI诊断设备在受训时使用了一家医药公司的药品试验数据,而这家公司是某种药物处方的既得利益者,那么这位医生应如何遵守避免利益冲突的誓言?
虽然这是个假想的情况,但这点明了在修订以及更新职业道德准则的过程中必须解决的棘手问题。
同样地,负责管理AI研发及维护的专业协会也有必要考虑采取相应的措施。例如,美国人工智能协会(AAAI)应制定相关的道德准则,而美国计算机协会(ACM)以及电气和电子工程师协会(IEEE)需认真修订相关的道德准则。ACM和IEEE现有的道德准则已拥有20年以上的历史,不用说,这些准则不仅无法解决与人类机构、隐私和安全相关的核心问题,而且也无法预防AI和其他自动化决策系统可能产生的危害。随着AI技术进一步被整合到重要的社会领域中,这一点正变得越来越重要。
尽管更多的高等教育机构在技术和科学专业的教学中已开始强调职业道德的重要性,但这番努力仍处在初期,还有进一步的拓展空间。而民权、公民自由和道德实践等领域的知识还未成为学生们毕业时必须掌握的要求范围。此外,有一点是值得注意的,若有人违背医药界道德准则,他需承担的惩罚包括失去行医权力,这一点并不适用计算机科学或许多其他相关领域。
目前还不清楚大多数计算机科学家是否熟知ACM或IEEE准则中的核心内容。我们也不清楚,企业雇主是否会因为其他鼓励或压力因素而选择不遵守这种不具约束力的法规。因此,从实用角度看,除了仅仅对伦理框架进行改写和更新外,有必要关注范围更广的鼓励机制,并确保对伦理准则的遵从并不是事后才想起的事项,而是相关专业领域需要关注的核心问题,以及AI领域学习和实践中不可或缺的组成部分。
阐述建议
下面我们将进一步阐述上面简要提到的建议背后的基本原理。
1、多元化和拓宽AI开发和部署所必需的资源——如数据集、计算资源、教育和培训的使用,包括扩大参与这种开发的机会。特别是关注当前缺乏这种访问的人口。
正如在AINowExperts研讨会期间很多人提到的,这些开发和培训AI系统的方法费用高昂并只限于少数大公司。或者简单地说,在没有大量资源的情况下DIYAI是不可能的。培训用AI模式要求有大量数据——越多越好。同时还要求有巨大的计算能力,而这费用不菲。这使得即使要进行基础研究都只能限于能支付这种使用费用的公司,因此限制了民主化开发AI系统服务于不同人群目标的可能性。投资基本的基础设施和使用合适的培训数据,有助于公平竞争。同样,开放现有行业和机构里开发和设计过程,以多元化内部纪律和外部评论,可帮助开发更好服务和反映多元化环境需求的AI系统。
2、升级使公平劳动行为具体化的定义和框架,以适应AI管理部署到工作地时出现的结构性变化。同时研究可替代的收入和资源分布、教育和再培训模式,以适应未来重复性工作日益自动化和劳动及就业态势不断变化。
在AINowExperts研讨会上,奥巴马总统首席经济学家贾森·福尔曼(JasonFurman)指出,在美国每小时工资只有不到20美元的工作,83%都将面临自动化的严重压力。对于每小时工资在20-40美元的中等收入工作,这个比例也高达31%。这是劳动力市场一次巨大转变,可能导致出现一个永久失业阶层。为确保AI系统的效率在劳动力市场不会导致民众不安,或社会重要机构如教育(有一种可能是教育不再视为就业的更好途径)的解散,在这种巨大转变出现,应该彻底研究替代性资源分布方法和其他应对引入自动化的模式,制定的政策应该为组织良好的各种落实测试开路,控制可能导致的灾难性后果。
除了“替代工人”外,AI系统也对劳动力市场也有其他多重影响。例如,它们改变了权力关系、就业预期和工作本身的角色。这些变化已经对工人产生深远影响,因此在引入AI系统时,在考虑如何表述公平和不公平做法上,理解这些影响很重要。例如,如果开发实际作为管理层行事的AI系统的公司,可被视为科技服务公司,与雇主不同的是,职员可能不受现有法律保护。
3、在设计和部署阶段,支持研究开发衡量和评估AI系统准确性和公平度的方法。同样地,也支持研究开发衡量及解决一旦使用出现的AI错误和损害的方法,包括涉及通知、矫正和减轻这些因AI系统自动决策导致的错误和损害的问责制。这些方法应优先通知受自动决策影响的人们,并开发对错误或有害判断提出异议的方法。
AI和预测性系统日益决定了人们是否能获得或失去机会。在很多情况下,人们没有意识到是机器而非人类在做出改变人生的决定。即使他们意识到,也没有对错误界定提出异议或拒绝有害决策的标准流程。我们需要在研究和技术原型化上投资,确保在AI系统日益用于做出重要决策的环境中,确保基本权利和责任受到尊重。
4、澄清无论是反电脑欺诈和滥用法案还是数字千年版权法案不是用于限制对AI责任的研究
为了进行对检验、衡量和评估AI系统对公共和私人机构决策的影响所需的研究,特别是有关如公平和歧视的关键社会关切,研究人员必须被清楚地允许跨大量域名并通过大量不同方法测试系统。然而,某些美国法律,如反电脑欺诈和滥用法案(CFAA)和数字千年版权法案(DMCA),规定与电脑系统甚至互联网上公开可访问的电脑系统“未授权”互动为非法,可能限制或禁止这种研究。这些法律应该澄清或修改,明确允许促进这种重要研究的互动。
5、支持在现实环境中AI系统对社会经济生活影响的强大评估和评价方法的基础性研究。与政府机构合作将这些新技术集成到他们的调查、监管和执法能力中。
我们当前缺乏对AI系统社会经济影响评估和理解的严格做法。这意味着AI系统在融合到现有社会经济领域,部署在新产品和环境中,却不能衡量或精确计算它们的影响。这种情况类似于进行试验却不愿记录结果。为确保AI系统带来的益处,必须进行协调一致的研究开发严格的方法,理解AI系统的影响,当使用这种方法时可帮助形成跨部门和政府内部的标准做法。这种研究及其结果可比作早期预警系统。
6、在与这些人联合开发和部署这种系统时,与受自动决策应用和AI系统影响的社区代表及成员合作,联合设计可问责的AI。
在很多情况下,这些受AI系统影响的人将是对AI系统环境和结果最权威性的专家。特别是鉴于当前AI领域缺乏多元化,那些受AI系统部署影响的人实际上从事提供反馈和设计方向,来自反馈机制的这些建议可直接影响AI系统的开发和更广泛的政策框架。
7、加强行动提高AI开发者和研究者的多元化,拓宽和融合所有观点、环境和学科背景到AI系统开发中。AI领域应该也结合计算、社会科学和人文学,支持和促进针对AI系统对多个观点影响的跨学科AI研究。
计算机科学作为一个学科领域缺乏多样性。特别是严重缺乏女性从业者,在AI里这种情况更为糟糕。例如,虽然有些AI学术实验室由女性掌管,但在最近的神经信息处理系统大会上,与会者只有13.7%是女性,这次大会是该领域最主要的年度大会之一。缺乏多元化的圈子不大可能会考虑这些不在其中人的需求和关注。当这些需求和关注成为部署AI的社会经济机构的中心时,理解这些需求和关注很重要,AI开发反映了这些重要的观点。关注开发AI人群多元化是关键,除了性别和代表受保护人群外,包括除计算机科学外各种学科的多元化、建立依赖来自相关社会经济领域学习的专业知识的开发实践。
在计算机科学之外和计算机科学之内AI子领域的社会经济领域,进行AI影响的彻底评估将需要多数这种专业知识。由于很多环境下AI被集成和使用——如医学、劳动力市场或在线广告——本身是学习的丰富领域。为真正制定AI影响评估的严格流程,我们将需要跨学科的协作,建立新的研究方向和领域。
8、与专业组织如美国人工智能进步协会(AAAI)、美国计算机协会(ACM)和电气及电子工程师协会(IEEE)合作,更新(或制作)专业道德准则,更好地反映在社会经济领域部署AI和自动化系统的复杂性。为任何想掌握计算机科学的人开设公民权、公民自由权和道德培训课程,反映了教育中的这些变化。同样,更新专业道德准则约束引入AI系统的专业人士,如适用于医生和医院工作者的道德准则。
在医学和法律等职业中,专业人士的行为受控制可接受和不可接受行为的道德准则约束。专业组织如ACM和IEEE确实制定了道德准则,然而这些准则过时了,不足以解决复杂社会经济环境中使用AI系统带来的具体并常常是微妙的挑战。虽然医生确实遵守了约束他们对待病人行为的职业道德,但AI系统的发展,如帮助医生诊疗和治疗病人,出现了现有职业道德准则不总是能解决的道德挑战。职业准则和计算机科学培训必须更新,以反映AI系统建造者对因使用这些系统遭受不同程度不利影响的人所负有的责任。在AI用于增强人类决策时,职业道德准则应该包括在AI系统受到利益冲突左右的时候鉴定责任的保护措施。
点赞0人工智能会取代人类的艺术创造力吗
【热点观察·当文艺创作遇上人工智能①】
中央美术学院2019届硕士毕业生中,有一位叫夏语冰。毕业前夕,夏语冰的画作同其他同学的作品一道,参加了中央美院研究生毕业作品展。
夏语冰的作品,获得了中央美院老师们的高度肯定。该校的邱志杰教授专门为她的作品写下一大段褒扬的评语。另一位教授,受夏语冰作品的启发,还专门为她创作了一段音乐。
6月15日,夏语冰将赴杭州参加跨界艺术展览;7月5日,夏语冰将以画家身份在中央美术学院举办个人作品展。
不过,夏语冰并非现实中的真人。她是微软研发的一款人工智能机器人。这款在微软内部被叫作“小冰”的人工智能机器人,被培养学习绘画已经22个月。从刚开始画得很丑,到慢慢提升,小冰作为一个“画家”成长的过程,就像追求艺术的人类一样,经历了一个漫长、痛苦、艰辛的过程。经过22个月的学习培养,小冰的绘画作品,达到了一定的艺术水准,才被破格批准化名“夏语冰”参加中央美院研究生的毕业画展。
在过去两年的人工智能的风潮下,人们除了目睹小冰作的画,欣赏了小冰写的诗,听到了谷歌开发的人工智能机器人Magenta创作的歌曲……艺术,这块传统上被认为是人类智慧金字塔尖的领域也要被AI(人工智能)占领了吗?
1.写诗绘画样样精通
“孤陈的城市在长夜中埋葬/他们记忆着最美丽的皇后/飘零在西落的太阳下/要先做一场梦”,这是机器人小冰写的一首诗。发布于两年前的人工智能“少女诗人”小冰,经过不断的深度“学习”,如今已具备强大的“创作”能力。只需上传一张图片,给几个关键词,小冰就能在10秒内替你创作出诗歌初稿。
在研发过程中,工程师们曾用27个化名,在报刊、豆瓣、贴吧和天涯等多个网络社区的诗歌讨论区中发布小冰的作品,在此过程中,没有人发现作者是个机器人。后来,小冰研发团队从小冰写成的数万余首诗中挑出139首结集出版,取名《阳光失了玻璃窗》。
“少女诗人”小冰“出道”后,引起人们的极大关注和讨论,因为这跟AlphaGo打败柯洁还不一样。下棋本质上就是一个通过海量大数据和超强计算能力求落子最优解的过程,还属于“弱人工智能”范畴,但文艺创作完全是一个创造性的工作,而是否具备创造性思维,一向被视为由“弱人工智能”到“强人工智能”的分水岭。
据微软(亚洲)互联网工程院副院长、微软小冰项目负责人李笛介绍,为了达成写诗技能,小冰学习了1920年以来519位诗人的现代诗,被训练了超过10000次。一开始,小冰写出的诗句毫不通顺,后来慢慢形成“独特的风格、偏好和行文技巧。不过,诗歌界对此并未给出好评。比如,诗人于坚就认为小冰的所谓写作只是个语言游戏,“无论输出多少句子都算不得真诗,因为真诗是有灵性的”。
如果说“诗人”小冰的创作仍是基于对海量文字的统计和计算,那“画家”小冰的模型已开始基于情感计算框架。换句话说,“画家”小冰不仅具有IQ(智商),还开始具有EQ(情商),并且其“创作”开始基于情感激发。这个模型有两个非常鲜明的特点:会大量使用诱发源,不是让机器把一种已有的视觉元素,进行复制、拼接,再转成另外一种风格重新生成,而是要求在诱发源的帮助下,激发人工智能进行新的创作。该模型通过对过往400年艺术史上236位人类画家画作的学习,已能独立完成100%原创的绘画作品。
此前世界上大多数人工智能的开发都是围绕着任务驱动型、知识型的路线来架构。但近些年,各大科技公司越来越重视对人工智能EQ(情商)的开发。除了微软的小冰,亚马逊开始希望Alexa能够有同理心,百度也提出“智能体”的概念,要求人工智能更加有个性,更加有“人设”。人工智能的构建已经从单纯的IQ开始向“IQ+EQ”演变。长此以往,人工智能将不仅具备人类的智慧,或许还将拥有人类的情感。艺术是人类情感符号化的表现形式,当人工智能拥有情感,并且能够依靠情感激发来进行文艺创作,那人类独有的文艺创作能力的确会受到极大的挑战。
2.离人类的水平还有点远
不可否认,无论是专家学者,还是艺术家,大部分人都不认可人工智能机器人写的诗、画的画、作的曲是艺术品。因为艺术被认为是创作者对客观世界的认识,是其主观情感的呈现,而艺术活动更多是一种创造的过程,它充满感性色彩,人类艺术创造最大的特征就是情感化。而人工智能是理性的,它整套艺术生产逻辑基于数据,即便人工智能的文艺创作开始加入情感激发和随机化模块,但创作的内容仍然是从大量作品中提取、分解、组合而成,这种重组方式不能称为情感化的艺术创作。国外也有学者认为,人工智能目前没有可能创造与人类智力相当或者超过人类智力的作品,因为极具个人色彩的创造性活动是无法复制的。
人类对人工智能文艺创作能力的抗拒和排斥,一方面基于主观情感上的“一时难以接受”,因为在人工智能时代,文学艺术可能会是人工智能机器人留给人类的最后一片施展才华的乐园;另一方面,人工智能在文艺方面的“造诣”,尚处在“低幼”阶段,离人类的文艺创作水平还差很远,并且在相当长一段时间内,仍然难以跟人类匹敌。
以小冰的绘画作品为例,乍一看,颇具“艺术色彩”,但仔细观察会发现,那些作品仍然难以摆脱元素堆砌的痕迹。就像“中国的城市化进程”这个主题,小冰所画的内容基本上都在“建筑”“人”“家具”这几个模棱两可的元素上来回重复。而即便是输入“城市”这个关键词,小冰依旧会把城市跟椅子、时钟这类元素联系到一起,画作也不算完整,甚至过于抽象。
目前来看,人工智能对人类艺术的冲击,大部分还是体现在心理层面。在未来相当长一段时间里,人工智能还是很难接替艺术家的创作,即便这些智能机器人创造出一些被人类认可的“艺术品”,那也是基于人的参与设计。人们需要通过了解创作者的人生经历、社会背景、内心情感,才能试图揣测一件艺术作品的深意,而人工智能机器人的“文艺创作”,整体上还难以使其“作品”充满这种感性的色彩。
面对争议以及种种“不看好”,人工智能的开发者们显得有些无奈。“无论是‘少女诗人’小冰,还是‘画家’小冰,从一开始,我们就把它当作一款产品看待,我们从未想过,要让人工智能与人类的顶级艺术家进行PK,以证明谁的水平更高。”微软(亚洲)互联网工程院人工智能创造及商业事业部总经理徐元春坦言,现在人工智能的文艺创作能力,仍存在较大局限性,但他也呼吁人们不要带着“有色眼镜”去看人工智能创作,希望“让子弹飞一会”,多给人工智能一些成长的空间。
3.艺术家不应一味排斥而应加以利用
人工智能对于人类生存现实基础的改变,迫使人们不得不重新思考艺术与现实的关系、作家和艺术家在艺术活动中的地位、艺术存在的意义及其终极走向等一系列问题。正如艺术批评家李心沫所言,当人类的绘画作品和运用人工智能程序绘制的作品,已经很难被人进行区分的今天,我们已经无法对人工智能视而不见,一味地唯我独尊或排斥是没有意义的。
在人工智能与经济社会同频共振的趋势下,艺术世界将会发生巨大改变,并重塑艺术的边界,其未来是否会影响到艺术家的主体性身份?是否原本只有人类可以胜任的艺术工作,将被人工智能所取代?这些问题,只有交给时间来回答。
从积极的角度看,人工智能的迅速发展,虽然给文学艺术的发展带来了空前的挑战,但也带来了前所未有的机遇,人类从现在开始就可以很好地利用人工智能,来丰富自己的文艺创作。李开复在《人工智能》一书中就指出,人工智能时代,程式化的、重复性的、仅依靠记忆与练习就可以掌握的技能将是最没有价值的,几乎一定可以由机器完成。最体现人的综合素质的技能,比如人对于复杂系统的综合分析、决策能力,对于艺术和文化的审美和创造性思维,基于爱、恨等情感与他人互动的能力,则在人工智能时代最有价值,也是最不容易被替代的。
对文艺家而言,人工智能技术可以助其一臂之力,帮助他们提高学习效率,在极短的时间内阅遍人间所有的艺术精华,达到青出于蓝而胜于蓝的效果。人工智能机器人还可以为艺术家锦上添花,分析素材,增强和丰富艺术表现手法,让他们的艺术创作更上一层楼,给人类多彩的文学艺术世界增添更加绚丽的色彩,让文化消费者能体味更为赏心悦目的艺术之美。
比如,小冰的绘画能力所瞄准的落地场景是服装面料的图案设计。李笛介绍,以小冰人工智能框架为基础,微软已经同中国纺织工业联合会以及几家最大的纺织面料企业合作开发了人工智能纺织服装面料图案设计平台。该平台可以不重样设计出1026种服装面料纹样和插画。另外,小冰也参与到了广播电视节目的制作中,截至目前小冰已经为63家电台和电视台生产了2800多小时的节目。
无论是今天的被动输出,还是未来通过持续深度学习实现主动表达,人工智能为人类的文艺创作都提供了多种可能性。尽管对人工智能介入文艺创作褒贬不一,但无论文艺家还是人工智能的开发者,在一点上是有共识的,那就是:艺术家要保存人类的创造力。
(本报记者 韩业庭)