人工智能的若干伦理问题思考
国内方面相关研究起步较晚,研究不如国外系统与全面。但是近些年来,相关学者也将重点放在人工智能的伦理方面。相关文献有《机器人技术的伦理边界》[7]、《人权:机器人能够获得吗?》[8]、《我们要给机器人以“人权”吗?》[9]、《给机器人做规矩了,要赶紧了?》[10]、《人工智能与法律问题初探》[11]等等。值得一提的是,从以上文献可以看出,我国学者已经从单纯的技术伦理问题转向人机交互关系中的伦理研究,这无疑是很大的进步。
不过,遗憾的是,无论是在国内还是国外,现在仍然很少有成型的法律法规来对人工智能技术与产品进行约束,随着人们将注意力转向该方向,相信在不远的将来,有关政府部门会出台一套通用的人工智能伦理规范条例,来为整个行业作出表范。
三、人工智能是否会取代人类
有关人工智能与人的关系,很多人进行过质疑与讨论。1967年,《机器的神话》[12]作者就对机器工作提出了强烈的反对意见,认为机器的诞生使得人类丧失个性,从而使社会变得机械化。而近些年来,奇点理论的提出与宣传[13],更加使得人们担忧机器是否将会全面替代人类,该理论的核心思想即认为机器的智能很快就将超过人类。
笔者认为,人工智能不断进步,这是个不争的事实。机器的感觉,运动、计算机能都将会远远超过人类。这是机器的强项。但是不会从根本上冲击人类的岗位与职业。这是出于以下几方面的考虑:首先机器有自己的优势,人类也有自己的优势,且这个优势是机器在短期无法比拟与模仿的。人类具有思维能力,能够从小数据中迅速提炼归纳出规律,并且可以在资源有限的情况下进行非理性决策。人类拥有直觉能够将无关的事物相关化。人类还具有与机器不尽相同的内部处理方式,一些在人类看来轻而易举的事情,可能对于机器而言就要耗费巨大的资源。2012年,google训练机器从一千万张的图片自发的识别出猫。2016年,谷歌大脑团队训练机器,根据物体的材质不同,来自动调整抓握的力量。这对于一个小孩子来说,是很简单的任务,但在人工智能领域,确正好相反。也许正如莫桑维克悖论所阐述的,高级推理所需要的计算量不大,反倒是低级的感觉运动技能需要庞大的计算资源。
其次,目前人类和机器还没有达到同步对称的交互,仍然存在着交互的时间差。目前为止,仍然是人类占据主动,而且对机器产生不可逆的优势。皮埃罗·斯加鲁菲在《智能的本质》[14]一书中曾经提出:人们在杂乱无章中的大自然中建立规则和秩序,因为这样的环境中人类更容易生存和繁衍不息。而环境的结构化程度越高,制造在其中的机器就越容易,相反,环境的结构化程度越低,机器取代的可能性越小。由此可见,机器的产生与发展是建立在人们对其环境的了解与改造上的。反过来,机器的发展进一步促进了人们的改造与认知活动。这就如天平的两端,单纯的去掉任何一方都会导致天平的失衡。如果没有人类的指引与改造作用,机器只能停留在低端的机械重复工作层次。而机器在一个较低端层次工作的同时也会使得人们不断追求更高层次的结构化,从而使得机器向更高层次迈进。这就像一个迭代上升的过程,人-机器-人-机器,以此循环,人类在这段过程中总是处于领先的地位。所以机器可以取代人类的工作,而不是人类。
再次,人工智能的高速发展同时带来了机遇。诚然,技术的发展会带来一些负面影响,但是如果从全局来看,是利大于弊的。新技术的发展带来的机遇就是全方位的。乘法效应就是说明的这个道理:在高科技领域每增加一份工作,相应的在其它行业增加至少4份工作,相应的,传统制造业为1:1.4[14].我们应该看到,如今伴随着人工智能业的飞速发展,相关企业如雨后春笋般诞生,整体拉动了相关产业(服务业、金融业)的发展,带来了更多的就业机会。
而且,任何一项技术的发展都不是一蹴而的,而是循序渐进的过程。无论是最早期的类人猿的工具制造、还是后来的电力发展、再到现在的互联网时代,技术的发展与运用是需要时间来保证的。现在社会上有些人担心人工智能的发展会立即冲击自己的工作,实则是有些“杞人忧天”的意味。以史可以明鉴,历史上大的技术突破并没有对人类的工作产生毁灭性的打击。蒸汽机的诞生替代了传统的骡马、印刷机的诞生取代了传统的抄写员、农业自动化设施的产生替代了很多农民的工作,但这都没有致使大量的工人流离失所,相反,人们找到了原本属于人类的工作。新兴技术创造的工作机会要高于所替代的工作机会。所以,我们不必过分担心机器取代人类工作的问题。
四、谁来为事故负责
2016年7月,特斯拉无人驾驶汽车发生重大事故,造成了一名司机当场死亡。这件事故很快成为了新闻媒体的焦点。人们不仅仅关注这件事情本身所带来的影响,更加担心机器作为行为执行主体,发生事故后责任的承担机制。究竟是应该惩罚那些做出实际行为的机器(并不知道自己在做什么),还是那些设计或下达命令的人,或者两者兼而有之。如果机器应当受罚,那究竟如何处置呢?是应当像西部世界中将所有记忆全部清空,还是直接销毁呢?目前还没有相关法律对其进行规范与制约。
随着智能产品的逐渐普及,我们对它们的依赖也越来越深。在人机环境交互中,我们对其容忍度也逐渐增加。于是,当系统出现一些小错误时,我们往往将其归因于外界因素,无视这些微小错误的积累,我们总是希望其能自动修复,并恢复到正常的工作状态。遗憾的是,机器黑箱状态并没有呈现出其自身的工作状态,从而造成了人机交互中人的认知空白期。当机器不能自行修复时,往往会将主动权转交给人类,人类就被迫参与到循环中,而这时人们并不知道发生了什么,也不知道该怎样处理。据相关调查与研究,如果人们在时间与任务压力下,往往会产生认知负荷过大的情况,从而导致本可以避免的错误。如果恰巧这时关键部分出了差错,就会产生很大的危险。事后,人们往往会责怪有关人员的不作为,往往忽视机器一方的责任,这样做是有失偏颇的。也许正如佩罗所说:百分之60到80的错误可以归因于操作员的失误。但当我们回顾一次次错误之时,会发现操作员面临的往往是系统故障中未知甚至诡异的行为方式。我们过去的经验帮不上忙,我们只是事后诸葛亮[15]。
其实,笔者认为人工智能存在三种交互模式,即人在环内、人在环外与以上两者相结合。人在环内即控制,这个时候人的主动权较大,从而人们对整个系统产生了操纵感。人在环外即自动,这时候,人的主动权就完全归于机器。第三种情况就是人可以主动/被动进入系统中。目前大多数所谓的无人产品都会有主动模式/自动模式切换。其中被动模式并不可取,这就像之前讨论的那样,无论是时间还是空间上,被动模式对于系统都是不稳定的,很容易造成不必要的事故。
还有一种特殊情况,那就是事故是由设计者/操纵者蓄意操纵的,最典型的就是军事无人机这种武器,军方为了减少己方伤亡,试图以无人机代替有人机进行军事活动。无人机的产生将操作员与责任之间的距离越拉越远,而且随着无人机任务的愈加复杂,幕后操纵者也越来越多,每个人只是完成“事故”的一小部分。所以人们的责任被逐渐淡化,人们对这种“杀戮”变得心安理得。而且很多人也相信,无人机足够智能,与军人相比,能够尽可能减少对无辜平民的伤害。可具有讽刺意义的是,美国的无人机已经夺去了2500至4000人的性命。其中约1000位平民,且有200名儿童[14]。2012年,人权观察在一份报告中强调,完全自主性武器会增加对平民的伤害,不符合人道主义精神[16]。不过,目前对于军事智能武器伦理的研究仍然停留在理论层面,要想在实际军事战争中实践,还需要更加做出更多的努力。
综上可以看出,在一些复杂的人机环境系统中,事故的责任是很难界定的。每个人(机器)都是系统的一部分,完成了系统的一部分功能,但是整体却产生了不可挽回的错误。至于人工智能中人与机器究竟应该以何种方式共处,笔者将在下面一节中给出自己的一些观点。
五、笔者的一些思考
通过以上的讨论与分析,笔者认为,人工智能还远没有伦理的概念(至少是现在),有的只是相应的人对于伦理的概念,是人类将伦理的概念强加在机器身上。在潜意识中,人们总是将机器视之合作的人类,所以赋予机器很多原本不属于它的词汇,如机器智能、机器伦理、机器情感等。在笔者看来,这些词汇本身无可厚非,因为这反映出人们对机器很高的期望,期望其能够像人一样理解他人的想法,并能够与人类进行自然的交互。但是,现在的当务之急,是弄清楚人的伦理中可以进行结构化处理的部分,因为这样下一步才可以让机器学习,形成自己的伦理体系。而且伦理,正如第一部分讨论的,是由伦和理组成的,每一部分都有自己的含义,而“伦”,即人伦,更是人类在长期进化发展中所逐渐形成的,具有很大的文化依赖性。更重要的是,伦理是具有情景性的,在一个情景下的伦理是可以接受的,而换到另一种情景,就变得难以理解,所以,如何解决伦理的跨情景问题,也是需要考虑的问题。
而且值得一提的是,就人机环境交互而言,机指而不仅仅是机器,更不是单纯的计算机,而且还包括机制与机理。而环境不仅仅单指自然环境、社会环境,更要涉及到人的心理环境。单纯的关注某一个方面,总会做到以偏概全。人工智能技术的发展,不仅仅是技术的发展与进步,更加关键的是机制与机理的与时俱进。因为两者的发展是相辅相成的,技术发展过快,而机制并不完善,就会制约技术的发展。现在的人工智能伦理研究就有点这个意味。现在的人类智能的机理尚不清楚,更不要提机器的智能机理了。而且,目前机器大多数关注人的外在环境,即自然环境与社会环境,机器从传感器得到的环境数据来综合分析人所处的外在环境,但是却很难有相应的算法来分析人的内部心理环境,人的心理活动具有意向性,具有动机性,这也是目前机器所不具备的,也是不能理解的。所以对于人工智能的发展而言,机器的发展不仅仅是技术的发展,更是机制上的不断完善。研究出试图理解人的内隐行为的机器,则是进一步的目标。只有达到这个目标,人机环境交互才能达到更高的层次。
六、发展与展望
人工智能伦理研究是人工智能技术发展到一定程度的产物,它既包括人工智能的技术研究,也包括机器与人、机器与环境及人、机、环境之间关系的探索。与很多新兴学科一致,它的历史不长,但发展速度很快。尤其是近些年,依托着深度学习的兴起,以及一些大事件(AlphaGo战胜李世石)的产生,人们对人工智能本身,以及人工智能伦理研究的兴趣陡然上升,对其相关研究与著作也相对增多。但是,可以预期到的是,人工智能技术本身离我们设想的智能程度还相去甚远,且自发的将人的伦理迁移到机器中的想法本身实现难度就极大。而且如果回顾过去的话,人工智能总是在起伏中前进,怎样保证无论是在高峰还是低谷的周期中,政府的资助力度与人们的热情保持在同一水平线,这也是一个很难回避的问题。这些都需要目前的人工智能伦理专家做进一步的研究。
总之,人工智能伦理研究不仅仅要考虑机器技术的高速发展,更要考虑交互主体-人类的思维与认知方式,让机器与人类各司其职,互相促进,这才是人工智能伦理研究的前景与趋势。
参考文献:
[1][法]斯特凡·东希厄,徐寒易译.会做梦的机器人[J].环球科学.2017(4):48-49.
[2]毕彦华.何谓伦理学[M].中央编译出版社,2010.
[3][美]维纳,陈步译.人有人的用处:控制论与社会[M].北京大学出版社,2010.
[4][美]哈里亨德森,侯然译.人工智能-大脑的镜子[M].上海科学技术文献出版社,2011.
[5]M.Anderson,S.Anderson,C.Armen,TowardsMachineEthics:ImplementingTwoAction-BasedEthicalTheories[C].InM.Anderson,S.Anderson,C.Armen(Eds.),MachineEthics:AAAIFallSymposium,TechnicalReportFS-05-06.MenloPark,CA:AAAIPress,2005:1-7.
[6]王绍源,崔文芊.国外机器人伦理学的兴起及其问题域分析[J].未来与发展,2013,(06):48-52.
[7]迟萌.机器人技术的伦理边界机器人技术与应用[J].2009,(03).
[8]江晓原.人权:机器人能够获得吗?--从《机械公敌》想到的问题[N].中华读书报,2004-12-l.
[9]黄建民.我们要给机器人以"人权"吗?读书与评论[J].2009(06):55-58.
[10]姜潘.给机器人做规矩,要赶紧了[N].文汇报,2011-6-7.
[11]唐昊沫,舒心.人工智能与法律问题初探[J].哈尔滨学院学报,2007(01)
[12][美]刘易斯.芒福德,宋俊岭等译.机器的神话[M].北京:中国建筑工业出版社,2009.
[13][美]库兹韦尔,李庆诚,董振华,田源译.奇点降临.北京:机械工业出版社.2011.
[14][美]皮埃罗斯加鲁菲,任莉张建宇译.智能的本质[M].北京:人民邮电出版社,2017.
[15]JamesReason.Humanerror[M].:CambridgeUniversityPress.1990.
[16]杜严勇.关于机器人应用的伦理问题[J].2015,vol5(2):25-34.
摘自《科学与社会》2018.1返回搜狐,查看更多
小心,人工智能正在剥夺你的思考能力!
(图片来源:摄图网)
作者|朱利安·弗里德兰 来源|商业评论(ID:shangyepinglun)
人工智能(AI)的确是一种强大的工具。它通过调动海量信息让我们的生活更舒适,工作更高效。有了它,我们不用再为很多费时伤神的琐事烦心。
问题是这些烦心事能提高我们的适应能力。没有了它们,我们无法学会调整人与人之间的关系,更无法学会调整人与周围世界之间的关系。
在拥挤的城市里步行、骑车或开车教会了我们如何克服一些诸如路况变化、突发极端天气等不可预知的障碍。
每天,我们就在无数次地改变我们自己以适应世界与无数次地改变世界以适应我们之间寻求最佳平衡。这种相互适应能够激发反思,促进道德自省并提升思想境界。
过度依赖人工智能使得上述互动成为多余,沟通中的摩擦也不复存在。因此,我们的认知能力逐渐下降,情感体验不断钝化,进而导致人类适应能力的萎缩,以及伦理价值观的退化。
例如,让人工智能来挑选礼物,我们就无需考虑在与亲朋好友的日常接触中他们有什么样的需求,并花心思为他们挑选真正贴心的礼物。
无论身处哪种社会环境、个人环境和职业环境,很多趋势表明,我们正在把认知、情感和道德方面的负担转移给人工智能。
慢慢地,我们可能会失去批判性反思的意愿和能力,在认知和情感方面变得更加脆弱。
1
便捷导致疏离
人工智能一个最显著的特征是它能够游刃有余地处理日常生活中的琐事。有了它,我们就会将越来越多的时间和注意力投入到我们认为更有意义的活动中来。
当然,把这些琐事交给人工智能,就意味着我们在一定程度上放弃了对它们的控制权。
我们每放弃一分人为的控制,就增加了一分对人工智能系统的信任。在这一过程中,我们将不再依赖丹尼尔·卡内曼所说的“反思心智”(reflectivemind),而是转向“自主心智”(autonomousmind)。
前者做出的决定经过了深思熟虑,后者做出的决定则是条件反射使然。
自主心智固然简化了繁琐的日常事务,但不断强化自主心智会导致我们的行为总体上趋向自动化,无需太多思考。这种疏离主要体现在下列六个方面。
1.被动接受由于我们在完成任务的过程中接受了人工智能的帮助,无需付出太多努力,因此我们有可能成为被动的旁观者而不是积极的参与者。
例如,奈飞、亚马逊Prime会员以及脸书所采用的人工智能系统已经帮我们事先设定了娱乐和新闻选项。
而当我们习惯于依赖人工智能系统替我们做出决定时,我们便很少接触新的视角,偏见和误解因此根深蒂固。
慢慢地,我们不愿花费精力进行深层次的批判性思考,长期记忆逐渐退化。
2.情感疏远没有了人的参与,情感也会逐渐疏远。最终,我们的行为失去了诚意,甚至具有欺骗色彩。
比如,在呼叫中心或销售平台,人工智能系统的本意是帮助接线员提高对客户诉求的敏感性,其结果却适得其反。
由于过度依赖人工智能,他们在捕捉情感线索方面的训练减少了,兴趣也减弱,反而对客户的情绪变化熟视无睹。
3.主动性丧失人工智能淡化了我们采取行动的意识,从而削弱了我们做决定的能力。
设想一下,一辆事先设计好程序的无人驾驶汽车在发生事故时,会不会从伦理道德的角度权衡不同选择,例如撞人还是撞车?当然不会。
4.责任减轻在决策过程中把控制权拱手让给人工智能,我们对于结果(无论是好是坏)所承担的责任也会相应减轻。
设想一下,你有一款节食软件,它能够根据人工智能所设定的减肥计划为你提供订餐和送餐服务。如果减肥成功,你应该感谢谁?如果减肥失败,你又归咎于谁?
5.无知加深人工智能技术将我们的需求转换为算法速记或机械化程序,其结果有可能与人为操作大相径庭。
例如,出于对人工智能系统的盲目信任,你有可能在一个地图软件尚未更新的错误地方绕来绕去,而不是依赖你的直觉和判断。
6.技能弱化借助人工智能这一媒介完成日常事务,会弱化很多我们与物质世界接触时所掌握的技能。一些基本的工作做起来会感觉生疏,至少在没有帮助的情况下显得不那么得心应手。
例如,在自动驾驶技术得以推广后,我们在没有应用软件的情况下甚至会忘了怎么开车。
不仅如此,我们还会失去掌握新技能的动力,把希望越来越多地寄托在人工智能所提供的外包服务上。
2
摩擦互动促进自省
人工智能时代,只有激活人们的反思心智,才更有可能解决上述疏离问题并防范能力丧失的风险。
人工智能系统的研发者不妨引入“摩擦互动”体验,通过设计“认知减速带”迫使我们思考一些值得深度思考的决定。
例如,母亲生日快到的时候,人工智能系统可以提醒我们找一个合适的时间给妈妈打个电话,或者去看看妈妈,而不只是提出购物建议。只有这样,亲子关系才能得以改善,甚至还能借此机会挑选到真正贴心的礼物。
摩擦互动也能促进道德自省。当我们不断经历摩擦,应对各种刺激的方式便会发生改变,道德身份逐渐形成:对自己行为的意义开始有了不同的思考和感知。
人工智能系统的设计者可以用下述道德自省的四个层面作为指导,设计出鼓励反思行为的应用程序。
第一层次:社会反思
在这个层次,人们的行为改变主要依赖从其他观察者中获得的负面反馈。研究表明,负面反馈能够遏制自私自利的行为。
例如,公用品悲剧实验中原本自私自利的参与者,在遭到谴责后才逐渐学会约束自己的贪念,将更多的资源留给后来者。最终,所有人都愿意减少个人获利,以保证资源分配的公平公正和长期可持续性。
第二层次:自我反思
在这个层次,人们不再依赖他人的负面反馈来审视自己的行为。他们开始转向自身,进行自我反思。他们这么做通常是看到了别人行为的结果或考虑到自己行为的即时影响。
例如,一个人如果注意到房间里的垃圾被清理得干干净净,自己随地乱扔垃圾的可能性就会大大降低。相反,如果房间里垃圾遍地,他也不大可能保持屋内清洁。
第三层次:预期性自我反思
在这个层次,人们无需他人提示便开始对其行为可能产生的负面结果进行了预测。之所以如此,是因为人们对先前行为的自我反思已经导致了内心的负罪感和羞耻感。
第四层次:前瞻性自我反思
作为道德自省的最高境界,在这个层次,人们的前瞻性越来越强,既考虑到正面影响也考虑到负面影响。他们有目的地采取一些合适的行动以期达到正面结果。
最佳情况是,这些决定的形成是一个习惯成自然的过程,以此推动人们不断靠近他们的理想人格。这样的心理状态直接关系到能否在个体的自我概念的基础上获得更大的幸福。
在传统的面对面互动过程中,外部的物质世界和社会环境提供了必要的摩擦,能够促使人们通过反思改善行为。
由于人工智能消除了沟通中的摩擦,因此设计者需要开发一种能够激发用户道德自省的工具,那就是“展示性提示”(showingnotices)。
展示性提示为用户快速展示了其行为的结果,如一天的步行数和上网时长。
它可以提升人工智能的应用水平,鼓励用户从道德自省的前三个层次,即行为的改善主要依赖内疚和羞愧等负面情绪作为动力,提升到第四个层次,即行为的改善主要依赖正面的预期,行为人清楚地意识到他们的选择不仅会让自身也会让整个社会发生改变。
作者简介:朱利安·弗里德兰,都柏林圣三一大学商学院(TrinityBusinessSchool,TrinityCollegeDublin)伦理学助理教授。
本内容有删节
原文《别让AI剥夺你的思考能力》刊登在《商业评论》2020年1月号
编者按:本文转载自微信公众号:商业评论(ID:shangyepinglun)
对人工智能未来发展的思考
对人工智能未来发展的思考人工智能的未来假如机器像人类一样思考人工智能的未来我们思考人工智能向何而去,就要了解人工智能从何而来。1956“人工智能AI”这一概念首次被提出,这标志着人工智能科学的诞生。到今天为止人工智能发展了六十多年,在从2010年开始的近十年里才进入蓬勃发展的阶段。
目前人工智能总体发展水平仍处于起步阶段,但是我们在生活中都能感受到人工智能带给我们的便利,比如机器翻译、智能家居以及智慧城市,其实这些只属于人工智能最初级的应用,属于弱人工智能的范畴。
随着社会、科技的发展和进步,在未来人工智能的应用领域将进一步扩大,人工智能将代替人类传统职业,引发人类生产方式的革命性变革;智能机器最终将替代人类从事劳动,人类进入一个理想的共产主义社会。
假如机器像人类一样思考库克在2017年发表演讲中提到的一句话,他说“我并不担心机器像人类一样思考,却担心人像机器一样思考”。对人像机器一样思考这件事担心是毋庸置疑的,因为人类区别于其他生物最大的特征就是人是具有主观能动性的,具有观察事物,分析事物的能力,如果人类像机器一样思考,那人类文明将会面临很大的灾难。但是机器像人类一样思考是否需要被担心这个问题是值得讨论的,从人工智能这一概念诞生以来,人们关于这个话题就争论不休,不同与库克的观点,我认为机器像人类一样思考是一件需要担心甚至警惕的事情。著名的物理学家霍金在2017年的演讲中提到人工智能的发展本身就是一种存在问题的趋势,“人工智能的崛起,要么是最好的事情,要么是最糟的”。未来人工智能也许会是人类的终结者。
当机器学会像人类一样思考,借助于硬件设备快速的发展,机器将可能以不断加快的速度重新设计自己。而人类则受制于生物进化速度,无法与其竞争,最终被超越。其次人工智能的发展会模糊物理现实、数字和个人的界限,衍生出了复杂的伦理、法律及安全问题。所以在大力发展人工智能技术的同时,也要不断的保持警惕和敬畏之心。 扫描二维码关注我们获得更多相关资讯
人工智能导论课程论文:人工智能及其发展趋势
摘要:人工智能,又简称AI,它是当今最火的一门科学,是研究使计算机来完能表现出人类智能的任务的学科。主要包括计算机实现智能的原理,制造类似于人脑的智能计算机,以及使计算机更巧妙些实现高层次的应用。人工智能科学,它起源于近代,在电气时代随着计算机科学的发展,以及生物学,脑科学等相关科学的发展,极大地推动了人工智能的发展。人工智能还涉及信息论、控制论、自动化、仿生学、生物学,数理逻辑、语言学、心理学等多门学科。导致其非常复杂,所以其研究领域也分成许多方面,从最开始的博弈论,专家系统,模式识别,神经网络,机器学习到现在大热的深度学习。其应用领域,也非常之多,比如机器翻译,语音交互,ORC,图像识别,智能驾驶等等。自从谷歌的阿尔法狗在围棋打败了人类棋手,人工智能也进入了一个新的发展阶段,如今各国,各大公司都在大力发展人工智能技术,争取在新时代把握先机,把握未来。人工智能即将在无人驾驶,机器翻译,语言交互等应用领域取得巨大成功。即使如此,人工智能现在还是处于弱人工智能阶段,人工智能还面临着许多问题和挑战。向强人工智能发展的道路上,仍然充满巨大的困难。
关键词:人工智能
人工智能时代引发的思考
原标题:人工智能时代引发的思考【题目训练】
当前进入人工智能的时代,有人说,人工智能方便为社会方方面面带来便利;也有人说,人工智能存在隐忧。对此,你怎么看?
【参考要点】
1.表明观点。
当下,信息技术迅猛发展,人工智能在生产生活中都发挥着重要的作用,但是没有必要过分隐忧,应当妥善利用好人工智能,服务于社会,服务于人民。
2.分别分析题干观点
观点一:(1)人工智能涉及领域广泛,在众多领域都有突出的贡献,包含银行业务、医疗诊断、顾客服务等方面都有人工智能的涉猎,正在悄然改变人们的生活;(2)人工智能提高生产效率,带来更高的经济发展,工业生产中使用机器人节省人力成本,提高生产效率;(3)人工智能的发展推动我国科技的创新,目前,我国拥有越来越多的具有自主知识产权的专利,正在从创新大国向创新强国转变。
观点二:(1)造成大量重复性劳动人员的失业问题,引发新一轮的就业难;(2)人工智能的发展让人们的生活便利的同时却存在大量隐私泄露的风险,造成人们对人工智能的恐慌;(3)人工智能核心是技术,我国的技术人才以及科学技术本身尚未成熟,人工智能在发展的过程中也面临着法律与伦理的潜在性问题。
3.落实观点
人相对于人工智能最可贵之处就是能够独立思考,人工智能无论如何发展终究是人类思考的产物,绝对不能让人工智能做生活的主导者。所以既要关注到智能型人才队伍建设,还需要完善相应的法律法规,规范人工智能涉及的所有领域,促进人工智能更好的发展。更多备考资料查看:重庆事业单位招聘网返回搜狐,查看更多
责任编辑: