浅谈人工智能的伦理问题
浅谈人工智能的伦理问题
资料整理,仅供参考
引言2018 年3月 18日晚上 10 点左右,伊莱恩·赫兹伯格(ElaineHerzberg)骑着自行车穿过亚利桑那州坦佩市的一条街道,突然间被一辆自动驾驶汽车撞翻,最后不幸身亡。这是一辆无人自动驾驶汽车,尽管车上还有一位驾驶员,但车子由一个完全的自驾系统(人工智能)所控制。与其他涉及人与AI技术二者之间交互的事件一样,此事件引发了人们对人工智能中道德和法律问题的思考。系统的程序员必须履行什么道德义务来阻止其研发产品导致人类的生命受到威胁?谁对赫兹伯格的死负责?是该自动驾驶汽车公司测试部们?人工智能系统的设计者,甚至是机载传感设备的制造商?
关于人工智能的伦理讨论一直在进行,从人工智能研究的开始,重点主要集中在讨论可能性和对未来影响的理论工作,但对人工智能实际应用中研究讨论较少。尽管学术界对人工智能伦理道德的关系进行探讨已经持续了几十年,但并没有得出普遍的人工智能伦理是什么,甚至应该如何定义命名也没有统一规范化。近年来,随着社会科技技术的不断发展,人工智能的发展取得重大的突破。人工智能相关伦理研究讨论日益广泛,影响着我们的生活。在当前AI伦理受到越来越多讨论研究的背景下,本文主要通过对一些案例分析人工智能的伦理问题,结合本学期《工程伦理》课程所学,谈谈自己的理解与收获。
人工智能及其案例讨论分析“人工智能”被设计为一种为从环境中获取因素的系统,并基于这些外界的输入来解决问题,评估风险,做出预测并采取行动。在功能强大的计算机和大数据时代之前,这种系统是由人类通过一定的编程及结合特定规则实现,随着科学技术的不断进步,新的方法不断出现。其中之一是机器学习,这是目前AI最活跃最热门的领域。应用统计学的方法,允许系统从数据中“学习”并做出决策。关注技术的进步,我们更关注的是在极端情况下的伦理问题。例如在一些致命的军事无人机中使用AI技术,或者是AI技术可能导致全球金融体系崩溃的风险等。
对大量的数据进行汇总分析,我们可以利用AI技术帮助分析贷款申请人的信誉,决定是否给予贷款以及额度,同时也可以对应聘者进行评估,决定是否录取,还可以预测犯罪分子再次犯罪的几率等等。这些技术变革已经深刻影响着社会,改变着人们生活。但是,此类技术应用也会引发一些令人困扰的道德伦理问题,由于AI系统会增强他们从现实世界数据中学到的知识,甚至会放大对种族和性别偏见。因此,当遇到不熟悉的场景时,系统也会做出错误的判断。而且,由于许多这样的系统都是“黑匣子”,人们往往很难理解系统做出判断的内在原因,因此难以质疑或探究,给人们决策带来风险。举几个具体例子:2014年,亚马逊开发了一种招聘工具,用于识别招聘的软件工程师,结果该系统却表现出对妇女的歧视,最后该公司不得不放弃了该系统。2016年,ProPublica在对一项商业开发的系统进行了分析,该系统可预测罪犯再次犯罪的可能性,旨在帮助法官做出更好的量刑决定,结果也发现该系统对黑人有歧视偏见。在过去的两年中,自动驾驶汽车在依靠制定的规则和训练数据进行学习,然而面对陌生的场景或其系统无法识别的输入时,无法做出正确判断,从而导致致命事故。
由于这些系统被视为专有知识产权,因此该私人商业开发人员通常拒绝提供其代码以供审查。同时,技术的进步本身并不能解决AI核心的根本问题—经过深思熟虑设计的算法也必须根据特定的现实世界的输入做出决策。然而这些输入会有缺陷,并且不完善,具有不可预测性。计算机科学家比其他人更快地意识到,在设计了系统之后,不可能总是事后解决这些问题。越多人认识到道德伦理问题应该被当作在部署一个系统前所要考虑的一个问题。
对失业、不平衡问题的讨论与思考人工智能的重要的道德和伦理问题,既是社会风险的前沿,也是社会进步的前沿。我们讨论两个突出问题:失业、不平衡问题。
1.失业
几十年来,为了释放人类劳动,我们一直在制造模仿人类的机器,让机器替代我们更有效地执行日常任务。随着经济的飞速发展,自动化程度越来越高,大量新发明出现在我们生活中,使我们的生活变得更快,更轻松。当我们使用机器人替代我们人类完成任务,即让手工完成的工作变成自动化时,我们就释放了资源来创建与认知而非体力劳动有关的更复杂的角色。这就是为什么劳动力等级取决于工作是否可以自动化的原因(例如,大学教授的收入比水管工的收入还多)。麦肯锡公司最近的一份报告估计,到2030年,随着全球的自动化加速,接近8亿个工作岗位将会消失。例如,随着自动驾驶系统兴起,AI技术引发了人们对失业的忧虑,大量的卡车司机工作岗位可能受到威胁。我们人类将有史以来第一次开始在认知水平上与机器竞争。最可怕的是,它们比我们拥有更强大的能力。也有一些经济学家担心,作为人类的我们将无法适应这种社会,最终将会落后与机器。
2.不平衡
设想没有工作的未来会发生什么?目前社会的经济结构很简单:以补偿换取贡献。公司依据员工一定量的工作来支付其薪水。但是如果借助AI技术,公司可以大大减少其人力资源。因此,其总收入将流向更少的人。那些大规模使用新技术的公司,其少部分人将获得更高比例的工资,这导致贫富差距在不断扩大。在2008年,微软是唯一一家跻身全球十大最有价值公司的科技公司。苹果以39位居第二,谷歌以51位居第三。然而,到2018年,全球十大最有价值公司前五名均是美国科技公司。
当今世界,硅谷助长了“赢者通吃”的经济,一家独大的公司往往占据大部分市场份额。因此,由于难以访问数据,初创企业和规模较小的公司难以与Alphabet和Facebook之类的公司竞争(更多用户=更多数据,更多数据=更好的服务,更好的服务=更多的用户)。我们还发现一个现象,就是这些科技巨头创造的就业机会相比于市场上其他公司往往少很多。例如,1990年,底特律三大公司的市值达到650亿美元,拥有120万工人。而在2016年,硅谷三大公司的价值为1.5万亿美元,但只有190,000名员工。那么如今技能变得多余的工人将如何生存,这样趋势下去会不会引发社会暴乱,科技巨头应不应该承担更多的社会责任,这些都是值得我们思考的问题。
人工智能伦理问题建议由上文可知,缺乏对伦理的认知,会对社会及人类生活造成的一定风险,因此,为加强AI伦理因素在实际应用的正确导向作用,应从以下几个方面入手:
1.明确定义道德行为
AI研究人员和伦理学家需要将伦理价值表述为可量化的参数。换句话说,他们需要为机器提供明确的答案和决策规则,以应对其可能遇到的任何潜在的道德困境。这将要求人类在任何给定情况下就最道德的行动方针达成共识,这是一项具有挑战性但并非不可能的任务。例如,德国自动驾驶和互联驾驶道德委员会提出:建议将道德价值观编程到自动驾驶汽车中,以优先保护人类生命为重中之重。在不可避免的致命撞车事故发生时,汽车不应基于年龄,性别、身体或心理构造等个人特征来选择是否要杀死一个人。
2.众包人类道德伦理
工程师需要收集足够的关于明确道德伦理标准的数据,以适当地训练AI算法。即使在为道德价值观定义了特定的指标之后,如果没有足够的公正数据来训练模型,那么AI系统可能仍会难以取舍。获得适当的数据具有挑战性,因为道德伦理规范不能始终清晰地标准化。不同的情况需要采取不同的方针,在某些情况下可能根本没有单一的道德伦理行动方针。解决此问题的一种方法是将数百万人的道德伦理困境的潜在解决方案收集打包。例如,麻省理工学院的一个项目,其展示了如何在自动驾驶汽车的背景下使用众包数据来有效地训练机器以做出更好的道德决策。但研究结果还表明,全球道德价值观可能存在强烈的跨文化差异,在设计面向人的AI系统时也要注意考虑这一因素。
3.使AI系统更加透明
政策制定者需要实施指导方针,使关于伦理的AI决策,尤其是关于道德伦理指标和结果的决策更加透明。如果AI系统犯了错误或产生了不良后果,我们将不能接受“ 算法做到了 ”作为借口。但是我们也知道,要求完全算法透明性在技术上不是很有用。工程师在对道德价值进行编程之前应该考虑如何量化它们,以及考虑运用这些人工智能技术而产生的结果。例如,对于自动驾驶汽车,这可能意味着始终保留所有自动决策的详细日志,以确保其道德伦理责任。
结束语伦理问题的出现是工程活动发展的必然要求。以人工智能技术为基础的现代工程活动日益复杂,对自然和社会的影响越来越深刻。同时,作为工程活动中的关键角色,工程师群体在一定意义上具有改变世界的力量。正所谓“力量越大,责任也就越大”。工程师在一般的法律责任之外,还负有更重要的道德责任。作为AI领域的工程技术人员,不断创新人工智能技术的同时也要关注实际应用中的伦理道德,相信人工智能技术可以让世界变得更加美好!
人工智能未来的挑战与发展
原标题:人工智能未来的挑战与发展当前,在全球人工智能发展的浪潮中,中国在人工智能领域取得了令人瞩目的成绩。在新一轮生产力革命人工智能带动了人类分工深化的历史趋势,应认清其中的机遇与挑战。
挑战
1、对中国来说,在基础科学、关键技术研发上一旦受制于人,面临生产力重新落后的危险。
人工智能目前处于发展中阶段,几乎每一类发展中事物的共性都是缺乏探索经验。人工智能会影响就业结构,这是由于它对人类工作的替代性。从某些程度上,它能够促使劳动者提高自身素质,适应新的就业大环境。但是人工智能发展如果太过迅猛,很可能会导致劳动者在猝不及防的状况下失业。
2、对全球来说,机器智能一旦在某些方面超过人类,带来不可测、不可控的风险。
人工智能面临技术失控问题,这个早就是社会热点了。任何科学技术的发展最大的威胁就是超出人类的控制,如果人工智能具备独立思考的能力,形成属于自己的文明,反客为主,那不仅与人工智能发展理念相悖,人类的未来也将不再乐观。人工智能对人类的潜在威胁,被科学家广泛议论,目前仍待商榷。
3、人工智能作为一个处于发展中的新兴技术,到目前为止还不够成熟。例如,我们目前所能看到的大部分系统还停留在规则的引擎阶段,人工智能最大的优势在于深度学习,需要大量的案例和经验来对人工智能系统进行训练,这就需要相关的人才,但就当前来看,精通软件的工程师不了解保险行业日新月异的规则,而企业又缺少精通人工智能的软件工程师。
4、在各大领域,诸如智能顾问、产品精准营销等人工智能技术,都需要海量的用户数据。而对于新成立的初创企业来说,其所拥有的数据远远不够应用层面所需要的量。此外,由于数据一直以来都被认为是核心机密,共享性较弱,即便是从已经有多年业务历史的传统公司层面看,依旧存在着割裂性的问题,几乎没有哪家公司拥有完整的用户数据。
发展
人工智能已经发展了很长时间,它在未来的发展问题是该学科有关研究人员讨论的重点,从现阶段的发展情况来说,未来人工智能可能会朝着以下几个方向发展。
1、更好地为人类服务
人工智能本质上是模拟人的意识、思维的信息过程。虽然未来的机器人能够像人类一样思考,但总体而言,并不能完全与人类的思维保持一致,人工智能主要还是为人类服务为主,主动将意向客户分类,后方便我们去跟进。在这种情况下,人类需要树立终身学习的思想,不断充实自己,以免过分依赖于人工智能。
2、与人类平等
一旦人工智能具有人类的基本特征,它们拥有自己的感情,人类就不能将其作为自己的所属物,肆意地要求人工智能为自己提供各种服务,与人类相比,人工智能的学习能力非常强,人类受到各种因素的影响,存在着许多消极心理,比如懒惰、依赖性强,在这种情况下,人类比较容易被人工智能淘汰,人类在发展过程中需要付出更多的努力,不断挖掘自身的潜力,才能够维持与人工智能的平等地位。
3、毁灭人类
任何科学技术的发展都具有一定的风险,人工智能发展过程中可能会出现无法预测的质变,导致人工智能拥有与人类完全一致的思维方式,超过人类的智慧,易出现违反人类道德但与逻辑相符的情况。这必然会对人类的发展带来严重的危机。除此之外,还有一种可能,即人类依赖于人工智能的便利,产生严重的依赖心理,最终导致许多基本的生产能力丧失,导致人类毁灭。返回搜狐,查看更多
责任编辑:人工智能的伦理挑战
原标题:人工智能的伦理挑战控制论之父维纳在他的名著《人有人的用处》中曾在谈到自动化技术和智能机器之后,得出了一个危言耸听的结论:“这些机器的趋势是要在所有层面上取代人类,而非只是用机器能源和力量取代人类的能源和力量。很显然,这种新的取代将对我们的生活产生深远影响。”维纳的这句谶语,在今天未必成为现实,但已经成为诸多文学和影视作品中的题材。《银翼杀手》《机械公敌》《西部世界》等电影以人工智能反抗和超越人类为题材,机器人向乞讨的人类施舍的画作登上《纽约客》杂志2017年10月23日的封面……人们越来越倾向于讨论人工智能究竟在何时会形成属于自己的意识,并超越人类,让人类沦为它们的奴仆。
一
维纳的激进言辞和今天普通人对人工智能的担心有夸张的成分,但人工智能技术的飞速发展的确给未来带来了一系列挑战。其中,人工智能发展最大的问题,不是技术上的瓶颈,而是人工智能与人类的关系问题,这催生了人工智能的伦理学和跨人类主义的伦理学问题。准确来说,这种伦理学已经与传统的伦理学旨趣发生了较大的偏移,其原因在于,人工智能的伦理学讨论的不再是人与人之间的关系,也不是与自然界的既定事实(如动物,生态)之间的关系,而是人类与自己所发明的一种产品构成的关联,由于这种特殊的产品――根据未来学家库兹威尔在《奇点临近》中的说法――一旦超过了某个奇点,就存在彻底压倒人类的可能性,在这种情况下,人与人之间的伦理是否还能约束人类与这个超越奇点的存在之间的关系?
实际上,对人工智能与人类之间伦理关系的研究,不能脱离对人工智能技术本身的讨论。在人工智能领域,从一开始,准确来说是依从着两种完全不同的路径来进行的。
首先,是真正意义上的人工智能的路径,1956年,在达特茅斯学院召开了一次特殊的研讨会,会议的组织者约翰・麦卡锡为这次会议起了一个特殊的名字:人工智能(简称AI)夏季研讨会。这是第一次在学术范围内使用“人工智能”的名称,而参与达特茅斯会议的麦卡锡和明斯基等人直接将这个名词作为一个新的研究方向的名称。实际上,麦卡锡和明斯基思考的是,如何将我们人类的各种感觉,包括视觉、听觉、触觉,甚至大脑的思考都变成称作“信息论之父”的香农意义上的信息,并加以控制和应用。这一阶段上的人工智能的发展,在很大程度上还是对人类行为的模拟,其理论基础来自德国哲学家莱布尼茨的设想,即将人类的各种感觉可以转化为量化的信息数据,也就是说,我们可以将人类的各种感觉经验和思维经验看成是一个复杂的形式符号系统,如果具有强大的信息采集能力和数据分析能力,就能完整地模拟出人类的感觉和思维。这也是为什么明斯基信心十足地宣称:“人的脑子不过是肉做的电脑。”麦卡锡和明斯基不仅成功地模拟出视觉和听觉经验,后来的特里・谢伊诺斯基和杰弗里・辛顿也根据对认知科学和脑科学的最新进展,发明了一个“NETtalk”的程序,模拟了类似于人的“神经元”的网络,让该网络可以像人的大脑一样进行学习,并能够做出简单的思考。
然而,在这个阶段中,所谓的人工智能在更大程度上都是在模拟人的感觉和思维,让一种更像人的思维机器能够诞生。著名的图灵测试,也是在是否能够像人一样思考的标准上进行的。图灵测试的原理很简单,让测试一方和被测试一方彼此分开,只用简单的对话来让处在测试一方的人判断,被测试方是人还是机器,如果有30%的人无法判断对方是人还是机器时,则代表通过了图灵测试。所以,图灵测试的目的,仍然在检验人工智能是否更像人类。但是,问题在于,机器思维在作出自己的判断时,是否需要人的思维这个中介?也就是说,机器是否需要先绕一个弯路,即将自己的思维装扮得像一个人类,再去作出判断?显然,对于人工智能来说,答案是否定的,因为如果人工智能是用来解决某些实际问题,它们根本不需要让自己经过人类思维这个中介,再去思考和解决问题。人类的思维具有一定的定势和短板,强制性地模拟人类大脑思维的方式,并不是人工智能发展的良好选择。
二
所以,人工智能的发展走向了另一个方向,即智能增强(简称IA)上。如果模拟真实的人的大脑和思维的方向不再重要,那么,人工智能是否能发展出一种纯粹机器的学习和思维方式?倘若机器能够思维,是否能以机器本身的方式来进行。这就出现了机器学习的概念。机器学习的概念,实际上已经成为发展出属于机器本身的学习方式,通过海量的信息和数据收集,让机器从这些信息中提出自己的抽象观念,例如,在给机器浏览了上万张猫的图片之后,让机器从这些图片信息中自己提炼出关于猫的概念。这个时候,很难说机器自己抽象出来的猫的概念,与人类自己理解的猫的概念之间是否存在着差别。不过,最关键的是,一旦机器提炼出属于自己的概念和观念之后,这些抽象的概念和观念将会成为机器自身的思考方式的基础,这些机器自己抽象出来的概念就会形成一种不依赖于人的思考模式网络。当我们讨论打败李世石的阿尔法狗时,我们已经看到了这种机器式思维的凌厉之处,这种机器学习的思维已经让通常意义上的围棋定势丧失了威力,从而让习惯于人类思维的棋手瞬间崩溃。一个不再像人一样思维的机器,或许对于人类来说,会带来更大的恐慌。毕竟,模拟人类大脑和思维的人工智能,尚具有一定的可控性,但基于机器思维的人工智能,我们显然不能作出上述简单的结论,因为,根据与人工智能对弈之后的棋手来说,甚至在多次复盘之后,他们仍然无法理解像阿尔法狗这样的人工智能如何走出下一步棋。
不过,说智能增强技术是对人类的取代,似乎也言之尚早,至少第一个提出“智能增强”的工程师恩格尔巴特并不这么认为。对于恩格尔巴特来说,麦卡锡和明斯基的方向旨在建立机器和人类的同质性,这种同质性思维模式的建立,反而与人类处于一种竞争关系之中,这就像《西部世界》中那些总是将自己当成人类的机器人一样,他们谋求与人类平起平坐的关系。智能增强技术的目的则完全不是这样,它更关心的是人与智能机器之间的互补性,如何利用智能机器来弥补人类思维上的不足。比如自动驾驶技术就是一种典型的智能增强技术,自动驾驶技术的实现,不仅是在汽车上安装了自动驾驶的程序,更关键地还需要采集大量的地图地貌信息,还需要自动驾驶的程序能够在影像资料上判断一些移动的偶然性因素,如突然穿过马路的人。自动驾驶技术能够取代容易疲劳和分心的驾驶员,让人类从繁重的驾驶任务中解放出来。同样,在分拣快递、在汽车工厂里自动组装的机器人也属于智能增强类性质的智能,它们不关心如何更像人类,而是关心如何用自己的方式来解决问题。
三
这样,由于智能增强技术带来了两种平面,一方面是人类思维的平面,另一方面是机器的平面,所以,两个平面之间也需要一个接口技术。接口技术让人与智能机器的沟通成为可能。当接口技术的主要开创者费尔森斯丁来到伯克利大学时,距离恩格尔巴特在那里讨论智能增强技术已经有10年之久。费尔森斯丁用犹太神话中的一个形象――土傀儡――来形容今天的接口技术下人与智能机器的关系,与其说今天的人工智能在奇点临近时,旨在超越和取代人类,不如说今天的人工智能技术越来越倾向于以人类为中心的傀儡学,在这种观念的指引下,今天的人工智能的发展目标并不是产生一种独立的意识,而是如何形成与人类交流的接口技术。在这个意义上,我们可以从费尔森斯丁的傀儡学角度来重新理解人工智能与人的关系的伦理学,也就是说,人类与智能机器的关系,既不是纯粹的利用关系,因为人工智能已经不再是机器或软件,也不是对人的取代,成为人类的主人,而是一种共生性的伙伴关系。当苹果公司开发与人类交流的智能软件Siri时,乔布斯就提出Siri是人类与机器合作的一个最朴实、最优雅的模型。以后,我们或许会看到,当一些国家逐渐陷入老龄化社会之后,无论是一线的生产,还是对这些因衰老而无法行动的老人的照料,或许都会面对这样的人与智能机器的接口技术问题,这是一种人与人工智能之间的新伦理学,他们将构成一种跨人类主义,或许,我们在这种景象中看到的不一定是伦理的灾难,而是一种新的希望。
(作者:蓝江,系南京大学哲学系教授)
2023年人工智能领域发展七大趋势
2022年人工智能领域发展七大趋势
有望在网络安全和智能驾驶等领域“大显身手”
人工智能已成为人类有史以来最具革命性的技术之一。“人工智能是我们作为人类正在研究的最重要的技术之一。它对人类文明的影响将比火或电更深刻”。2020年1月,谷歌公司首席执行官桑达尔·皮查伊在瑞士达沃斯世界经济论坛上接受采访时如是说。
美国《福布斯》网站在近日的报道中指出,尽管目前很难想象机器自主决策所产生的影响,但可以肯定的是,当时光的车轮到达2022年时,人工智能领域新的突破和发展将继续拓宽我们的想象边界,其将在7大领域“大显身手”。
增强人类的劳动技能
人们一直担心机器或机器人将取代人工,甚至可能使某些工种变得多余。但人们也将越来越多地发现,人类可借助机器来提升自身技能。
比如,营销部门已习惯使用工具来帮助确定哪些潜在客户更值得关注;在工程领域,人工智能工具通过提供维护预测,让人们提前知道机器何时需要维修;法律等知识型行业将越来越多地使用人工智能工具,帮助人们对不断增长的可用数据中进行分类,以找到完成特定任务所需的信息。
总而言之,在几乎每个职业领域,各种智能工具和服务正在涌现,以帮助人们更有效地完成工作。2022年人工智能与人们日常生活的联系将会变得更加紧密。
更大更好的语言建模
语言建模允许机器以人类理解的语言与人类互动,甚至可将人类自然语言转化为可运行的程序及计算机代码。
2020年中,人工智能公司OpenAI发布了第三代语言预测模型GPT—3,这是科学家们迄今创建的最先进也是最大的语言模型,由大约1750亿个“参数”组成,这些“参数”是机器用来处理语言的变量和数据点。
众所周知,OpenAI正在开发一个更强大的继任者GPT—4。尽管细节尚未得到证实,但一些人估计,它可能包含多达100万亿个参数(与人脑的突触一样多)。从理论上讲,它离创造语言以及进行人类无法区分的对话更近了一大步。而且,它在创建计算机代码方面也会变得更好。
网络安全领域的人工智能
今年1月,世界经济论坛发布《2021年全球风险格局报告》,认为网络安全风险是全世界今后将面临的一项重大风险。
随着机器越来越多地占据人们的生活,黑客和网络犯罪不可避免地成为一个更大的问题,这正是人工智能可“大展拳脚”的地方。
人工智能正在改变网络安全的游戏规则。通过分析网络流量、识别恶意应用,智能算法将在保护人类免受网络安全威胁方面发挥越来越大的作用。2022年,人工智能的最重要应用可能会出现在这一领域。人工智能或能通过从数百万份研究报告、博客和新闻报道中分析整理出威胁情报,即时洞察信息,从而大幅加快响应速度。
人工智能与元宇宙
元宇宙是一个虚拟世界,就像互联网一样,重点在于实现沉浸式体验,自从马克·扎克伯格将脸书改名为“Meta”(元宇宙的英文前缀)以来,元宇宙话题更为火热。
人工智能无疑将是元宇宙的关键。人工智能将有助于创造在线环境,让人们在元宇宙中体会宾至如归的感觉,培养他们的创作冲动。人们或许很快就会习惯与人工智能生物共享元宇宙环境,比如想要放松时,就可与人工智能打网球或玩国际象棋游戏。
低代码和无代码人工智能
2020年,低代码/无代码人工智能工具异军突起并风靡全球,从构建应用程序到面向企业的垂直人工智能解决方案等应用不一而足。这股新鲜势力有望在2022年持续发力。数据显示,低代码/无代码工具将成为科技巨头们的下一个战斗前线,这是一个总值达132亿美元的市场,预计到2025年其总值将进一步提升至455亿美元。
美国亚马逊公司2020年6月发布的Honeycode平台就是最好的证明,该平台是一种类似于电子表格界面的无代码开发环境,被称为产品经理们的“福音”。
自动驾驶交通工具
数据显示,每年有130万人死于交通事故,其中90%是人为失误造成的。人工智能将成为自动驾驶汽车、船舶和飞机的“大脑”,正在改变这些行业。
特斯拉公司表示,到2022年,其生产的汽车将拥有完全的自动驾驶能力。谷歌、苹果、通用和福特等公司也有可能在2022年宣布在自动驾驶领域的重大飞跃。
此外,由非营利的海洋研究组织ProMare及IBM共同打造的“五月花”号自动驾驶船舶(MAS)已于2020年正式起航。IBM表示,人工智能船长让MAS具备侦测、思考与决策的能力,能够扫描地平线以发觉潜在危险,并根据各种即时数据来变更路线。2022年,自动驾驶船舶技术也将更上一层楼。
创造性人工智能
在GPT—4谷歌“大脑”等新模型的加持下,人们可以期待人工智能提供更加精致、看似“自然”的创意输出。谷歌“大脑”是GoogleX实验室的一个主要研究项目,是谷歌在人工智能领域开发出的一款模拟人脑具备自我学习功能的软件。
2022年,这些创意性输出通常不是为了展示人工智能的潜力,而是为了应用于日常创作任务,如为文章和时事通讯撰写标题、设计徽标和信息图表等。创造力通常被视为一种非常人性化的技能,但人们将越来越多地看到这些能力出现在机器上。(记者刘霞)
【纠错】【责任编辑:吴咏玲】