2023年人工智能领域发展七大趋势
2022年人工智能领域发展七大趋势
有望在网络安全和智能驾驶等领域“大显身手”
人工智能已成为人类有史以来最具革命性的技术之一。“人工智能是我们作为人类正在研究的最重要的技术之一。它对人类文明的影响将比火或电更深刻”。2020年1月,谷歌公司首席执行官桑达尔·皮查伊在瑞士达沃斯世界经济论坛上接受采访时如是说。
美国《福布斯》网站在近日的报道中指出,尽管目前很难想象机器自主决策所产生的影响,但可以肯定的是,当时光的车轮到达2022年时,人工智能领域新的突破和发展将继续拓宽我们的想象边界,其将在7大领域“大显身手”。
增强人类的劳动技能
人们一直担心机器或机器人将取代人工,甚至可能使某些工种变得多余。但人们也将越来越多地发现,人类可借助机器来提升自身技能。
比如,营销部门已习惯使用工具来帮助确定哪些潜在客户更值得关注;在工程领域,人工智能工具通过提供维护预测,让人们提前知道机器何时需要维修;法律等知识型行业将越来越多地使用人工智能工具,帮助人们对不断增长的可用数据中进行分类,以找到完成特定任务所需的信息。
总而言之,在几乎每个职业领域,各种智能工具和服务正在涌现,以帮助人们更有效地完成工作。2022年人工智能与人们日常生活的联系将会变得更加紧密。
更大更好的语言建模
语言建模允许机器以人类理解的语言与人类互动,甚至可将人类自然语言转化为可运行的程序及计算机代码。
2020年中,人工智能公司OpenAI发布了第三代语言预测模型GPT—3,这是科学家们迄今创建的最先进也是最大的语言模型,由大约1750亿个“参数”组成,这些“参数”是机器用来处理语言的变量和数据点。
众所周知,OpenAI正在开发一个更强大的继任者GPT—4。尽管细节尚未得到证实,但一些人估计,它可能包含多达100万亿个参数(与人脑的突触一样多)。从理论上讲,它离创造语言以及进行人类无法区分的对话更近了一大步。而且,它在创建计算机代码方面也会变得更好。
网络安全领域的人工智能
今年1月,世界经济论坛发布《2021年全球风险格局报告》,认为网络安全风险是全世界今后将面临的一项重大风险。
随着机器越来越多地占据人们的生活,黑客和网络犯罪不可避免地成为一个更大的问题,这正是人工智能可“大展拳脚”的地方。
人工智能正在改变网络安全的游戏规则。通过分析网络流量、识别恶意应用,智能算法将在保护人类免受网络安全威胁方面发挥越来越大的作用。2022年,人工智能的最重要应用可能会出现在这一领域。人工智能或能通过从数百万份研究报告、博客和新闻报道中分析整理出威胁情报,即时洞察信息,从而大幅加快响应速度。
人工智能与元宇宙
元宇宙是一个虚拟世界,就像互联网一样,重点在于实现沉浸式体验,自从马克·扎克伯格将脸书改名为“Meta”(元宇宙的英文前缀)以来,元宇宙话题更为火热。
人工智能无疑将是元宇宙的关键。人工智能将有助于创造在线环境,让人们在元宇宙中体会宾至如归的感觉,培养他们的创作冲动。人们或许很快就会习惯与人工智能生物共享元宇宙环境,比如想要放松时,就可与人工智能打网球或玩国际象棋游戏。
低代码和无代码人工智能
2020年,低代码/无代码人工智能工具异军突起并风靡全球,从构建应用程序到面向企业的垂直人工智能解决方案等应用不一而足。这股新鲜势力有望在2022年持续发力。数据显示,低代码/无代码工具将成为科技巨头们的下一个战斗前线,这是一个总值达132亿美元的市场,预计到2025年其总值将进一步提升至455亿美元。
美国亚马逊公司2020年6月发布的Honeycode平台就是最好的证明,该平台是一种类似于电子表格界面的无代码开发环境,被称为产品经理们的“福音”。
自动驾驶交通工具
数据显示,每年有130万人死于交通事故,其中90%是人为失误造成的。人工智能将成为自动驾驶汽车、船舶和飞机的“大脑”,正在改变这些行业。
特斯拉公司表示,到2022年,其生产的汽车将拥有完全的自动驾驶能力。谷歌、苹果、通用和福特等公司也有可能在2022年宣布在自动驾驶领域的重大飞跃。
此外,由非营利的海洋研究组织ProMare及IBM共同打造的“五月花”号自动驾驶船舶(MAS)已于2020年正式起航。IBM表示,人工智能船长让MAS具备侦测、思考与决策的能力,能够扫描地平线以发觉潜在危险,并根据各种即时数据来变更路线。2022年,自动驾驶船舶技术也将更上一层楼。
创造性人工智能
在GPT—4谷歌“大脑”等新模型的加持下,人们可以期待人工智能提供更加精致、看似“自然”的创意输出。谷歌“大脑”是GoogleX实验室的一个主要研究项目,是谷歌在人工智能领域开发出的一款模拟人脑具备自我学习功能的软件。
2022年,这些创意性输出通常不是为了展示人工智能的潜力,而是为了应用于日常创作任务,如为文章和时事通讯撰写标题、设计徽标和信息图表等。创造力通常被视为一种非常人性化的技能,但人们将越来越多地看到这些能力出现在机器上。(记者刘霞)
【纠错】【责任编辑:吴咏玲】观点|当前公众对人工智能的认识、担忧与期待
公众对人工智能应用领域的关注度普遍较高,38.54%的受访者表示非常关注,32.89%的受访者表示比较关注,仅有11.19%的受访者表示不太关注或完全不关注。从受访者行业分析,对人工智能应用领域整体关注度最高的是互联网相关行业,表示关注的受访者人数占比为95.02%;整体关注度最低的是学生群体,表示“完全不关注”和“不太关注”的受访者占比15.21%。
当问及“您对人工智能相关的哪些内容比较感兴趣”时,选择“自动支付、智能家居等对工作、生活的帮助”的受访者人数占比最高(48.40%),其次是“技术垄断、军事应用等对经济格局和国际关系的影响”(45.36%),“自动驾驶故障、个人信息曝光等引发的法律归责问题”(44.59%),“知识处理系统、自动程序设计等技术理论”(43.05%),“机器会不会控制、主宰人类等未来话题”(41.29%),“自动化替代对人类就业的影响”(39.49%),“在商业、医疗、教育等领域的应用”(38.32%),“机器人有没有生命和情感等伦理问题”(35.50%),还有33.22%的受访者较为关注人工智能的相关学科体系及就业前景。
中国人工智能在论文总量和高被引论文数量上已经位列第一,在专利上,中国已经成为全球人工智能专利布局最多的国家。本次调查结果显示,公众对中国人工智能发展水平在国际的地位评价最高的是人工智能产品,评分为3.91分(满分5分),其次为重大原创成果(3.90)、国际科技论文发表(3.87)、核心关键技术(3.87)和发明专利授权(3.86)。我们将受访者根据“是否从事人工智能相关工作”的标准划分为两类群体,人工智能相关工作的从业者对中国人工智能发展整体水平在国际的地位评价高于非从业者,两类群体评价的平均分别为3.99分和3.68分。
重要发现3:
超半数受访者已经感受到了人工智能对自己所处行业的冲击,认为自己正在或将要从事的行业不会被取代的受访者仅占1/5
本次调查结果显示,61.08%的受访者认为人工智能将会造成劳动力过剩和大量失业,55.41%的受访者表示已经感受到了人工智能对自己所处行业的冲击。当问及“您认为您当前的职业/想要从事的职业会被人工智能取代吗”时,超八成受访者认为自己从事的职业会被人工智能取代。11.57%的受访者认为自己正在或将要从事的行业“已经开始部分被取代”;10.55%的受访者认为自己正在或将要从事的行业“2年以内会被取代”;30.28%的受访者认为自己正在或将要从事的行业“5~10年内会被取代”;还有28.16%的受访者认为自己正在或将要从事的行业“20年内会被取代”;最后,认为自己正在或将要从事的行业“不会被取代”的受访者人数占比19.44%。
从行业领域角度分析,我们发现,认为人工智能会造成劳动力过剩和大量失业的受访者中,从事建造业、交通运输业、住宿、餐饮业的人数占比最高,认为人工智能不会造成劳动力过剩和大量失业的受访者中,从事制造业、休闲娱乐业、互联网相关行业的人数占比最高。而当问及“您认为您当前的职业/想要从事的职业会被人工智能取代吗”时,认为自己的职业不会被取代的受访者中,从事制造业、房地产相关行业、文体教育业的人数占比最高。
(摘自《公务员文萃》2019年第6期)
稿件来源:《人民论坛》
责任编辑:笺迟
新媒体编辑:少时返回搜狐,查看更多
人工智能的发展与未来
随着人工智能(artificialintelligent,AI)技术的不断发展,各种AI产品已经逐步进入了我们的生活。
现如今,各种AI产品已经逐步进入了我们的生活|Pixabay
19世纪,作为人工智能和计算机学科的鼻祖,数学家查尔斯·巴贝奇(CharlesBabbage)与艾达·洛夫莱斯(AdaLovelace)尝试着用连杆、进位齿轮和打孔卡片制造人类最早的可编程数学计算机,来模拟人类的数理逻辑运算能力。
20世纪初期,随着西班牙神经科学家拉蒙-卡哈尔(RamónyCajal)使用高尔基染色法对大脑切片进行显微观察,人类终于清晰地意识到,我们几乎全部思维活动的基础,都是大脑中那些伸出细长神经纤维、彼此连接成一张巨大信息网络的特殊神经细胞——神经元。
至此,尽管智能的具体运作方式还依然是个深不见底的迷宫,但搭建这个迷宫的砖瓦本身,对于人类来说已经不再神秘。
智能,是一种特殊的物质构造形式。
就像文字既可以用徽墨写在宣纸上,也可以用凿子刻在石碑上,智能,也未必需要拘泥于载体。随着神经科学的启迪和数学上的进步,20世纪的计算机科学先驱们意识到,巴贝奇和艾达试图用机械去再现人类智能的思路,在原理上是完全可行的。因此,以艾伦·图灵(AlanTuring)为代表的新一代学者开始思考,是否可以用二战后新兴的电子计算机作为载体,构建出“人工智能”呢?
图灵在1950年的论文《计算机器与智能(ComputingMachineryandIntelligence)》中,做了一个巧妙的“实验”,用以说明如何检验“人工智能”。
英国数学家,计算机学家图灵
这个“实验”也就是后来所说的“图灵测试(Turingtest)”:一名人类测试者将通过键盘和显示屏这样不会直接暴露身份的方式,同时与一名人类和一台计算机进行“网聊”,当人类测试者中有七成都无法正确判断交谈的两个“人”孰真孰假时,就认为这个计算机已经达到了“人工智能”的标准。
虽然,图灵测试只是一个启发性的思想实验,而非可以具体执行的判断方法,但他却通过这个假设,阐明了“智能”判断的模糊性与主观性。而他的判断手段,则与当时心理学界崛起的斯纳金的“行为主义”不谋而合。简而言之,基于唯物主义的一元论思维,图灵和斯金纳都认为,智能——甚至所有思维活动,都只是一套信息处理系统对外部刺激做出反应的运算模式。因此,对于其他旁观者来说,只要两套系统在面对同样的输入时都能够输出一样的反馈,就可以认为他们是“同类”。
1956年,人工智能正式成为了一个科学上的概念,而后涌现了很多新的研究目标与方向。比如说,就像人们在走迷宫遇到死胡同时会原路返回寻找新的路线类似,工程师为了使得人工智能达成某种目标,编写出了一种可以进行回溯的算法,即“搜索式推理”。
而工程师为了能用人类语言与计算机进行“交流”,又构建出了“语义网”。由此第一个会说英语的聊天机器人ELIZA诞生了,不过ELIZA仅仅只能按照固定套路进行作答。
而在20世纪60年代后期,有学者指出人工智能应该简化自己的模型,让人工智能更好的学习一些基本原则。在这一思潮的影响下,人工智能开始了新一轮的发展,麻省理工学院开发了一种早期的自然语言理解计算机程序,名为SHRDLU。工程师对SHRDLU的程序积木世界进行了极大的简化,里面所有物体和位置的集合可以用大约50个单词进行描述。模型极简化的成果,就是其内部语言组合数量少,程序基本能够完全理解用户的指令意义。在外部表现上,就是用户可以与装载了SHRDLU程序的电脑进行简单的对话,并可以用语言指令查询、移动程序中的虚拟积木。SHRDLU一度被认为是人工智能的成功范例,但当工程师试图将这个系统用来处理现实生活中的一些问题时,却惨遭滑铁卢。
而这之后,人工智能的发展也与图灵的想象有所不同。
现实中的人工智能发展,并未在模仿人类的“通用人工智能(也称强人工智能)”上集中太多资源。相反,人工智能研究自正式诞生起,就专注于让计算机通过“机器学习”来自我优化算法,最后形成可以高效率解决特定问题的“专家系统”。由于这些人工智能只会在限定好的狭窄领域中发挥作用,不具备、也不追求全面复杂的认知能力,因此也被称为“弱人工智能”。
但是无论如何,这些可以高效率解决特定问题的人工智能,在解放劳动力,推动现代工厂、组织智能化管理上都起到了关键作用。而随着大数据、云计算以及其他先进技术的发展,人工智能正在朝着更加多远,更加开放的方向发展。随着系统收集的数据量增加,AI算法的完善,以及相关芯片处理能力的提升,人工智能的应用也将逐渐从特定的碎片场景转变为更加深度、更加多元的应用场景。
人工智能让芯片的处理能力得以提升|Pixabay
从小的方面来看,人工智能其实已经渐渐渗透进了我们生活的方方面面。比如喊一声就能回应你的智能语音系统,例如siri,小爱同学;再比如在超市付款时使用的人脸识别;抑或穿梭在餐厅抑或酒店的智能送餐机器人,这些其实都是人工智能的应用实例。而从大的方面来看,人工智能在制造、交通、能源及互联网行业的应用正在逐步加深,推动了数字经济生态链的构建与发展。
虽然脑科学与人工智能之间仍然存在巨大的鸿沟,通用人工智能仍然像个科幻梦,但就像萧伯纳所说的那样“科学始终是不公道的,如果它不提出十个问题,也永远无法解决一个问题。”科学总是在曲折中前进,而我们只要保持在不断探索中,虽无法预测是否能达到既定的目的地,但途中终归会有收获。
参考文献
[1]王永庆.人工智能原理与方法[M].西安交通大学出版社,1998.
[2]Russell,StuartJ.ArtificialIntelligence:AModernApproach[J].人民邮电出版社,2002.
[3]GabbayDM,HoggerCJ,RobinsonJA,etal.Handbookoflogicinartificialintelligenceandlogicprogramming.Vol.1:Logicalfoundations.,1995.
[4]胡宝洁,赵忠文,曾峦,张永继.图灵机和图灵测试[J].电脑知识与技术:学术版,2006(8):2.
[5]赵楠,缐珊珊.人工智能应用现状及关键技术研究[J].中国电子科学研究院学报,2017,12(6):3.
[6]GeneserethMR,NilssonNJ.LogicalFoundationofArtificialIntelligence[J].brainbroadresearchinartificialintelligence&neuroscience,1987
作者:张雨晨
编辑:韩越扬
[责编:赵宇豪]人工智能可能有自主意识了吗
➤大模型、大数据的驱动让人工智能在对话的自然度、趣味性上有了很大突破,但距离具备自主意识还很远。换言之,即便人工智能可以对人类的语言、表情所传递的情绪作出判断,但这主要应用的是自然语言处理、计算机视觉等技术
➤不同于当前依赖数据学习的技术路线,新一代人工智能强调在没有经过数据学习的情况下,可以通过推理作出合理反应,从而与没有见过、没有学过的事物展开交互
➤当前人工智能治理面临的最大挑战,是我们没有一套比较成熟的体系来规制其潜在的风险。在发展科技的同时,必须同步发展我们的规制体系
➤“技术归根结底是由人类来发展和把控的。人类和人工智能的未来,是由人类选择的。”
今年6月,美国谷歌公司软件工程师布莱克·勒莫因称语言模型LaMDA出现自我意识。他认为,LaMDA拥有七八岁孩童的智力,并相信LaMDA正在争取自己作为一个人的权利。
LaMDA是谷歌去年发布的一款专门用于对话的语言模型,主要功能是可以与人类交谈。
为佐证观点,勒莫因把自己和LaMDA的聊天记录上传至互联网。随后,谷歌以违反保密协议为由对其停职。谷歌表示,没有任何证据支持勒莫因的观点。
事实上,“AI(人工智能)是否拥有自主意识”一直争议不休。此次谷歌工程师和LaMDA的故事,再次引发讨论。人们想知道:人工智能技术究竟发展到了怎样的阶段?是否真的具备自主意识?其判定依据是什么?未来我们又该以怎样的能力和心态与人工智能和谐共处?
人工智能自主意识之辨勒莫因认为LaMDA具有意识的原因有三:一是LaMDA以前所未有的方式高效、创造性地使用语言;二是它以与人类相似的方式分享感觉;三是它会表达内省和想象,既会担忧未来,也会追忆过去。
受访专家告诉《瞭望》新闻周刊记者,上述现象仅仅是因为LaMDA所基于的Transformer架构能够联系上下文,进行高精度的人类对话模拟,故能应对人类开放、发散的交谈。
至于人工智能是否已经具备自主意识,判定标准如何,受访专家表示,对人类意识的探索目前仍属于科技前沿,尚未形成统一定义。
清华大学北京信息科学与技术国家研究中心助理研究员郭雨晨说:“我们说人有自主意识,是因为人知道自己在干什么。机器则不一样,你对它输入内容,它只是依照程序设定进行反馈。”
中国社会科学院科学技术哲学研究室主任段伟文认为,一般意义上,人的自我意识是指对自我具备觉知,但如何认识和理解人类意识更多还是一个哲学问题而不是科学问题,这也是很难明确定义人工智能是否具备意识的原因。
被誉为“计算机科学与人工智能之父”的艾伦·图灵,早在1950年就曾提出图灵测试——如果一台机器能够与人类展开对话而不能被辨别出其机器身份,那么可以称这台机器具有智能。
这一设想随后被具化为,如果有超过30%参与测试的人以为自己在和人说话而非计算机,就可以认为“机器会思考”。
当前随着技术的发展,已经有越来越多的机器能够通过图灵测试。
但清华大学人工智能国际治理研究院副院长梁正告诉《瞭望》新闻周刊记者,图灵测试只能证明机器在表象上可以做到让人无法分辨它与人类的不同,却不能证明机器能够思考,更不能证明机器具备自主意识。
段伟文表示,目前大体有两种方式判定人工智能是否具有自主意识,一种以人类意识为参照,另一种则试图对机器意识进行全新定义。
若以人类意识为参照,要观察机器能否像人一样整合信息。“比如你在阳光下,坐在河边的椅子上看书,有树影落在脸上,有风吹来,它们会带给你一种整体的愉悦感。而对机器来说,阳光、河流、椅子等,是分散的单一元素。”段伟文说。
不仅如此,段伟文说,还要观察机器能否像人一样将单一事件放在全局中思考,作出符合全局利益的决策。
若跳出人类构建自主意识的范式,对机器意识进行重新定义,则需要明白意识的本质是什么。
段伟文告诉记者,有理论认为如果机器与机器之间形成了灵活、独立的交互,则可以称机器具备意识。也有理论认为,可以不追究机器的内心,仅仅把机器当作行为体,从机器的行为表现判断它是否理解所做事情的意义。“比如机器人看到人类喝咖啡后很精神,下次当它观察到人类的疲惫,能不能想到要为人类煮一杯咖啡?”段伟文说。
但在段伟文看来,这些对机器意识进行重新定义的理论,其问题出在,即便能够证明机器可以交互对话、深度理解,但是否等同于具备自主意识尚未有定论。“以LaMDA为例,虽然能够生成在人类看来更具意义的对话,甚至人可以与机器在对话中产生共情,但其本质仍然是在数据采集、配对、筛选机制下形成的反馈,并不代表模型能够理解对话的意义。”
换言之,即便人工智能可以对人类的语言、表情所传递的情绪作出判断,但这主要应用的是自然语言处理、计算机视觉等技术。
郭雨晨直言,尽管在情感计算方面,通过深度学习的推动已经发展得比较好,但如果就此说人工智能具备意识还有些一厢情愿。“把‘意识’这个词换成‘功能’,我会觉得更加准确。”
技术换道有专家提出,若要机器能思考,先要解决人工智能发展的换道问题。
据了解,目前基于深度学习、由数据驱动的人工智能在技术上已经触及天花板。一个突出例证是,阿尔法围棋(AlphaGo)在击败人类围棋世界冠军后,虽然财力和算力不断投入,但深度学习的回报率却没有相应增长。
一般认为,人工智能可被分为弱人工智能、通用人工智能和超级人工智能。弱人工智能也被称为狭义人工智能,专攻某一领域;通用人工智能也叫强人工智能,主要目标是制造出一台像人类一样拥有全面智能的计算机;超级人工智能类似于科幻作品中拥有超能力的智能机器人。
从产业发展角度看,人工智能在弱人工智能阶段停留了相当长时间,正在向通用人工智能阶段迈进。受访专家表示,目前尚未有成功创建通用人工智能的成熟案例,而具备自主意识,至少需要发展到通用人工智能阶段。
梁正说,大模型、大数据的驱动让人工智能在对话的自然度、趣味性上有了很大突破,但距离具备自主意识还很远。“如果你给这类语言模型喂养大量关于内省、想象等与意识有关的数据,它便更容易反馈与意识有关的回应。”
不仅如此,现阶段的人工智能在一个复杂、专门的领域可以做到极致,却很难完成一件在人类看来非常简单的事情。“比如人工智能可以成为围棋高手,却不具备三岁小孩对陌生环境的感知能力。”段伟文说。
谈及背后原因,受访专家表示,第一是当前人工智能主要与符号世界进行交互,在对物理世界的感知与反应上发展缓慢。第二是数据学习让机器只能对见过的内容有合理反馈,无法处理陌生内容。第三是在数据驱动技术路线下,人们通过不断调整、优化参数来强化机器反馈的精准度,但这种调适终究有限。
郭雨晨说,人类在特定任务的学习过程中接触的数据量并不大,却可以很快学习新技能、完成新任务,这是目前基于数据驱动的人工智能所不具备的能力。
梁正强调,不同于当前主要依赖大规模数据训练的技术路线,新一代人工智能强调在没有经过数据训练的情况下,可以通过推理作出合理反应,从而与没有见过、没有学过的事物展开交互。
相比人类意识的自由开放,以往人工智能更多处在封闭空间。尽管这个空间可能足够大,但若超出设定范畴便无法处理。而人类如果按照规则不能解决问题,就会修改规则,甚至发明新规则。
这意味着,如果人工智能能够超越现有学习模式,拥有对自身意识系统进行反思的能力,就会理解自身系统的基本性质,就有可能改造自身的意识系统,创造新规则,从而成为自己的主人。
“人工智能觉醒”背后有关“人工智能觉醒”的讨论已不鲜见,但谷歌迅速否认的态度耐人寻味。
梁正表示:“如果不迅速驳斥指认,会给谷歌带来合规性方面的麻烦。”
据了解,关于人工智能是否有自主意识的争论并非单纯技术领域的学术探讨,而关乎企业合规性的基本坚守。一旦认定公司研发的人工智能系统出现自主意识,很可能会被认为违反第2版《人工智能设计的伦理准则》白皮书的相关规范。
这一由美国电气和电子工程师协会2017年发布的规范明确:“根据某些理论,当系统接近并超过通用人工智能时,无法预料的或无意的系统行为将变得越来越危险且难以纠正。并不是所有通用人工智能级别的系统都能够与人类利益保持一致,因此,当这些系统的能力越来越强大时,应当谨慎并确定不同系统的运行机制。”
梁正认为,为避免社会舆论可能的过度负面解读,担心大家认为它培育出了英国作家玛丽·雪莱笔下的弗兰肯斯坦式的科技怪物,以“不作恶”为企业口号的谷歌自然会予以否认。“不仅如此,尽管这一原则对企业没有强制约束力,但若被认为突破了底线,并对个体和社会造成实质性伤害,很有可能面临高额的惩罚性赔偿,因此企业在合规性方面会更为谨慎。”
我国也有类似管理规范。2019年,国家新一代人工智能治理专业委员会发布《新一代人工智能治理原则——发展负责任的人工智能》,提出人工智能治理的框架和行动指南。其中,“敏捷治理”原则主要针对技术可能带来的新社会风险展开治理,强调治理的适应性与灵活性。
中国信息化百人会成员、清华大学教授薛澜在接受媒体采访时表示,当前人工智能治理面临的最大挑战,是我们没有一套比较成熟的体系来规制其潜在的风险。特别是在第四次工业革命背景下,我国的人工智能技术和其他国家一样都处于发展期,没有现成的规制体系,这样就使得我们在发展科技的同时,必须同步发展我们的规制体系。“这可能是人工智能发展面临最大的挑战。”
在梁正看来,目前很难断言新兴人工智能技术具有绝对风险,但必须构造合理的熔断、叫停机制。在治理中既要具有一定的预见性,又不能扼杀创新的土壤,要在企业诉求和公共安全之间找到合适的平衡点。
毕竟,对人类来说,发展人工智能的目的不是把机器变成人,更不是把人变成机器,而是解决人类社会发展面临的问题。
从这个角度来说,我们需要的或许只是帮助人类而不是代替人类的人工智能。
为了人机友好的未来确保通用人工智能技术有益于人类福祉,一直是人工智能伦理构建的前沿。
薛澜认为,在科技领域,很多技术都像硬币的两面,在带来正面效应的同时也会存在风险,人工智能就是其中一个比较突出的领域。如何在促进技术创新和规制潜在风险之间寻求平衡,是科技伦理必须关注的问题。
梁正提出,有时技术的发展会超越人们预想的框架,在不自觉的情况下出现与人类利益不一致甚至相悖的情况。著名的“曲别针制造机”假说,即描述了通用人工智能在目标和技术都无害的情况下,对人类造成威胁的情景。
“曲别针制造机”假说给定一种技术模型,假设某个人工智能机器的终极目标是制造曲别针,尽管看上去这一目的对人类无害,但最终它却使用人类无法比拟的能力,把世界上所有资源都做成了曲别针,进而对人类社会产生不可逆的伤害。
因此有观点认为,创造出法力高超又杀不死的孙悟空本身就是一种不顾后果的冒险行为。
与其对立的观点则认为,目前这一担忧为时尚早。
“我们对到底什么样的技术路线能够发展出具备自主意识的人工智能尚无共识,现在谈论‘禁止发展’,有种空中楼阁的意味。”梁正说。
商汤科技智能产业研究院院长田丰告诉《瞭望》新闻周刊,现实中人工智能技术伦理风险治理的关键,是产业能够在“预判防范-应用场景-用户反馈-产品改进”中形成市场反馈机制,促成伦理风险识别与敏捷治理。同时,企业内部也需建立完整的科技伦理自律机制,通过伦理委员会、伦理风控流程平台将伦理风险把控落实到产品全生命周期中。
郭雨晨说,人工智能技术发展到目前,仍始终处于人类可控状态,而科技发展的过程本来就伴随对衍生问题的预判、发现和解决。“在想象中的人工智能自主意识出现以前,人工智能技术脚踏实地的发展,已经造福人类社会很多年了。”
在梁正看来,人与人工智能在未来会是一种合作关系,各自具备对方无法达成的能力。“技术归根结底是由人类来发展和把控的。人类和人工智能的未来,是由人类选择的。”
编辑:李华山
2022年08月16日07:42:05