ChatGPT刷爆全网,人工智能真的能大规模取代人类吗
一款由OpenAI公司开发的ChatGPT智能聊天机器人爆红全网。上线仅2个月活跃用户就破了亿,成为抖音之后,全球用户最快破亿的APP。
微软CEO纳德拉说:“对于知识性工作者来说,这完全等同于工业革命。”
以前,我们以为人工智能机器人首先取代的会是简单的体力劳动,但谁都没想到的是,人工智能机器人首先取代的竟然是简单的脑力劳动。
ChatGPT之所以能够在2个月内用户破亿,关键就在于,它在某些领域已经开始展现出比人类更高的智慧,对人类的工作已经形成足以令人恐慌的替代性作用。在接下来的2-3年里,许多人都会因人工智能技术的进步而失业。这已经是不可阻挡的技术浪潮。
ChatGPT到底有多强?它能干哪些工作?队长跟大家说几个简单的例子。
第一个,在线客服。在ChatGPT没出现之前,我们对在线客服机器人可谓是深恶痛绝。因为它根本就不智能,简直就是智障。其中臭名远扬的就有鹅厂的在线客服机器人,经常逼得用户亲自前往鹅厂总部,讨要说法。
那么,有了ChatGPT机器人后,它就可以大规模取代人工在线客服了。如果一家公司,原来需要100个在线客服,以后可能就只需要2-3个在线客服就够了。90%以上的问题都可以交给ChatGPT去回答。后台可以删掉所有的负面词汇,然后给它投喂行业内所有的客服数据,它会像知心小姐姐一样,回答它所知道的一切。
第二个,标准化新闻写作。队长是做媒体的,但队长毫不怀疑,ChatGPT可以完成绝大部分的标准化新闻写作,尤其是事实类新闻报道。但它的缺陷是,写不了新闻评论。它只能算是一个高级写作机器人,缺乏视角、观点、立场和深度。
新闻是一个需要为内容负责的行业。如果出现重大新闻失误,ChatGPT不能背锅,这是人工智能最大的弱点。可以说,时政新闻,是人工智能机器人暂时还无法进入的领域。
举一反三的话,你要看你的工作能否被替代,你就看你是否需要为你的工作承担重大的法律责任。在这个情况下,会计师、律师和建筑设计师等需要终身负责的职业,是难以被替代的。它不可能代替你去坐牢。
第三个,程序猿。人工智能技术是程序猿发明和推动的,但程序猿也在革自己的命。许多代码具备复制性和通用性,这些可复制、可通用的代码都能由ChatGPT所完成。
那么,基层的程序猿都有可能被大量替代。
除了上面三个职业外,像画师、平面设计、论文代写以及口水歌等,都能被ChatPGT所替代。
ChatGPT的工作模式其实并不复杂。我们可以把它理解成一个超级洗稿机器人。它的素材量巨大无比,理论上可以包含全人类的数据资料。当我们让它去写一篇文章时,它会迅速检索海量数据库,对人类的原创内容进行重新组织,进而生成一篇新的文章。
它缺乏人类的思想,但它可以完成那些不需要思想的内容创作。它可能写不出《三体》这样的科幻小说,但你让它写个睡前小故事,写个鸡汤文,写个历史小短文,那太简单了。它可以在一分钟内给你写完满满的一本杂志。
ChatGPT的出现可以让搜索引擎变得更智能。我们以前使用百度搜索时,它是单向的。百度有什么信息,就出来什么信息。但有了它,以后的搜索就是双向的了。你可以像聊天一样,去不断地追问,直到得出你想要的答案。
很多美国大学生都用这玩意儿代写论文,代写作业。以后,在学校厕所里的论文代写广告可能很快就会消失了,这个行业要死掉了。
对付应试考试,ChatGPT具有先天性优势。它最擅长的就是标准。
化和机构化,标准化和结构化程度越高,ChatGPT的替代能力越强。以后,ChatGPT要是写出一篇高考满分作文,大家也不要惊诧。
我们一直在讲的人工智能革命,从数字货币,到元宇宙,都没有真正地大规模落地,也没有真正地深入到人类的生活。数字货币关系到金融稳定,元宇宙缺乏配套的产业链技术,可ChatGPT不同,它是可以直接拿来用的,具备广泛的应用场景。
就像前文中所提到的在线客服、平面设计师、画师、论文代写、口水歌、程序猿以及文案编辑等,都能有所取代。ChatGPT不会彻底消灭这些行业,但它作为一款人工智能工具,可以大幅减少用工数量。
它具有极强的通用性,可能是人类人工智能革命的转折点。微软已经把ChatGPT应用到必应搜索引擎中,试图颠覆谷歌搜索的霸主地位。它能丰富人们的搜索结果,提高搜索体验,百度搜索也很快会引入相关人工智能机器人。
如果人工智能机器人得到广泛应用,它首先带动的不是互联网行业,而是云计算行业。它每天需要处理海量的数据,对算力消耗极大。OpenAI公司投身微软,就是想获得微软云计算的支持。不然,仅算力成本就是OpenAI所不能承受之重。
AI绘画技术兴起,人工智能是否会取代人类
从围棋界诞生的Alpha-Go,到近日在互联网上引起热议的AI(人工智能)绘画,自人工智能诞生以来,机器是否会取代人类的话题热度从未减退。
AIGC,即AI-Generat-edContent(AI技术自动生成内容的生产方式),或将引领这一轮内容工业化。随着机器学习的数量与效率成倍提升,不过经历短短数月,AI从只能生成拼接画,进化到与人类画师作品相差仿佛。数字绘画行业似乎提前嗅到了危机的气息。
AI绘画目前仍然存在哪些乱象?对行业格局造成了何种影响?业内又是如何应对这一变迁的?记者进行了采访与调查。
机器解构艺术?绘画行业受到冲击
AI绘画的迭代堪称“日新月异”。
今年初,AI绘画还只能生成些概念化的草图,无法准确识别人体,造成许多笑料,取代人类画师更是天方夜谭。
8月31日,美国科罗拉多州博览会一项美术竞赛中,一幅名为《空间歌剧院》的AI作品横空出世,斩获一等奖,也将AI绘画带入大众视野。
ACG绘画行业遭遇前所未有的冲击,在国内的社交媒体与行业内部,一场关于机器是否取代人的辩论正拉开序幕。
“AI模仿的其实是画风,也就是数据。AI真正无法复现的是画作中的人类思考,例如,AI目前无法创作讽刺漫画,因为它无法理解人的情感与价值观。”AI绘画爱好者小林认为。
“AI绘画本质是拼图,底层逻辑不是创作而是拼接。”游戏原画师苏苏对记者坦言,AI作为辅助参考工具有其价值,可以帮助画师创作草图,但目前的技术尚需进步。“目前,AI并不能替代人类画师,因为随机性太强了。”她说。
虽然目前的AI并不能完全替代人类,但是AI的高成长性依旧让行业忧心忡忡。例如,招聘软件已出现给AI“打杂”的插画师岗位,工作内容是使用AI绘图产生不同风格的插画并精修,待遇远远低于一名有经验的原画师。
感受到危机的不止是作为供给方的业内,更致命的是,需求端的大众其实无法很好地分辨AI作品。
一项关于AI绘画的图灵测试问卷在社交媒体上获得高转载,一共20道题,受测者需要在4张图片中选出AI作画的选项。记者注意到,网络受测者晒出的得分很少超过50分,普遍在30分及以下。
“我现在约画稿都会很谨慎,找画风独特小众、暂时无法被AI模仿的画师,但依旧会警惕对方是否使用AI,因为我不希望购买‘流水线’作品。”毕业于四川传媒学院,如今担任美术老师一职的柳女士表示,“自从AI绘画出现后,画师必须自证人工完成作画,提供线稿与过程。而且,AI也对依赖机械性、高重复性绘画单的行业中低层画师生计造成了很大影响。”
“未来,人类画家绘画效果真实已经不再是关键,具备独特绘画风格的画家才会拥有市场。”浙江大学国际联合商学院数字经济与金融创新研究中心联席主任、研究员盘和林对记者表示。
版权乱象难解AI的权力边界在哪里
风口将至,资本正在将目光投向AI绘画领域。
在国外,DiscoDiffu-sion、DALL-E2、StableDif-fusion、Midjourney、Make-A-Scene、NUWA等平台如雨后春笋般涌现。
在国内,文心一格、盗梦师、TIAMAT等AI绘画平台兴起。其中,TIAMAT由上海科技大学孵化,10月刚完成了数百万美元的天使轮融资。
7月,百度世界大会上,AI用时1秒就复原了《富春山居图》残卷,应用的正是百度开发的飞桨和文心大模型技术。8月19日,百度正式发布业内首个AI艺术和创意辅助平台——文心·一格。
AI到底是如何作画的?记者尝试以文心·一格平台生成画作,只要输入关键词,选择画作风格,例如动漫风、概念、原画等。经过几分钟的排队,AI就会自动生成数幅指定画作。但是,成品风格、质量并不稳定,具有很强的随机性。
新技术领域尚且边界不清,市场乱象却初步显现。据记者调查,国内互联网上已经出现自称专业画师提供AI代画业务的现象,交易平台上,贩卖AI软件破解安装包、已验证有效的描述词条、AI绘画教程等,利用信息差赚取第一桶金的现象屡见不鲜。除此之外,网络平台与群组中,也时常有“以AI绘画为兼职,将图片上传素材网站可达成月入过万元”的虚假消息流传。
“我承认AI是个很棒的工具,但有些使用者不是。作为画师,我对无授权爬取网络上画手的图喂给AI的行为感到非常不适。”一位插画师对记者表示,“我最关注的是版权问题,在法律能约束这一行为前,我肯定不会发图了。”
“从法律角度来说,AI侵权的真正行为人还是自然人、法人或者其他组织,只要具备了侵权行为,一造成过错,二造成了欺压后果,第三,过错和后果有因果关系,就该承担侵权责任。”中国人民大学商法研究所所长刘俊海对记者表示,侵权者应当停止侵权,赔偿损失,赔礼道歉。
“从现有法律的意义上看,实际上很难将AI绘画的成果定义为侵权。AI绘画虽然是通过数据喂养而形成的能力,但深度学习神经网络下,AI绘画能够避免重复数据库的作品,且可以通过数据库的侵权规则,很好地规避侵权。由于深度学习神经网络,即便是某位画家在画作中看到自己作品的影子,也没办法去证实是自己的作品,因为无法证明因果关系。”盘和林表示,对于AI绘画的侵权问题,还是要建立一套适合AI绘画的规则。
行业格局或将变化人类如何驾驭机器
纵观国内外,AI内容产业发展趋势已不可阻挡。
中关村大数据产业联盟发布的《中国AI数字商业展望2021—2025》报告预测,至2025年,中国AI数字商业核心支柱产业链规模将达到1853亿元,未来五年复合增长率约57.7%。其中,AI数字商业内容产业规模将达到495亿元。
机器对人类的挑战已经迫在眉睫,数字绘画行业是如何看待这一现象的?
“一方面,AI确实可以替代很多基本功不扎实的新手画师,一定程度上遏制行业乱象。另一方面,在紧急需要图宣时,AI可以作为工具或辅助,提高生产效率。但绘画行业的核心还是想法,AI是工具与手段,不是目的。”一位动画行业人设主管对记者说,未来画师只有两条路,要么是被AI带着走,被算法左右,失去创造力和逻辑性。要么是驾驭AI,让机器为自己服务。
也有专家认为,AI绘画让人类艺术向更高层次发展。“AI的绘画来自于数据,但如果遭遇了冲突的绘画风格,AI就会选择数据量更多的绘画风格,因此,最后AI绘画的系统一定是越来越真实地展现所见,通过虚构来刻画一个真实的画面,这是AI的特长,但通过虚构来刻画一个虚构的画面,这是人类特长,人类区别于万物的唯一特点是,人类具备想象力,诸如印象派的画作,只有人类才能从这些画作获得更多启发。”盘和林认为,从结果来看,人类绘画不会被机器取代。
“实际上,人类的想象往往具有局限性,很难不受现实的影响。利用计算机进行艺术创作,能够突破传统美学以及社会心理学对视觉艺术创新形成的阻碍。”在四川大学计算机学院(软件学院)数据智能与计算艺术实验室从事智能绘画创作研究的李茂副教授看来,计算机因为技术与工具的特性,在一定程度上可以超越人类的创作与想象能力以及文化和环境的限制,其结果可能是生成从未见过、无法想象的图像,给艺术创作带来一些新的可能性。
在面对蓬勃发展的AI技术时,人与AI的关系应该如何建构?传统人的权利应该如何保护?“在新技术到来时,传统的伦理规则和法律规则很难严丝合缝地运用人工智能新领域里,作为处理侵权等疑难问题的分析框架。”刘俊海表示,法律界应当对此作出回应,启动法律的“立改废释”四个途径,修改著作权法,或是修改司法解释,与时俱进,真正让AI技术造福于人类。
■中国城市报记者:方紫薇
人工智能可能有自主意识了吗
➤大模型、大数据的驱动让人工智能在对话的自然度、趣味性上有了很大突破,但距离具备自主意识还很远。换言之,即便人工智能可以对人类的语言、表情所传递的情绪作出判断,但这主要应用的是自然语言处理、计算机视觉等技术
➤不同于当前依赖数据学习的技术路线,新一代人工智能强调在没有经过数据学习的情况下,可以通过推理作出合理反应,从而与没有见过、没有学过的事物展开交互
➤当前人工智能治理面临的最大挑战,是我们没有一套比较成熟的体系来规制其潜在的风险。在发展科技的同时,必须同步发展我们的规制体系
➤“技术归根结底是由人类来发展和把控的。人类和人工智能的未来,是由人类选择的。”
今年6月,美国谷歌公司软件工程师布莱克·勒莫因称语言模型LaMDA出现自我意识。他认为,LaMDA拥有七八岁孩童的智力,并相信LaMDA正在争取自己作为一个人的权利。
LaMDA是谷歌去年发布的一款专门用于对话的语言模型,主要功能是可以与人类交谈。
为佐证观点,勒莫因把自己和LaMDA的聊天记录上传至互联网。随后,谷歌以违反保密协议为由对其停职。谷歌表示,没有任何证据支持勒莫因的观点。
事实上,“AI(人工智能)是否拥有自主意识”一直争议不休。此次谷歌工程师和LaMDA的故事,再次引发讨论。人们想知道:人工智能技术究竟发展到了怎样的阶段?是否真的具备自主意识?其判定依据是什么?未来我们又该以怎样的能力和心态与人工智能和谐共处?
人工智能自主意识之辨勒莫因认为LaMDA具有意识的原因有三:一是LaMDA以前所未有的方式高效、创造性地使用语言;二是它以与人类相似的方式分享感觉;三是它会表达内省和想象,既会担忧未来,也会追忆过去。
受访专家告诉《瞭望》新闻周刊记者,上述现象仅仅是因为LaMDA所基于的Transformer架构能够联系上下文,进行高精度的人类对话模拟,故能应对人类开放、发散的交谈。
至于人工智能是否已经具备自主意识,判定标准如何,受访专家表示,对人类意识的探索目前仍属于科技前沿,尚未形成统一定义。
清华大学北京信息科学与技术国家研究中心助理研究员郭雨晨说:“我们说人有自主意识,是因为人知道自己在干什么。机器则不一样,你对它输入内容,它只是依照程序设定进行反馈。”
中国社会科学院科学技术哲学研究室主任段伟文认为,一般意义上,人的自我意识是指对自我具备觉知,但如何认识和理解人类意识更多还是一个哲学问题而不是科学问题,这也是很难明确定义人工智能是否具备意识的原因。
被誉为“计算机科学与人工智能之父”的艾伦·图灵,早在1950年就曾提出图灵测试——如果一台机器能够与人类展开对话而不能被辨别出其机器身份,那么可以称这台机器具有智能。
这一设想随后被具化为,如果有超过30%参与测试的人以为自己在和人说话而非计算机,就可以认为“机器会思考”。
当前随着技术的发展,已经有越来越多的机器能够通过图灵测试。
但清华大学人工智能国际治理研究院副院长梁正告诉《瞭望》新闻周刊记者,图灵测试只能证明机器在表象上可以做到让人无法分辨它与人类的不同,却不能证明机器能够思考,更不能证明机器具备自主意识。
段伟文表示,目前大体有两种方式判定人工智能是否具有自主意识,一种以人类意识为参照,另一种则试图对机器意识进行全新定义。
若以人类意识为参照,要观察机器能否像人一样整合信息。“比如你在阳光下,坐在河边的椅子上看书,有树影落在脸上,有风吹来,它们会带给你一种整体的愉悦感。而对机器来说,阳光、河流、椅子等,是分散的单一元素。”段伟文说。
不仅如此,段伟文说,还要观察机器能否像人一样将单一事件放在全局中思考,作出符合全局利益的决策。
若跳出人类构建自主意识的范式,对机器意识进行重新定义,则需要明白意识的本质是什么。
段伟文告诉记者,有理论认为如果机器与机器之间形成了灵活、独立的交互,则可以称机器具备意识。也有理论认为,可以不追究机器的内心,仅仅把机器当作行为体,从机器的行为表现判断它是否理解所做事情的意义。“比如机器人看到人类喝咖啡后很精神,下次当它观察到人类的疲惫,能不能想到要为人类煮一杯咖啡?”段伟文说。
但在段伟文看来,这些对机器意识进行重新定义的理论,其问题出在,即便能够证明机器可以交互对话、深度理解,但是否等同于具备自主意识尚未有定论。“以LaMDA为例,虽然能够生成在人类看来更具意义的对话,甚至人可以与机器在对话中产生共情,但其本质仍然是在数据采集、配对、筛选机制下形成的反馈,并不代表模型能够理解对话的意义。”
换言之,即便人工智能可以对人类的语言、表情所传递的情绪作出判断,但这主要应用的是自然语言处理、计算机视觉等技术。
郭雨晨直言,尽管在情感计算方面,通过深度学习的推动已经发展得比较好,但如果就此说人工智能具备意识还有些一厢情愿。“把‘意识’这个词换成‘功能’,我会觉得更加准确。”
技术换道有专家提出,若要机器能思考,先要解决人工智能发展的换道问题。
据了解,目前基于深度学习、由数据驱动的人工智能在技术上已经触及天花板。一个突出例证是,阿尔法围棋(AlphaGo)在击败人类围棋世界冠军后,虽然财力和算力不断投入,但深度学习的回报率却没有相应增长。
一般认为,人工智能可被分为弱人工智能、通用人工智能和超级人工智能。弱人工智能也被称为狭义人工智能,专攻某一领域;通用人工智能也叫强人工智能,主要目标是制造出一台像人类一样拥有全面智能的计算机;超级人工智能类似于科幻作品中拥有超能力的智能机器人。
从产业发展角度看,人工智能在弱人工智能阶段停留了相当长时间,正在向通用人工智能阶段迈进。受访专家表示,目前尚未有成功创建通用人工智能的成熟案例,而具备自主意识,至少需要发展到通用人工智能阶段。
梁正说,大模型、大数据的驱动让人工智能在对话的自然度、趣味性上有了很大突破,但距离具备自主意识还很远。“如果你给这类语言模型喂养大量关于内省、想象等与意识有关的数据,它便更容易反馈与意识有关的回应。”
不仅如此,现阶段的人工智能在一个复杂、专门的领域可以做到极致,却很难完成一件在人类看来非常简单的事情。“比如人工智能可以成为围棋高手,却不具备三岁小孩对陌生环境的感知能力。”段伟文说。
谈及背后原因,受访专家表示,第一是当前人工智能主要与符号世界进行交互,在对物理世界的感知与反应上发展缓慢。第二是数据学习让机器只能对见过的内容有合理反馈,无法处理陌生内容。第三是在数据驱动技术路线下,人们通过不断调整、优化参数来强化机器反馈的精准度,但这种调适终究有限。
郭雨晨说,人类在特定任务的学习过程中接触的数据量并不大,却可以很快学习新技能、完成新任务,这是目前基于数据驱动的人工智能所不具备的能力。
梁正强调,不同于当前主要依赖大规模数据训练的技术路线,新一代人工智能强调在没有经过数据训练的情况下,可以通过推理作出合理反应,从而与没有见过、没有学过的事物展开交互。
相比人类意识的自由开放,以往人工智能更多处在封闭空间。尽管这个空间可能足够大,但若超出设定范畴便无法处理。而人类如果按照规则不能解决问题,就会修改规则,甚至发明新规则。
这意味着,如果人工智能能够超越现有学习模式,拥有对自身意识系统进行反思的能力,就会理解自身系统的基本性质,就有可能改造自身的意识系统,创造新规则,从而成为自己的主人。
“人工智能觉醒”背后有关“人工智能觉醒”的讨论已不鲜见,但谷歌迅速否认的态度耐人寻味。
梁正表示:“如果不迅速驳斥指认,会给谷歌带来合规性方面的麻烦。”
据了解,关于人工智能是否有自主意识的争论并非单纯技术领域的学术探讨,而关乎企业合规性的基本坚守。一旦认定公司研发的人工智能系统出现自主意识,很可能会被认为违反第2版《人工智能设计的伦理准则》白皮书的相关规范。
这一由美国电气和电子工程师协会2017年发布的规范明确:“根据某些理论,当系统接近并超过通用人工智能时,无法预料的或无意的系统行为将变得越来越危险且难以纠正。并不是所有通用人工智能级别的系统都能够与人类利益保持一致,因此,当这些系统的能力越来越强大时,应当谨慎并确定不同系统的运行机制。”
梁正认为,为避免社会舆论可能的过度负面解读,担心大家认为它培育出了英国作家玛丽·雪莱笔下的弗兰肯斯坦式的科技怪物,以“不作恶”为企业口号的谷歌自然会予以否认。“不仅如此,尽管这一原则对企业没有强制约束力,但若被认为突破了底线,并对个体和社会造成实质性伤害,很有可能面临高额的惩罚性赔偿,因此企业在合规性方面会更为谨慎。”
我国也有类似管理规范。2019年,国家新一代人工智能治理专业委员会发布《新一代人工智能治理原则——发展负责任的人工智能》,提出人工智能治理的框架和行动指南。其中,“敏捷治理”原则主要针对技术可能带来的新社会风险展开治理,强调治理的适应性与灵活性。
中国信息化百人会成员、清华大学教授薛澜在接受媒体采访时表示,当前人工智能治理面临的最大挑战,是我们没有一套比较成熟的体系来规制其潜在的风险。特别是在第四次工业革命背景下,我国的人工智能技术和其他国家一样都处于发展期,没有现成的规制体系,这样就使得我们在发展科技的同时,必须同步发展我们的规制体系。“这可能是人工智能发展面临最大的挑战。”
在梁正看来,目前很难断言新兴人工智能技术具有绝对风险,但必须构造合理的熔断、叫停机制。在治理中既要具有一定的预见性,又不能扼杀创新的土壤,要在企业诉求和公共安全之间找到合适的平衡点。
毕竟,对人类来说,发展人工智能的目的不是把机器变成人,更不是把人变成机器,而是解决人类社会发展面临的问题。
从这个角度来说,我们需要的或许只是帮助人类而不是代替人类的人工智能。
为了人机友好的未来确保通用人工智能技术有益于人类福祉,一直是人工智能伦理构建的前沿。
薛澜认为,在科技领域,很多技术都像硬币的两面,在带来正面效应的同时也会存在风险,人工智能就是其中一个比较突出的领域。如何在促进技术创新和规制潜在风险之间寻求平衡,是科技伦理必须关注的问题。
梁正提出,有时技术的发展会超越人们预想的框架,在不自觉的情况下出现与人类利益不一致甚至相悖的情况。著名的“曲别针制造机”假说,即描述了通用人工智能在目标和技术都无害的情况下,对人类造成威胁的情景。
“曲别针制造机”假说给定一种技术模型,假设某个人工智能机器的终极目标是制造曲别针,尽管看上去这一目的对人类无害,但最终它却使用人类无法比拟的能力,把世界上所有资源都做成了曲别针,进而对人类社会产生不可逆的伤害。
因此有观点认为,创造出法力高超又杀不死的孙悟空本身就是一种不顾后果的冒险行为。
与其对立的观点则认为,目前这一担忧为时尚早。
“我们对到底什么样的技术路线能够发展出具备自主意识的人工智能尚无共识,现在谈论‘禁止发展’,有种空中楼阁的意味。”梁正说。
商汤科技智能产业研究院院长田丰告诉《瞭望》新闻周刊,现实中人工智能技术伦理风险治理的关键,是产业能够在“预判防范-应用场景-用户反馈-产品改进”中形成市场反馈机制,促成伦理风险识别与敏捷治理。同时,企业内部也需建立完整的科技伦理自律机制,通过伦理委员会、伦理风控流程平台将伦理风险把控落实到产品全生命周期中。
郭雨晨说,人工智能技术发展到目前,仍始终处于人类可控状态,而科技发展的过程本来就伴随对衍生问题的预判、发现和解决。“在想象中的人工智能自主意识出现以前,人工智能技术脚踏实地的发展,已经造福人类社会很多年了。”
在梁正看来,人与人工智能在未来会是一种合作关系,各自具备对方无法达成的能力。“技术归根结底是由人类来发展和把控的。人类和人工智能的未来,是由人类选择的。”
编辑:李华山
2022年08月16日07:42:05