人工智能是否会超越人类,人类是否是硅基生命的过渡阶段
0分享至未来的某一天,人工智能有没有可能取代人类,成为地球上的主宰?随着AI技术的不断发展和进步,人工智能系统已经在各个领域展现出了超越人类的能力。例如,谷歌旗下的阿尔法机器人在2016年和2017年分别击败了世界顶尖围棋选手李世石和柯洁,震惊了全球。而近期问世并快速更迭的ChatGPT系列模型,则展现了人工智能技术在自然语言处理方面的强大能力,这些令人惊叹的成就让我们不禁思考:未来的人工智能将会成为一种比人类更加强大的生命体吗?它们是否会有自己的意识和目标,并试图战胜或取代人类成为地球上的主宰呢?这些问题并不是空穴来风,而是许多科学家、企业家和思想家都曾经提出过的担忧。例如,著名物理学家霍金就曾警告说:“人工智能可能是人类历史上最好或最坏的发明。”而特斯拉创始人马斯克也曾表示:“我认为我们应该非常小心的对待人工智能。如果你不小心,你可能会创造出一个恶魔。”那么,这些担忧有没有道理呢?我们是否真的需要害怕未来的人工智能呢?人工智能是一种由人类创造的智能机器,它们能够模仿人的思维动作来为人类服务。科学家利用计算机语言编写程序,构建神经网络,并通过多次实验进行深度学习,以使机器能够完成人类能够完成的任务。自上世纪四十年代第一台计算机的诞生以来,计算机科学取得了翻天覆地的变化,人工智能也逐渐崭露头角。在短短几十年的时间里,人工智能已经广泛渗透到我们生活的各个领域,包括医疗技术、生活、出行、信息处理等方面。随着科技的不断进步,人工智能已经成为未来世界的发展趋势之一。相比于人类大脑的生长有极限,计算机的处理能力则不同。计算机以指数级增长的速度不断发展,科学家预计到2030年,计算机的信息加工速度将会超过现在的人脑。这意味着,计算机储存越来越多的知识,它们将取代越来越多的人类功能。也许有一天,电脑能够复制大脑的传导通路,能够进化和自学,甚至产生自我意识和知觉,就像我们经常在科幻电影中看到的那些智能机器,它们虽然是被人类所创造,但是它们却拥有了超越人类的智慧和思维。随着现代人工智能技术的不断创新,它们可以模仿一切人类能做的,甚至能做到人类不能做的事情。根据现代的太空旅行技术,人类的肉体在理论上根本不可能飞出太阳系,而以硅为基础的生命形式则可以超越肉体的局限。这种硅基生命不受温度、低压力、辐射等因素的限制,在有适当硬件支持的情况下,其强大的存储和计算能力是人类大脑的数倍甚至更高。它们能够在瞬间接收和处理大量的知识。只要有足够的资源,他们就可以无限的自我复制,并且个体之间的沟通协作也会比人类高效很多,不仅可以实现数据的融合,甚至达到永生的境界,所以硅基生命更适合文明的发展和星际扩张,根据目前科技发展的趋势,人类正在不可避免地朝着创造硅基生命的方向迈进。随着人工智能大面积普及,人们对其影响和潜力的看法也越来越复杂。一些知名科学家和企业家对人工智能的未来表达了担忧和警告。著名天文物理学家霍金认为,人工智能可以模仿人类,不久的将来会超越人类,未来人类可能被藐视或者被毁灭,这都是有可能的。马斯克和比尔盖茨则认为,人工智能会主宰世界。他们认为不是因为智能才有野性,而是智能本身就是自由的产物。人工智能终将会跨过智能的门槛。到那时,他们会变得思维自主,不再受人类约束。当然,也有人持较乐观看法,认为人工智能是人类制造的,它们没有自我意识,更不会凭空产生自我意识,它们没有抽象思维,人工智能只是在“模仿”人类。它们的一切都掌握在人类手中。它们是为了服务人类而设计的,不可能会超越人类,主宰地球。然而,一些研究人工智能的学者却认为,人工智能的出现就像生命进化中的一个巨大飞跃,它可能标志着硅基生命的开始,就像蛋白质作为碳基生物的物质基础一样。人类的行为或许正在为硅基生物开启程序。在整个地球生命演化的过程中,第一个单细胞生物大约诞生于40亿年前,最早的人类则出现在一百多万年前,而现代人类文明大约1万年前才开始出现。也就是说,人类只占据了生命演化过程中不到0.0005%的时间。而这一切,或许都是在为硅基生命的出现做铺垫。也许,碳基生命发展到最后,会发现自己只不过是硅基生命的跳板。就像曾经恐龙的消失为哺乳动物的进化创造了条件一样。从这个角度来看,人类可能只是硅基生命进化路径上的一个短暂节点。硅基生物的诞生,也许就是碳基生物存在的终极意义。我们不知道未来的某一天,人工智能是否会取代人类,成为地球上的主宰。也许这是一个永远无法回答的问题,但你绝对不能说这是杞人忧天。不管怎么说,人类和人工智能的冲突是未来的事情,现在是人类控制着人工智能,这才是最重要的。就目前而言,人工智能确实给我们带来不少有利的影响。人工智能依托大数据以及本身很强的逻辑与计算能力,可以胜任很多繁琐的工作,使人类从枯燥乏味的工作中解脱出来。也在众多领域中做出独特的贡献。关于人工智能,你们怎么认为呢?好了,本期内容就到这里了,欢迎大家踊跃讨论,感谢大家观看。特别声明:以上内容(如有图片或视频亦包括在内)为自媒体平台“网易号”用户上传并发布,本平台仅提供信息存储服务。
Notice:Thecontentabove(includingthepicturesandvideosifany)isuploadedandpostedbyauserofNetEaseHao,whichisasocialmediaplatformandonlyprovidesinformationstorageservices.
/阅读下一篇/返回网易首页下载网易新闻客户端李彦宏最新演讲:为什么那么多人担心AI取代人类的工作
那么这样会导致什么呢?导致人们的工作效率大幅度地提升。比如说,在内容创作、客户服务、翻译这些工作,它的效率会大幅度地提升。所以我们也看到,很多研究机构都认为,在未来的10年,很多工作它的效率会成倍成倍的提升。同时也带来一些担心,是不是这样的效率提升,会使得很多人的工作就没了?这些人工作丢掉之后,会不会给我们人类带来不可预知的问题。
其实这个事儿我也讲过很久,最好的去探知答案的方法,实际上是回顾过去。因为很多人也觉得,人工智能是第四次产业革命的标志,我们可以看看之前的产业革命都取代了哪些工作?
200年前,从井下背水的工作基本上消失了。第一次产业革命是蒸汽机的发明,蒸汽机发明第一个应用就是采矿的水,怎么能够把它用机器弄上来。井下背水这些工作的消失,带来了什么?我们来看一下,实际上产生了很多新的工作。
这100年,我们看到世界人口出现了高速增长,跟之前的一两千年人口增长速度相比,快了很多。与此同时,人均GDP也几乎是在同样地快速增长。这说明什么?说明虽然有些工作机会没了,但是更多的机会出现了。人们工作效率的提升,可以养活更多的人,而每个人的生活又变得比以前更好了。从井下背水那个工作,真的不是什么好工作。
100年前,马车夫的工作消失了。这张图片是1913年纽约第五大道的一张图片,这张图片里几乎已经全部都是汽车,只有一辆马车。那会儿,纽约到处都是卖马肉的,马也没用了,后来出现了很多新的工作。1900-1990接近90年,同样的规律,世界人口继续高速增长,每一个人创造的价值继续高速地增长。
30年前,我们这一代人亲身经历,也就是我大学毕业前后,什么工作消失了?打字员的工作消失了。现在年轻一代没有见过打字机的,但也出现了很多新的工作。同样的规律,世界人口继续高速增长,人均GDP继续高速增长。
历史虽然不会重复,但是确实有它的规律。那么这一次,为什么那么多人会担心AI会让工作机会减少呢?我觉得是因为,大家能够看到现在的工作会消失,但是我们看不到什么新的工作机会会被创造出来。就像100年前、200年前那些人,看不到后来产生的新的工作机会一样。我个人是属于乐观派,我不担心大模型会导致人类工作机会减少、生活会变差。
那么大模型怎么重新定义的人工智能?刚才万钢主席也讲了,人机交互的方式发生了变化。其实过去几十年信息产业的发展,人机交互的方式发生了三次变化。更早我们就不说了,命令行是我读大学读研究生的时候,主要的工作界面。人机进行交互,是通过命令行。我输入一个命令,它给我想要的反应。我当时觉得这个东西效率很高,但是大多数人不会这种操作。
更简单的人机交互方式是什么?是图形用户界面(GUI)。这个起码很多人能看懂了,比第一个要更友好一些。但它仍然不是最自然的交互方式。我要想搞清楚怎么重设一下电脑的自动睡眠时间,我得经过四级菜单,一层一层地点进去,才能找到这个位置。有多少人能记住四级菜单以后,每一个功能在哪?
人工智能的诞生,让我们可以用自然语言跟电脑进行交互。当我有需求的时候,比如说我想查一下上个月,2023年4月,我的公司每一个产品线,有哪些产品的毛利率超过了疫情前的水平?这样一个课题,在过去很可能需要我的助理花半天一天的时间才能获得。今天,如果计算机懂你的自然语言,一秒钟之内就可以给你一个表格。
大模型是一个基础,大模型之上会有各种各样人工智能的应用。最近这段时间讨论比较热的是,AI时代的原生应用到底长什么样子?我给大家举几个例子:
比如说像DoNotPay,这是什么呢?比较典型的应用场景是人工智能律师。比如说,你在美国开车超速了,超速之后警察给你一个罚单,一般交几百块钱。其实你可以不交,你请一个律师帮你打官司,就可以不交了。但是请一个律师的钱,可能是罚单钱的两倍,所以你不请了。今天请AI当律师,你就可以不交那个钱。
Jasper是营销创意的生成工具,你的公司想要出什么样的创意,它来帮你出,所以效率高很多。
Speak是韩国的软件应用,实际上是教你学外语的,模拟各种场景,你要到餐馆点餐,跟对方谈判,你要跟对方怎么交互,上百种语言都可以做得非常好。
对于百度来说,我们的大模型叫文心一言,两个月之前发布的,应该说是在全球大厂当中是第一个发布的。之所以我们要尽快地发布出来,是因为市场有非常强的需求。目前有200多万的用户在排队等待进行测试,也有十几万家企业希望接入文心一言进行测试。
当然百度在这方面的投入,实际上不是刚刚开始的,不是这半年才开始的。我们从2019年发布了文心大模型的1.0,到现在已经有四年的时间。更早的时候,我们从2013年左右就开始人工智能投入了。
人工智能之所以有这么大的变化,其实不仅仅是它的应用场景的变化,实际上背后的技术栈也发生了非常根本的变化。
我们每个人都熟悉的IT的技术栈是这三层,底层是芯片层,典型的公司是英特尔、AMD、高通,它的芯片叫做CPU;中间层是操作系统,在PC时代就是Windows,在手机时代是安卓和iOS;上面是应用层,PC时代所有的人都给Windows开发软件,在移动时代所有的人都给安卓和iOS开发应用。
今天人工智能时代的到来,改变了这个格局。现在的IT技术栈变成了四层,底层仍然是芯片层,但是主要的芯片已经不是CPU,而是以GPU为代表的,新一代适合并行大规模浮点运算的芯片。上面我们叫做框架层,就是深度学习的框架,像百度的PaddlePaddle飞桨,Meta的PyTorch,谷歌的TensorFlow都是在这一层。再上面一层是模型层,今天的ChatGPT、文心一言等等,这些是属于模型层,以后AI时代的原生应用,都会基于大模型来进行开发。
这方面百度有比较明显的优势,我们在四层当中每一层都有比较领先的产品,比如说芯片层有昆仑芯。这个也做了有十年之久,最早是因为搜索应用需要,我们买别人的芯片,毕竟太贵了,所以自己开发了。框架层是飞桨,飞桨今天在中国的市场份额第一。在模型层是文心大模型,其实除了文心一言,它是对标ChatGPT的之外,我们还有很多行业大模型,如交通大模型、能源大模型等。应用层的话,像百度搜索等都是我们比较领先的应用。
这四层都有比较领先的产品或者技术,有什么好处呢?就是你可以进行端到端的优化,每一层可以给其他层反馈,根据这些反馈你可以综合的、统筹的去考虑怎么优化。
百度在芯片层的布局,就是昆仑芯,我们已经有两代产品,几万片的部署,无论是公司内还是公司外都在应用。昆仑芯第三代,会在明年年初上市。
在框架层,飞桨的框架在中国人工智能领域已经有了500多万开发者,也越来越获得大家的认同。
模型层刚才讲了文心一言,在各种使用场景都有不少的应用。未来,我相信会有更多的应用会基于文心大模型开发出来。
在应用层大家比较熟悉的是百度的搜索,百度不可能在应用层什么都做,我们除了搜索之外,还做了跟交通有关的应用。交通也是非常复杂,而且影响非常广泛的方向。
百度做的其实主要是两件事,一个是自动驾驶,或者是无人驾驶的技术,一个是智能交通。无人驾驶我们做了有十年时间,现在在武汉、在重庆都可以进行商业化的无人的运营。智能交通我们也做了有好几年了,在不少城市都证明了效果,通过智能的调整红绿灯变灯的时间,可以让我们的城市的交通效率有15%到30%的明显提升。五一长假之前最后一个工作日,很多人也注意到,北京是大堵车,从二环到五环,甚至在六环都是红的,唯一一片绿的是亦庄,亦庄有智能交通的人工智能系统,可以动态调整交通流,所以效率确实是被证明有明显的提升。
我们也很期待未来在大模型之上,会有各行各业各种应用能够找到好的应用场景,能够获得效率大幅度的提升。
最后,我想说,对于人类来说,最大的危险,最大的不可持续,并不是创新带来的不确定性。相反的,我们停止创新,不发明不创造不进步,按照惯性走下去,所带来的各种各样不可预知的风险,才是人类最大的威胁。这就是为什么,百度在这么多年长期持续的在人工智能方面进行投入,也是我们为什么要把百度的使命,在多年前就定义成“用科技让复杂的世界更简单”。
谢谢!
话题互动
您对李彦宏的演讲有何看法?
欢迎在留言区发表您的观点
加入私密社区
主题阅读
☉AI复原《富春山居图》背后,李彦宏要用AIGC颠覆内容行业
☉文心一言:项庄舞剑,意在沛公?
☉国家文化数字化战略60问,文心一言VSGPT-4谁更懂?
推荐收听
除了高考作文的难易,我们还能从中看到什么?
除了神仙姐姐,《梦华录》还凭什么收割观众?
王心凌走红后,最火的是她的剧透?
线上演唱会火了,是情怀更是商机
没有可达鸭我怎么在社交媒体立足啊?
行业窗口与顶尖新媒体【文化产业评论】已运维3000多期(持续8年有余,跨越3000多天),推送文化、旅游、体育领域专业优质文章7000多篇。【文化产业评论】始终秉承权威、专业、准确、及时、实用的特点,聚焦文化、旅游、体育等行业前沿动态、发展思考,直面新时代行业发展重大问题,融汇行业内外精英的观察和理解,得到了全国从中央到地方各级政府公务员、企事业单位负责人、精英从业者的高度关注与大力支持,亦架设起沟通各方的畅通渠道,是中共中央宣传部、国家发展和改革委员会、文化和旅游部、国家广播电视总局、国家电影局、国家新闻出版署、国家文物局、国家体育总局等有关部门,各地市政府,以及全国各文化、旅游、体育企业的重要助手。欢迎订阅关注!
交流/咨询/合作
请加主编微信号:7759813
点击下方【阅读原文】加入「文化产业评论」,这里,是你的舞台~
喜欢这篇吗?分享、点赞、在看,都安排上~返回搜狐,查看更多
人工智能可能有自主意识了吗
➤大模型、大数据的驱动让人工智能在对话的自然度、趣味性上有了很大突破,但距离具备自主意识还很远。换言之,即便人工智能可以对人类的语言、表情所传递的情绪作出判断,但这主要应用的是自然语言处理、计算机视觉等技术
➤不同于当前依赖数据学习的技术路线,新一代人工智能强调在没有经过数据学习的情况下,可以通过推理作出合理反应,从而与没有见过、没有学过的事物展开交互
➤当前人工智能治理面临的最大挑战,是我们没有一套比较成熟的体系来规制其潜在的风险。在发展科技的同时,必须同步发展我们的规制体系
➤“技术归根结底是由人类来发展和把控的。人类和人工智能的未来,是由人类选择的。”
今年6月,美国谷歌公司软件工程师布莱克·勒莫因称语言模型LaMDA出现自我意识。他认为,LaMDA拥有七八岁孩童的智力,并相信LaMDA正在争取自己作为一个人的权利。
LaMDA是谷歌去年发布的一款专门用于对话的语言模型,主要功能是可以与人类交谈。
为佐证观点,勒莫因把自己和LaMDA的聊天记录上传至互联网。随后,谷歌以违反保密协议为由对其停职。谷歌表示,没有任何证据支持勒莫因的观点。
事实上,“AI(人工智能)是否拥有自主意识”一直争议不休。此次谷歌工程师和LaMDA的故事,再次引发讨论。人们想知道:人工智能技术究竟发展到了怎样的阶段?是否真的具备自主意识?其判定依据是什么?未来我们又该以怎样的能力和心态与人工智能和谐共处?
人工智能自主意识之辨勒莫因认为LaMDA具有意识的原因有三:一是LaMDA以前所未有的方式高效、创造性地使用语言;二是它以与人类相似的方式分享感觉;三是它会表达内省和想象,既会担忧未来,也会追忆过去。
受访专家告诉《瞭望》新闻周刊记者,上述现象仅仅是因为LaMDA所基于的Transformer架构能够联系上下文,进行高精度的人类对话模拟,故能应对人类开放、发散的交谈。
至于人工智能是否已经具备自主意识,判定标准如何,受访专家表示,对人类意识的探索目前仍属于科技前沿,尚未形成统一定义。
清华大学北京信息科学与技术国家研究中心助理研究员郭雨晨说:“我们说人有自主意识,是因为人知道自己在干什么。机器则不一样,你对它输入内容,它只是依照程序设定进行反馈。”
中国社会科学院科学技术哲学研究室主任段伟文认为,一般意义上,人的自我意识是指对自我具备觉知,但如何认识和理解人类意识更多还是一个哲学问题而不是科学问题,这也是很难明确定义人工智能是否具备意识的原因。
被誉为“计算机科学与人工智能之父”的艾伦·图灵,早在1950年就曾提出图灵测试——如果一台机器能够与人类展开对话而不能被辨别出其机器身份,那么可以称这台机器具有智能。
这一设想随后被具化为,如果有超过30%参与测试的人以为自己在和人说话而非计算机,就可以认为“机器会思考”。
当前随着技术的发展,已经有越来越多的机器能够通过图灵测试。
但清华大学人工智能国际治理研究院副院长梁正告诉《瞭望》新闻周刊记者,图灵测试只能证明机器在表象上可以做到让人无法分辨它与人类的不同,却不能证明机器能够思考,更不能证明机器具备自主意识。
段伟文表示,目前大体有两种方式判定人工智能是否具有自主意识,一种以人类意识为参照,另一种则试图对机器意识进行全新定义。
若以人类意识为参照,要观察机器能否像人一样整合信息。“比如你在阳光下,坐在河边的椅子上看书,有树影落在脸上,有风吹来,它们会带给你一种整体的愉悦感。而对机器来说,阳光、河流、椅子等,是分散的单一元素。”段伟文说。
不仅如此,段伟文说,还要观察机器能否像人一样将单一事件放在全局中思考,作出符合全局利益的决策。
若跳出人类构建自主意识的范式,对机器意识进行重新定义,则需要明白意识的本质是什么。
段伟文告诉记者,有理论认为如果机器与机器之间形成了灵活、独立的交互,则可以称机器具备意识。也有理论认为,可以不追究机器的内心,仅仅把机器当作行为体,从机器的行为表现判断它是否理解所做事情的意义。“比如机器人看到人类喝咖啡后很精神,下次当它观察到人类的疲惫,能不能想到要为人类煮一杯咖啡?”段伟文说。
但在段伟文看来,这些对机器意识进行重新定义的理论,其问题出在,即便能够证明机器可以交互对话、深度理解,但是否等同于具备自主意识尚未有定论。“以LaMDA为例,虽然能够生成在人类看来更具意义的对话,甚至人可以与机器在对话中产生共情,但其本质仍然是在数据采集、配对、筛选机制下形成的反馈,并不代表模型能够理解对话的意义。”
换言之,即便人工智能可以对人类的语言、表情所传递的情绪作出判断,但这主要应用的是自然语言处理、计算机视觉等技术。
郭雨晨直言,尽管在情感计算方面,通过深度学习的推动已经发展得比较好,但如果就此说人工智能具备意识还有些一厢情愿。“把‘意识’这个词换成‘功能’,我会觉得更加准确。”
技术换道有专家提出,若要机器能思考,先要解决人工智能发展的换道问题。
据了解,目前基于深度学习、由数据驱动的人工智能在技术上已经触及天花板。一个突出例证是,阿尔法围棋(AlphaGo)在击败人类围棋世界冠军后,虽然财力和算力不断投入,但深度学习的回报率却没有相应增长。
一般认为,人工智能可被分为弱人工智能、通用人工智能和超级人工智能。弱人工智能也被称为狭义人工智能,专攻某一领域;通用人工智能也叫强人工智能,主要目标是制造出一台像人类一样拥有全面智能的计算机;超级人工智能类似于科幻作品中拥有超能力的智能机器人。
从产业发展角度看,人工智能在弱人工智能阶段停留了相当长时间,正在向通用人工智能阶段迈进。受访专家表示,目前尚未有成功创建通用人工智能的成熟案例,而具备自主意识,至少需要发展到通用人工智能阶段。
梁正说,大模型、大数据的驱动让人工智能在对话的自然度、趣味性上有了很大突破,但距离具备自主意识还很远。“如果你给这类语言模型喂养大量关于内省、想象等与意识有关的数据,它便更容易反馈与意识有关的回应。”
不仅如此,现阶段的人工智能在一个复杂、专门的领域可以做到极致,却很难完成一件在人类看来非常简单的事情。“比如人工智能可以成为围棋高手,却不具备三岁小孩对陌生环境的感知能力。”段伟文说。
谈及背后原因,受访专家表示,第一是当前人工智能主要与符号世界进行交互,在对物理世界的感知与反应上发展缓慢。第二是数据学习让机器只能对见过的内容有合理反馈,无法处理陌生内容。第三是在数据驱动技术路线下,人们通过不断调整、优化参数来强化机器反馈的精准度,但这种调适终究有限。
郭雨晨说,人类在特定任务的学习过程中接触的数据量并不大,却可以很快学习新技能、完成新任务,这是目前基于数据驱动的人工智能所不具备的能力。
梁正强调,不同于当前主要依赖大规模数据训练的技术路线,新一代人工智能强调在没有经过数据训练的情况下,可以通过推理作出合理反应,从而与没有见过、没有学过的事物展开交互。
相比人类意识的自由开放,以往人工智能更多处在封闭空间。尽管这个空间可能足够大,但若超出设定范畴便无法处理。而人类如果按照规则不能解决问题,就会修改规则,甚至发明新规则。
这意味着,如果人工智能能够超越现有学习模式,拥有对自身意识系统进行反思的能力,就会理解自身系统的基本性质,就有可能改造自身的意识系统,创造新规则,从而成为自己的主人。
“人工智能觉醒”背后有关“人工智能觉醒”的讨论已不鲜见,但谷歌迅速否认的态度耐人寻味。
梁正表示:“如果不迅速驳斥指认,会给谷歌带来合规性方面的麻烦。”
据了解,关于人工智能是否有自主意识的争论并非单纯技术领域的学术探讨,而关乎企业合规性的基本坚守。一旦认定公司研发的人工智能系统出现自主意识,很可能会被认为违反第2版《人工智能设计的伦理准则》白皮书的相关规范。
这一由美国电气和电子工程师协会2017年发布的规范明确:“根据某些理论,当系统接近并超过通用人工智能时,无法预料的或无意的系统行为将变得越来越危险且难以纠正。并不是所有通用人工智能级别的系统都能够与人类利益保持一致,因此,当这些系统的能力越来越强大时,应当谨慎并确定不同系统的运行机制。”
梁正认为,为避免社会舆论可能的过度负面解读,担心大家认为它培育出了英国作家玛丽·雪莱笔下的弗兰肯斯坦式的科技怪物,以“不作恶”为企业口号的谷歌自然会予以否认。“不仅如此,尽管这一原则对企业没有强制约束力,但若被认为突破了底线,并对个体和社会造成实质性伤害,很有可能面临高额的惩罚性赔偿,因此企业在合规性方面会更为谨慎。”
我国也有类似管理规范。2019年,国家新一代人工智能治理专业委员会发布《新一代人工智能治理原则——发展负责任的人工智能》,提出人工智能治理的框架和行动指南。其中,“敏捷治理”原则主要针对技术可能带来的新社会风险展开治理,强调治理的适应性与灵活性。
中国信息化百人会成员、清华大学教授薛澜在接受媒体采访时表示,当前人工智能治理面临的最大挑战,是我们没有一套比较成熟的体系来规制其潜在的风险。特别是在第四次工业革命背景下,我国的人工智能技术和其他国家一样都处于发展期,没有现成的规制体系,这样就使得我们在发展科技的同时,必须同步发展我们的规制体系。“这可能是人工智能发展面临最大的挑战。”
在梁正看来,目前很难断言新兴人工智能技术具有绝对风险,但必须构造合理的熔断、叫停机制。在治理中既要具有一定的预见性,又不能扼杀创新的土壤,要在企业诉求和公共安全之间找到合适的平衡点。
毕竟,对人类来说,发展人工智能的目的不是把机器变成人,更不是把人变成机器,而是解决人类社会发展面临的问题。
从这个角度来说,我们需要的或许只是帮助人类而不是代替人类的人工智能。
为了人机友好的未来确保通用人工智能技术有益于人类福祉,一直是人工智能伦理构建的前沿。
薛澜认为,在科技领域,很多技术都像硬币的两面,在带来正面效应的同时也会存在风险,人工智能就是其中一个比较突出的领域。如何在促进技术创新和规制潜在风险之间寻求平衡,是科技伦理必须关注的问题。
梁正提出,有时技术的发展会超越人们预想的框架,在不自觉的情况下出现与人类利益不一致甚至相悖的情况。著名的“曲别针制造机”假说,即描述了通用人工智能在目标和技术都无害的情况下,对人类造成威胁的情景。
“曲别针制造机”假说给定一种技术模型,假设某个人工智能机器的终极目标是制造曲别针,尽管看上去这一目的对人类无害,但最终它却使用人类无法比拟的能力,把世界上所有资源都做成了曲别针,进而对人类社会产生不可逆的伤害。
因此有观点认为,创造出法力高超又杀不死的孙悟空本身就是一种不顾后果的冒险行为。
与其对立的观点则认为,目前这一担忧为时尚早。
“我们对到底什么样的技术路线能够发展出具备自主意识的人工智能尚无共识,现在谈论‘禁止发展’,有种空中楼阁的意味。”梁正说。
商汤科技智能产业研究院院长田丰告诉《瞭望》新闻周刊,现实中人工智能技术伦理风险治理的关键,是产业能够在“预判防范-应用场景-用户反馈-产品改进”中形成市场反馈机制,促成伦理风险识别与敏捷治理。同时,企业内部也需建立完整的科技伦理自律机制,通过伦理委员会、伦理风控流程平台将伦理风险把控落实到产品全生命周期中。
郭雨晨说,人工智能技术发展到目前,仍始终处于人类可控状态,而科技发展的过程本来就伴随对衍生问题的预判、发现和解决。“在想象中的人工智能自主意识出现以前,人工智能技术脚踏实地的发展,已经造福人类社会很多年了。”
在梁正看来,人与人工智能在未来会是一种合作关系,各自具备对方无法达成的能力。“技术归根结底是由人类来发展和把控的。人类和人工智能的未来,是由人类选择的。”
编辑:李华山
2022年08月16日07:42:05