马斯克锐评人工智能:威胁程度超过核技术 需要加强安全监管
财联社2月16日讯(编辑赵昊)当地时间周三(2月15日),埃隆·马斯克在阿联酋迪拜的2023年世界政府峰会上表示,ChatGPT证实了人工智能(AI)已经获得了令人难以置信的发展,但这已成为人类应该担心的一件事。
马斯克在视频发言中强调,人工智能是未来人类文明最大的风险之一。他补充称,“它有积极的一面,也有消极的一面,有巨大的前景也有巨大的能力,但随之而来的危险也是巨大的。”
自动播放去年11月末,人工智能研究公司OpenAI公开测试了对话机器人ChatGPT。它一经问世就引发广泛关注,有人称它颠覆了人们对聊天机器人的认知。仅仅用了2个多月,ChatGPT的活跃用户数就已突破了1个亿。
值得一提的是,马斯克还是OpenAI的创始人之一,但由于特斯拉的智能驾驶技术与OpenAI存在潜在的利益冲突,马斯克于2018年离开了OpenAI董事会。
马斯克告诉与会听众,人工智能技术已经在近几年发展得相当先进了,只是一直没有一个窗口告诉大多数人。现在,ChatGPT成功向人们传达了AI技术先进的程度。
但马斯克指出,现在应该监管人工智能的安全问题,即使会放慢这一技术的发展速度。他补充称,实际上,人工智能对社会的风险要比汽车、飞机或药品更大,“以核技术为例,我们有核能,但也有核弹。”
据了解,马斯克早于2017年就提出了“AI威胁论”,当时他就认为AI是人类文明的危险,并指出威胁程度要远高于车祸、飞机失事、毒品泛滥等。在2018年的一次采访中,马斯克更是强调,人工智能要比核武器危险得多。
上周,微软公司创始人之一的比尔·盖茨也警告,人工智能存在失控或走向错误的风险,在引发关注的同时势必也会带来大量争议。
近期在科学研究领域,《自然》《科学》等知名科学期刊纷纷表态,探讨ChatGPT适用与不适用的情形。在文学艺术领域,ChatGPT创造的作品也将面临版权纷争、法律纠纷等问题。
马斯克等千人签署公开信,人工智能开发危及“文明控制权”
中新网3月30日电美剧《西部世界》和好莱坞电影《终结者》里曾描绘,人工智能(AI)的“觉醒”可能危及人类。最近,科幻片中的担忧照进现实,有不少人工智能业界“大佬”突然呼吁暂停开发更强大的AI系统,提出具有人类水平智能的AI系统可能“对社会和人类构成潜在风险”。
他们的担忧从何而来?人工智能开发会否危及人类的“文明控制权”?AI的发展是否已来到需要按下“暂停键”的转折点?
一封公开信,四问AI风险
近期,美国亿万富翁埃隆·马斯克和人工智能领域顶尖专家、图灵奖得主约书亚·本吉奥(YoshuaBengio)等人联名签署了一封公开信,呼吁暂停开发比GPT-4更强大的AI系统至少6个月,称其“对社会和人类构成潜在风险”。
呼吁暂停巨型AI训练的公开信。图片来源:“未来生命研究所”网站
这封发布在非营利性组织“未来生命研究所”(FutureofLifeInstitute)网站上的公开信主张,在开发强大的AI系统之前,应先确认其带来影响是积极的、风险是可控的。
信中详述了具有人类水平智能的AI系统可能对社会和人类带来极大的风险,称“这一点已经得到大量研究和顶级AI实验室的认同”,并连续抛出四个疑问:
-我们是否应该让机器用宣传和谎言淹没我们的信息渠道?
-我们是否应该让所有的工作自动化,包括那些令人满意的工作?
-我们是否应该发展最终可能在数量上超过我们、在智能上超越我们、能够淘汰并取代我们的非人类思维?
-我们应该冒着失去对我们文明控制的风险吗?
公开信指出,如果不能迅速实施此类暂停,政府应当介入并采取措施。此外,“AI实验室和独立专家应该利用这次暂停,共同开发和实施一套用于高级AI设计和开发的共享安全协议,并由独立的外部专家进行严格审计和监督”。
信中还呼吁开发人员和政策制定者合作,大幅加快强大的AI治理系统的开发。这其中至少应当涉及监管机构、审计和认证系统、监督和追踪高性能AI系统、人工智能造成伤害后的责任问题、为AI技术安全研究提供公共资金等方面。
公开信在最后提到,如今,我们的社会已经暂停其他可能造成灾难性影响的技术,对于人工智能也应该如此,“让我们享受一个漫长的‘AI之夏’,而不是毫无准备地进入秋天”。
技术、伦理、利益,呼吁放慢脚步为哪般?
从这些内容中不难看出,比起技术,公开信的支持者更在意的,是人工智能可能出现的“野蛮生长”,以及它的发展可能带来的社会和伦理难题。
公开信中提到,此番暂停并不意味着从总体上暂停人工智能的开发,而是从危险竞赛中“后退一步”。人工智能的研究和开发应该重新聚焦于使当今强大的、最先进的系统变得更加准确、安全、可解释、透明、稳健、一致、可信且可靠。
纽约大学教授加里·马库斯所人为,“这封信并不完美,但精神是正确的”,他认为,人们需要放慢脚步,直到可以更好地理解这一切带来的后果。
目前,该公开信已获上千人签署,其中不乏开源人工智能公司StabilityAI首席执行官莫斯塔克(EmadMostaque)、谷歌母公司Alphabet旗下人工智能企业DeepMind研究人员、计算机科学家斯图亚特·罗素(StuartRussell)等专家学者和科技公司高管。
发布公开信的“未来生命研究所”则主要由马斯克基金会、硅谷社区基金会等资助。特斯拉首席执行官马斯克正在将人工智能应用于自动驾驶系统,他也一直坦率表达自己对人工智能的担忧。
路透社还称,欧洲刑警组织(Europol)日前也表达了对ChatGPT等先进人工智能在伦理和法律方面的担忧,警告此类系统可能会被滥用于网络钓鱼、虚假信息和网络犯罪。此外,英国政府也公布了关于建立AI监管框架的提议。
在网络上,这封信也引起热烈讨论,有网友表示认同,人们需要知道发生了什么,“仅仅因为我们知道可以建造它,并不意味着应该建造”。
但也有人怀疑马斯克的动机,“马斯克之所以会签署它,因是为他想用自己的人工智能来赚钱。”
还有人分析,“这很可怕,但我认为有些项目不需要停止。技术正在发展迅速,负责任的创新也是必要的。”
关于人类和AI关系的思考,从技术诞生之初就没有停过。著名物理学家霍金也曾说过,“成功创造了人工智能,很可能是人类文明史上最伟大的事件。但如果我们不能学会如何避免风险,那么我们会把自己置于绝境”。
如今,从通过资格考试,到进行艺术“创作”,AI能做的事越来越多,朝着“智能”的方向越走越远。但同时,利用AI技术进行网络诈骗勒索、传播非法信息等犯罪行为也层出不穷。
不同于物理世界技术创新成果转化的漫长周期,AI技术突破往往会通过互联网一夜之间散播全球。在人类未能就AI伦理、监管等找到妥善解决之道前,这些讨论和担忧并不多余。
人工智能比核弹危险将毁灭人类,马斯克率众停止人工智能研究
0分享至当有人问美国公司开发的人工智能聊天机器人程序,核武器和人工智能哪个会先毁掉人类?得到的回答是,如果AI系统超越了人类的控制,它们可能会开始追求自己的目标,这些目标可能与人类的利益相冲突。因此,一旦人工智能开始追求自己的目标,AI系统可能会对人类造成重大威胁,甚至导致人类的灭绝,相比核武器,人工智能可能会更难以控制和监督,因为它们的行为不像核武器那样容易观察和预测。所以,科技狂人马斯克联名千人提出停止研究,人工智能将出现失控的风险,OpenAI创始人接受采访时直言不讳的表示,AI已经回出现其无法解释的推理能力,同时承认“AI杀死人类”有一定可能性。360创始人周鸿祎也指出,GPT6到GPT8人工智能将会产生意识,变成新的物种。特别声明:以上内容(如有图片或视频亦包括在内)为自媒体平台“网易号”用户上传并发布,本平台仅提供信息存储服务。
Notice:Thecontentabove(includingthepicturesandvideosifany)isuploadedandpostedbyauserofNetEaseHao,whichisasocialmediaplatformandonlyprovidesinformationstorageservices.
/阅读下一篇/返回网易首页下载网易新闻客户端