谷歌前 CEO:人工智能会给人类带来“生存风险”
5月25日消息,当地时间周三谷歌前首席执行官埃里克・施密特(EricSchmidt)警告称,人工智能可能会导致很多人“受到伤害或者死亡”(harmedorkilled),给人类带来“生存风险”,政府需要知道如何确保这项技术不会“被坏人滥用”。当下,人工智能未来走向已经成为技术专家和政策制定者的讨论焦点,他们正在努力探讨人工智能的未来发展趋势以及该如何进行监管。去年开始走红的聊天机器人ChatGPT让人们对人工智能有了更多认识。世界各地的大公司都希望推出有竞争力的人工智能产品,推广自家在人工智能领域的实力。施密特周三在伦敦举行的一次峰会上表示,他担心人工智能会给人类带来一种“生存风险”。施密特说:“生存风险的定义是很多很多人受到伤害或死亡。”他解释说,“在某些情况下,这些系统能够在网络问题中发现零日漏洞,或者发现新物种。虽然不是现在,但这种情况很快就会出现。当下这种说法是虚构的,但推演结果很可能是真实存在的。当这种情况发生时,我们希望能做好准备,知道如何确保这些东西不会被坏人滥用。”施密特所说的零日漏洞是黑客在软件和系统中发现的安全漏洞。施密特在2001年至2011年期间担任谷歌首席执行官,虽然他对人工智能应该如何监管没有明确的看法,但表示这是一个“更广泛的社会问题”。他表示,美国不太可能成立一个专门监管人工智能的新机构。施密特并不是第一个对人工智能风险发出警告的科技界大佬。开发ChatGPT的OpenAI公司首席执行官萨姆・奥尔特曼(SamAltman)今年3月份就承认,他对人工智能感到“有点害怕”。特斯拉首席执行官埃隆・马斯克(ElonMusk)过去也曾表示,他认为人工智能是人类文明面临的“最大风险”之一。谷歌最近推出了自家的人工智能聊天机器人Bard。负责监督这项工作的现任首席执行官桑德尔・皮查伊(SundarPichai)说这项技术将“影响每家公司的每一件产品”,并认为全社会需要为这些变化做好准备。如今施密特是美国人工智能国家安全委员会的成员。委员会于2019年开始对人工智能技术进行审查,包括建立一个潜在的监管框架。2021年,委员会发布了一份评估报告,警告称美国对人工智能时代的准备不足。广告声明:本文含有的对外跳转链接(包括不限于超链接、二维码、口令等形式),用于传递更多信息,节省甄选时间,结果仅供参考。IT之家所有文章均包含本声明。
OpenAI CEO:人工智能是人类有史以来在技术上最重要的一步
6月22日周四,OpenAI首席执行官SamAltman表示,人工智能对于人类和技术来说是“迄今为止最重要的一步”。
Altman在旧金山举行的一场会议上表示,快速发展的人工智能技术“可能会在很多方面出错”。但他认为,收益大于成本,“我们使用危险的技术,这些技术可能经常以危险的方式使用。”
Altman近几个月来一直公开推动加强对人工智能的监管,经常与世界各地的官员谈论人工智能的负责任管理。
Altman表示,世界各地的立法者在监管人工智能方面应保持谨慎。他表示:
我认为全球性的监管可以帮助确保安全,这是比阻碍人工智能发展更好的方案。
Altman谈到了人工智能可能带来好处的几个领域,包括医学、科学和教育等。
当前,OpenAI的估值已超过270亿美元,在风险投资支持的人工智能公司蓬勃发展的领域处于领先地位。在谈到他是否会从OpenAI的成功中获得经济利益时,Altman表示,“我有足够的钱”,并强调他的动机不是经济上的:
拥有足够的钱这个概念不容易被其他人理解,想要成为有用的人并致力于“重要的事情”才是人的本性。
我认为人工智能将是人类在技术方面必须迈出的最重要的一步,我真的很在意这一点。
帮助Altman创立OpenAI的马斯克在同一场合警告人工智能可能带来的危害。Altman表示,马斯克“确实非常关心人工智能安全”,而且他的批评“源于一个很好的出发点”。
Altman是本周在旧金山会见美国总统拜登总统的人工智能专家之一。近期,这位首席执行官在全球范围内的多个场合讨论人工智能及其监管,包括在美国首都华盛顿,他告诉美国参议员,“这项技术可能会出错。”
包括微软和Alphabet在内的主要人工智能公司已承诺参与对其系统的独立公开评估。但美国政府也在寻求推动更广泛的监管。美国商务部今年早些时候表示,正在考虑制定规则,要求人工智能模型在发布前必须经过认证程序。
当前,谷歌和OpenAI这两大AI领域的领导者对政府应如何监管人工智能持有相反的看法。
Altman最近一直在鼓吹由政府来监管AI技术,甚至提到要建立一个类似国际原子能机构的政府间组织来监管AI,而且他认为,该机构应该专注于监管AI技术,以及为使用该技术的实体颁发许可。但谷歌则不希望AI监管一切都由政府统领,该公司更倾向于“多层次、多利益相关者的AI治理方法”。