博舍

科学网—《自然》警示:人工智能现在就可能会带来风险 人工智能对现在的影响论文

科学网—《自然》警示:人工智能现在就可能会带来风险

《自然》警示:人工智能现在就可能会带来风险精选

已有2300次阅读2023-6-3006:50|系统分类:海外观察

《自然》警示:人工智能现在就可能会带来风险

看到行业领导者谈论自己产品的潜在杀伤力是不寻常的。例如,这不是烟草或石油高管倾向于做的事情。然而,似乎不到一周的时间,科技行业内部人士就没有大肆宣扬人工智能(AI)的存在风险。

今年三月,埃隆・马斯克(ElonMusk)和其他技术专家签署的一封公开信警告说,巨型人工智能系统对人类构成了巨大的风险。几周后,开发人工智能工具的先驱杰弗里・辛顿(GeoffreyHinton)辞去了他在谷歌的研究职位,警告这项技术带来的严重风险。包括OpenAI和GoogleDeepMind代表在内的500多名商业和科学领袖在一份23个字的声明中表示,解决人工智能导致人类灭绝的风险“应该与流行病和核战争等其他社会规模的风险一起成为全球优先事项”。6月7日,英国政府宣布将于今年秋天举办首届大型全球人工智能安全峰会时援引人工智能的潜在生存危险。

人工智能可能导致人类灭绝的想法,多年来一直在技术界的边缘讨论。对ChatGPT工具和生成AI的兴奋现在已经将其推向主流。但是,就像魔术师的花招一样,它将注意力从真正的问题上转移开:人工智能系统和工具现在造成的社会危害,或者未来可能造成的社会危害。各国政府和监管机构尤其不应被这种说法分散注意力,必须采取果断行动遏制潜在的危害。尽管他们的工作应该由科技行业提供信息,但它不应该受制于科技议程。

许多与《自然》杂志交谈过的人工智能研究人员和伦理学家对主导人工智能辩论的世界末日言论感到沮丧。它至少在两个方面存在问题。

首先,人工智能作为全能机器的幽灵加剧了国家之间发展人工智能的竞争,以便他们能够从中受益并控制它。这对科技公司有利:它鼓励投资并削弱监管该行业的论据。生产下一代人工智能军事技术的实际军备竞赛已经在进行中,增加了灾难性冲突的风险――也许是世界末日,但不是主流“人工智能威胁人类灭绝”叙事中讨论的那种。

其次,它允许一个由公司高管和技术人员组成的同质群体主导有关人工智能风险和监管的对话,而其他社区则被排除在外。科技行业领导者写的信“基本上是在围绕谁在这场对话中算作专家划定界限”,纽约市AINowInstitute所长AmbaKak说,该研究所专注于人工智能的社会后果。

人工智能系统和工具具有许多潜在的好处,从综合数据到协助医疗诊断。但它们也可能造成有据可查的危害,从有偏见的决策到裁员。人工智能驱动的面部识别已经被专制国家滥用,以跟踪和压迫人民。有偏见的人工智能系统可以使用不透明的算法来拒绝人们的福利、医疗或庇护――这些技术的应用可能对边缘化社区的人影响最大。

围绕最新一代生成式人工智能的最大担忧之一是它有可能增加错误信息。这项技术使得制作更多、更有说服力的虚假文字、照片和视频变得更加容易,这些文字、照片和视频可能会影响选举,或者破坏人们信任任何信息的能力,从而可能破坏社会的稳定。如果科技公司真的想避免或减少这些风险,他们必须将道德、安全和问责制置于工作的核心。目前,他们似乎不愿意这样做。OpenAI对其最新的生成AI模型GPT4进行了“压力测试”,提示它产生有害内容,然后采取保护措施。但是,尽管该公司描述了它所做的事情,但测试的全部细节和模型训练的数据并未公开。

科技公司必须为负责任地开发人工智能系统和工具制定行业标准,并在产品发布之前进行严格的安全测试。他们应该向能够验证数据的独立监管机构提交完整的数据,就像制药公司必须在药品上市销售之前向医疗当局提交临床试验数据一样。

为此,政府必须建立适当的法律和监管框架,并适用现有的法律。本月早些时候,欧洲议会批准了《人工智能法案》,该法案将根据其潜在风险来规范欧盟的人工智能应用――例如,禁止警察在公共场所使用实时面部识别技术。在欧盟成员国成为法律之前,该法案还需要清除进一步的障碍,并且存在关于如何执行的细节存在疑问,但它可能有助于制定人工智能系统的全球标准。关于人工智能风险和法规的进一步磋商,例如即将举行的英国峰会,必须邀请各种各样的与会者,其中包括研究人工智能危害的研究人员以及来自已经或特别有可能受到该技术伤害的社区的代表。

研究人员必须发挥自己的作用,自下而上地建立负责任的人工智能文化。四月份,大型机器学习会议NeurIPS(神经信息处理系统)宣布采用会议提交的道德准则。这包括期望涉及人类参与者的研究已获得伦理或机构审查委员会(IRB)的批准。所有研究人员和机构都应遵循这种方法,并确保IRB(或不存在IRB的情况下的同行评审小组)拥有检查潜在风险AI研究的专业知识。使用包含人类数据的大型数据集的科学家必须找到获得同意的方法。

关于生存风险的恐惧叙述不是建设性的。认真讨论实际风险,并采取行动遏制这些风险。人类越早建立与人工智能的交往规则,我们就能越早学会与技术和谐相处。

https://wap.sciencenet.cn/blog-41174-1393487.html上一篇:《医学气体研究》获得影响因子2.9下一篇:氢气和健康寿命收藏IP:117.135.15.*|热度|

人工智能领域的SCI期刊有哪些?

人工智能领域的SCI期刊有哪些?人工智能是当今科技领域的热门话题,有关人工智能的研究成果在各个方面都得到广泛关注和应用,很多学者对人工只能有着一定的研究,因此也想要在影响力高的SCI期刊上发表论文,那么人工只能领域里有哪些SCI期刊值得投稿呢?下面艾思科蓝小编将向您介绍几个享有盛誉的人工智能SCI一区期刊。

1、"JournalofArtificialIntelligenceResearch"(JAIR):

JAIR成立于1993年,是人工智能领域的顶级期刊之一。它发表了很多经典的人工智能研究论文,涵盖了机器学习、自然语言处理、知识推理等多个研究方向。这个期刊以其高质量的审稿标准和重要性的学术成果而闻名。

2、"ArtificialIntelligence"(AI):

AI是人工智能领域最古老且最具影响力的期刊之一,该期刊始创于1970年。它涵盖了人工智能的各个方面,包括机器学习、专家系统、模式识别等。AI期刊以其对于人工智能基础理论和方法的发展做出的重要贡献而著名。

3、"ACMTransactionsonIntelligentSystemsandTechnology"(TIST):

TIST是由ACM(AssociationforComputingMachinery)出版的重要期刊,主要关注人工智能领域的新兴技术和应用。此期刊涵盖了计算机视觉、自然语言处理、数据挖掘等多个方向。TIST以其对于人工智能技术的前沿研究和实际应用的报道而受到学术界和工业界的广泛关注。

4、"IEEETransactionsonPatternAnalysisandMachineIntelligence"(PAMI):

PAMI是IEEE(InstituteofElectricalandElectronicsEngineers)出版的重要期刊之一。该期刊专注于模式识别、计算机视觉和机器学习等领域的研究成果。PAMI以其在图像处理和模式识别方面具有权威性的学术贡献而享有盛誉。

5、"MachineLearning"(ML):

ML是人工智能领域顶级期刊之一,聚焦于机器学习和数据挖掘领域的研究。它涵盖了从理论到应用的广泛内容,包括深度学习、强化学习、分类与回归等研究方向。ML期刊以其高质量的文章和对于机器学习发展的重要贡献而受到广泛认可。

这些人工智能SCI一区期刊都是该领域中的知名期刊,它们发表的论文具有高质量、重要性和广泛的学术影响力。这些期刊涵盖了人工智能的方方面面,为研究人员提供了一个展示他们成果的平台,同时也为学者和专业人士提供了最新的学术研究成果和技术进展。通过在这些期刊上发表论文,研究人员可以获得更多的学术认可和关注,推动人工智能领域的发展。

以上就是最近朋友们都很关注的一些问题的具体解答了,大家想知道的相关学术问题都可以通过我们的网站艾思科蓝,与站内的在线编辑进行咨询,也可以留意我们之后更新的内容一定会有你想要了解的知识。

#计算机SCI期刊已收藏0点赞0

版权声明:本文内容由互联网用户自发贡献,该文观点仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌抄袭侵权/违法违规的内容,一经查实,本站将立刻删除。

上一篇

下一篇