博舍

加快发展新一代人工智能 人工智能改进数据

加快发展新一代人工智能

  理解提问,快速给出回答;训练声音,翻唱经典歌曲;根据描述,绘出趣味画作……近期,基于大模型研发的生成式人工智能,展示了在语言理解和内容生成等方面的出色能力,引发社会关注。

  大模型赋能,生成式人工智能正在引发新一轮智能化浪潮。得益于拥有庞大的数据、参数以及较好的学习能力,大模型增强了人工智能的通用性。从与人顺畅聊天到写合同、剧本,从检测程序安全漏洞到辅助创作游戏甚至电影……生成式人工智能本领加速进化。随着技术迭代,更高效、更“聪明”的大模型将渗透到越来越多的领域,有望成为人工智能技术及应用的新基座,变成人们生产生活的基础性工具,进而带来经济社会发展和产业的深刻变革。人工智能大模型强大的创新潜能,使其成为全球竞争的焦点之一。

  经过多方努力,我国人工智能大模型已具有一定基础。在2023中关村论坛上发布的《中国人工智能大模型地图研究报告》显示,中国人工智能大模型正呈现蓬勃发展态势。据不完全统计,截至目前,10亿级参数规模以上的大模型全国已发布了79个。我国在大模型方面已建立起涵盖理论方法和软硬件技术的体系化研发能力。也应看到,人工智能大模型离不开多项技术的融合创新。在前沿基础理论和算法上,我国与国际先进水平还存在差距。筑牢智能时代的根基,需要瞄准短板,着力推动大模型领域生成式算法、框架等原创性技术突破。同时,还应发挥我国应用场景优势,进一步深耕垂直领域,以行业专有训练数据集为基础,打造金融、医疗、电力等领域的专业大模型。要以高质量应用和数据反馈技术优化,帮助大模型迭代升级。

  数据质量影响大模型“智商”。国际上一些大模型之所以领先,与大量公开高质量数据的训练息息相关。我国有海量数据和丰富应用场景,应逐步开放共享优质数据,通过制定共享目录和共享规则等方式,推动数据分级分类有序开放,让流动数据激发创新活力。例如,前不久印发的《深圳市加快推动人工智能高质量发展高水平应用行动方案(2023—2024年)》提出,“建立多模态公共数据集,打造高质量中文语料数据”。期待各地各行业从实际出发,加强高质量数据供给,为大模型成长提供充足“养料”。

  人工智能大模型研发周期长、投入大、风险高。经过数年持续研发,国际领先的大模型聚集了较好的资源和人才。当前,我国不少高校院所、企业正在做研发工作,在大模型、大数据、大算力等方面各有侧重,研发力量较为分散。作为追赶者,有必要进一步强化企业科技创新主体地位,整合优势创新资源,推动形成大模型产学研攻坚合力。

  人工智能大模型带来的治理挑战也不容忽视。营造良好创新生态,需做好前瞻研究,建立健全保障人工智能健康发展的法律法规、制度体系、伦理道德。为促进生成式人工智能技术健康发展和规范应用,今年4月,国家互联网信息办公室发布《生成式人工智能服务管理办法(征求意见稿)》。新技术应用往往先于规范。着眼未来,在重视防范风险的同时,也应同步建立容错、纠错机制,努力实现规范与发展的动态平衡。

  人工智能是新一轮科技革命和产业变革的重要驱动力量,加快发展新一代人工智能是事关我国能否抓住新一轮科技革命和产业变革机遇的战略问题。从战略高度着手,凝聚合力、攻坚克难、勇于创新,努力拓展理论和技术应用空间,必能更好培育壮大新动能,构筑发展新优势。(喻思南)

人工智能如何“向善”

一段时间以来,以ChatGPT为代表的人工智能大模型搅动了全球人工智能技术发展的浪潮。从写代码到讲故事,从撰写文章到自动制作数据表格……人工智能正在给人类的工作、学习、生活带来诸多变化。

我们距离“无所不能”的通用人工智能还有多远?人工智能的发展带来哪些安全隐患和挑战?近日召开的2023北京智源大会上,来自全球的人工智能专家学者围绕相关话题展开探讨。

通用人工智能路途尚远

“想象一下,未来10年,通用人工智能(AGI)几乎在每一个领域都超过人类的专业知识,最终可能超过所有大型公司的总体生产力,这将提高人们的生活水平。”OpenAI首席执行官山姆·阿尔特曼展现了一幅人工智能的未来图景。

所谓AGI,是指能够像人类一样在各种领域进行智能任务的人工智能系统。这与目前人工智能应用只聚焦于特定任务或领域(如图像识别、语音识别、自然语言处理等)不同,对人工智能技术提出了更高要求。

“通用人工智能可以比人类更好、更快地学习和执行任务,包括人类无法处理的任务。由于机器在速度、内存、通信和带宽方面的巨大优势,未来通用人工智能几乎在所有领域都将远超人类的能力。”美国加州大学伯克利分校计算机科学教授斯图尔特·罗素说。

尽管人工智能已经有了“超越”人类的“时间表”,但在很多专家看来,目前的人工智能距离AGI还有不小的距离。

罗素认为,当下火热的大语言模型并不“理解世界”,只是通用人工智能的一块“拼图”——“我们并不了解如何将它与其他部分连接起来,甚至还有一些缺失的拼图还没有找到。”

北京智源人工智能研究院院长黄铁军指出,要实现通用人工智能,有3条技术路线:第一是大模型,通过海量高质量数据,让人工智能具备智能涌现能力;第二是具身智能,通过强化学习方法,训练出具身模型;第三是类脑智能,让机器达到或类似于人脑能力。

对于人工智能的发展,图灵奖得主、纽约大学教授杨立昆提出了“世界模型”的概念——人工智能系统可以通过这一模型理解世界的运转方式,并以最优化、成本最小的方式来行动。

加强安全治理领域国际合作

根据普华永道会计师事务所预测,到2030年,人工智能将创造15.7万亿美元的经济价值。人工智能为经济发展提供了重要机遇,但也引发了安全性方面的担忧和争议。

图灵奖得主、多伦多大学教授杰弗里·辛顿认为,目前的人工智能已经可以通过学习,掌握“欺骗”人类的方式。“一旦人工智能具备了‘欺骗’的能力,就有了‘控制’人类的能力。这样的超级智能可能会比预想中发生得更快。”

在通用人工智能时代到来之前,人工智能的安全风险主要来自于“人”。“我们不应该假设机器是公正的,因为机器可能会试图改变人类的行为。更准确地说,是机器的所有者想要改变其他人的行为。”图灵奖得主、中国科学院院士姚期智说,当前人工智能的发展处于重要窗口期,各国应共同合作,搭建人工智能的治理结构。

随着人工智能的本事越来越大,人工智能的“对齐”问题浮上水面。所谓“对齐”,即人工智能系统的目标要和人类的价值观与利益“对齐”,保持一致。

如何让人工智能与人类“对齐”?阿尔特曼认为,人们应当负责任地将人工智能应用到世界中,重视和管理好安全风险。他建议在人工智能技术研发过程中建立平等、统一的国际规范和标准,并通过国际合作,以可验证的方式建立人工智能系统安全开发的信任体系。

黄铁军认为,人工智能虽然会产生预料之外的新能力,但这并不意味着人类无法对人工智能进行管理。“如何管理人工智能这样一个创造性极强的系统,社会学、历史学等学科都能提供很好的借鉴意义。”

今年2月,中国在《全球安全倡议概念文件》中提出加强人工智能等新兴科技领域国际安全治理,预防和管控潜在安全风险。在此次智源大会上,专家学者积极评价中国在推动人工智能国际治理上的贡献。

阿尔特曼说,中国在人工智能领域拥有大量优秀的人才和产品系统,在人工智能的安全方面应发挥关键作用。

麻省理工学院人工智能与基础交互研究中心教授马克斯·泰格马克表示,中国在塑造全球人工智能议程上的能力日益增长,可以在人工智能安全治理领域发挥领导作用。

推动大模型共建共享

当下,全球人工智能领域的科技竞赛日趋白热化。2023中关村论坛上发布的《中国人工智能大模型地图研究报告》显示,全国已发布了79个参数在10亿规模以上的人工智能大模型。

从全球来看,中国和美国已发布的大模型数量超过全球总数的80%。中国自2020年起进入大模型快速发展期,在大模型方面已建立起涵盖理论方法和软硬件技术的体系化研发能力,形成了紧跟世界前沿的大模型技术群,涌现出多个具有行业影响力的预训练大模型。

在此次大会上,全面开源的智源“悟道3.0”系列大模型及算法正式发布。据了解,“悟道3.0”涵盖了一系列领先成果,包括“悟道·天鹰”(Aquila)语言大模型系列、天秤(FlagEval)开源大模型评测体系与开放平台,“悟道·视界”视觉大模型系列以及一系列多模态模型成果等。

黄铁军认为,人工智能大模型有3个特点:一是规模大;二是有“涌现性”,即能够产生预料之外的新能力;三是通用性,不限于解决专门问题或者专门领域。他表示,大模型不是任何一家机构或者一家公司垄断的技术,应当共建共享,推出一套智力社会所需的基础的算法体系。

(实习生张伟纳对本文亦有贡献)

(责编:杨光宇、牛镛)关注公众号:人民网财经

分享让更多人看到

欧洲议会批准《人工智能法案》 要求披露生成式AI训练数据版权

当地时间6月14日,在法国斯特拉斯堡举行的欧洲议会全体会议上,议员参加了关于《人工智能法案》的投票会议。

当地时间6月14日,欧盟《人工智能法案(AIAct)》朝着成为法律的方向迈出重要一步:欧洲议会投票通过了该法案,禁止实时面部识别,并对ChatGPT等生成式人工智能工具提出了新的透明度要求。

《人工智能法案》现在将进入欧盟监管过程的最后“三部曲”阶段。官员们将尝试就这一法律草案与欧盟行政部门和成员国达成妥协,他们之间目前仍存分歧。如果该法案要在欧盟明年的选举前生效,则必须在明年1月完成立法程序。

“这一刻非常重要。”AccessNow布鲁塞尔办事处专注于人工智能的高级政策分析师丹尼尔·鲁弗(DanielLeufer)告诉《时代》,“欧盟所说的对人权构成不可接受的风险将被视为全世界的蓝图。”

欧盟批准的法律版本提出,任何应用于就业、边境管制和教育等“高风险”用例的人工智能都必须遵守一系列安全要求,包括风险评估、确保透明度和提交日志记录。该法案不会自动将ChatGPT等“通用”AI视为高风险,但对“基础模型”或经过大量数据训练的强大AI系统施加了透明度和风险评估要求。例如,基础模型的供应商,包括OpenAI、谷歌和微软,将被要求声明是否使用受版权保护的材料来训练AI。但是,没有类似的要求来声明是否在训练期间使用了个人数据。

这些规则如何运作?

欧盟《人工智能法案》于2021年被首次提出,将适用于任何使用人工智能系统的产品或服务。

该法案根据4个级别的风险对人工智能系统进行分类,从最小到不可接受。风险较高的应用程序,例如招聘和针对儿童的技术将面临更严格的要求,包括更加透明和使用准确的数据。

欧盟的主要目标之一是防范任何人工智能对健康和安全构成威胁,并保护其基本权利和价值观。

这意味着某些AI用途是绝对禁止的,例如根据人们的行为来判断他们的“社会评分”系统,以及利用弱势群体(包括儿童)或使用可能导致伤害的潜意识操纵的AI,比如鼓励危险行为的交互式对话工具。用于预测谁将犯罪的预测性警务工具也将被禁止。

此外,用于就业和教育等类别的人工智能系统会影响一个人的生活进程,将面临严格要求,例如对用户保持透明,并采取措施评估和减少算法带来的偏见风险。

欧盟委员会表示,大多数人工智能系统,如视频游戏或垃圾邮件过滤器,都属于低风险或无风险类别。

争论的一个主要领域是面部识别的使用。欧洲议会投票禁止使用实时面部识别,但仍存在是否应出于国家安全和其他执法目的而允许豁免的问题。另一项规定将禁止公司从社交媒体上抓取生物识别数据来建立数据库。

当天,欧洲议会的一群右翼立法者在最后一刻试图取消法案提议的实时面部识别禁令,但遭到立法者否决。

执行这些规则将取决于欧盟的27个成员国。监管机构可能会迫使企业从市场上撤回应用程序。在极端情况下,违规行为可能会被处以高达3000万欧元(约合3300万美元)或公司全球年收入6%的罚款,对于谷歌和微软等科技公司而言,罚款可能高达数十亿美元。

和ChatGPT有什么关系?

法案最初的措施几乎没有提到聊天机器人,仅要求对其进行标记,以便用户知道他们正在与机器进行交互。谈判人员后来增加了条款,以涵盖像ChatGPT这样广受欢迎的通用人工智能,使该技术满足一些与高风险系统相同的要求。

一个关键的补充是,法案要求彻底记录任何用于训练AI系统如何生成类似于人类作品的文本、图像、视频和音乐的版权材料。这将使内容创作者知道,他们的博客文章、电子书、科学文章或歌曲是否已被用于训练为ChatGPT等系统提供动力的算法。然后他们可以决定其作品是否可以被复制并寻求补偿。

一些担心人工智能模型带来安全风险的专家认为,该法案没有对人工智能系统可以使用的计算能力进行限制。随着每个新版本的发布,像ChatGPT这样的大型语言模型使用的计算量呈指数级增长,这将极大提高其能力和表现。“用于训练人工智能系统的计算越多,人工智能就会越强大。能力越大,风险和危险的可能性就越大。”人工智能安全初创公司Conjecture的战略和治理主管安德里亚·米奥蒂(AndreaMiotti)告诉《时代》。

米奥蒂指出,研究人员衡量系统总计算能力相对容易,因为用于训练大多数尖端AI的芯片是一种物理资源。

为什么欧盟的监管很重要?

《时代》指出,欧盟并不是尖端人工智能开发的重要参与者,这个角色由美国和中国扮演,但欧盟经常扮演引导潮水的角色,其法规往往成为事实上的全球标准,并已成为针对大型科技公司力量的先驱。

专家表示,欧盟单一市场规模庞大,拥有4.5亿消费者,这使得公司更容易遵守规定,而不是为不同地区开发不同的产品。通过为人工智能制定通用规则,欧盟还试图通过在用户中灌输信心来发展市场。

“这是可以强制执行的法规,公司将被追究责任这一事实意义重大”,因为美国、新加坡和英国等地仅提供了“指导和建议”,爱尔兰公民自由委员会的高级研究员克里斯·施里萨克(KrisShrisak)说,“其他国家可能想要适应和复制”欧盟规则。

其他一些国家也在加紧监管步伐。比如,英国首相苏纳克(RishiSunak)计划在今年秋天举办人工智能安全世界峰会。“我想让英国不仅成为知识的家园,而且成为全球人工智能安全监管的地理家园。”苏纳克在本周的一次技术会议上说,英国峰会将汇集“来自世界各地的学术界、商界和政府”人士,共同致力于“多边框架”。

艾达·洛芙莱斯研究所(AdaLovelaceInstitute)的代理主任弗朗辛·贝内特(FrancineBennett)告诉《纽约时报》:“快速发展和可迅速重新利用的技术当然很难监管,因为即使是开发该技术的公司也不清楚事情将如何发展。但如果在没有充分监管的情况下继续运营,对我们所有人来说肯定会更糟。”

然而,美国计算机与通信行业协会认为,欧盟应避免过于宽泛的监管,否则会抑制创新。该机构欧洲政策经理博尼法斯·德·尚普里斯(BonifacedeChampris)说,“欧洲的新AI规则需要有效解决明确定义的风险,同时为开发人员提供足够的灵活性来交付为所有欧洲人谋福利的人工智能应用。”

下一步是什么?

法案完全生效可能需要数年时间。下一步是涉及成员国、议会和欧盟委员会的三方谈判,在他们试图就措辞达成一致前可能面临更多变化。

鲁弗分析,在即将到来的三方对话阶段,代表成员国政府的欧洲理事会预计将强烈主张执法和边境部队使用的人工智能工具免于对“高风险”系统的要求。

法案预计将在今年年底获得最终批准,随后是企业和组织适应的宽限期,通常约为两年。但领导该法案工作的欧洲议会意大利议员布兰多·贝尼菲(BrandoBenifei)表示,他们将推动更快地采用生成式AI等快速发展技术的规则。

为了在立法生效前填补空白,欧洲和美国正在起草一份自愿行为准则,官员们在5月底承诺将在几周内起草该准则,并可能扩大到其他“志同道合的国家”。

版权声明:本文内容由互联网用户自发贡献,该文观点仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌抄袭侵权/违法违规的内容,一经查实,本站将立刻删除。

上一篇

下一篇