人工智能如何“向善”
一段时间以来,以ChatGPT为代表的人工智能大模型搅动了全球人工智能技术发展的浪潮。从写代码到讲故事,从撰写文章到自动制作数据表格……人工智能正在给人类的工作、学习、生活带来诸多变化。
我们距离“无所不能”的通用人工智能还有多远?人工智能的发展带来哪些安全隐患和挑战?近日召开的2023北京智源大会上,来自全球的人工智能专家学者围绕相关话题展开探讨。
通用人工智能路途尚远
“想象一下,未来10年,通用人工智能(AGI)几乎在每一个领域都超过人类的专业知识,最终可能超过所有大型公司的总体生产力,这将提高人们的生活水平。”OpenAI首席执行官山姆·阿尔特曼展现了一幅人工智能的未来图景。
所谓AGI,是指能够像人类一样在各种领域进行智能任务的人工智能系统。这与目前人工智能应用只聚焦于特定任务或领域(如图像识别、语音识别、自然语言处理等)不同,对人工智能技术提出了更高要求。
“通用人工智能可以比人类更好、更快地学习和执行任务,包括人类无法处理的任务。由于机器在速度、内存、通信和带宽方面的巨大优势,未来通用人工智能几乎在所有领域都将远超人类的能力。”美国加州大学伯克利分校计算机科学教授斯图尔特·罗素说。
尽管人工智能已经有了“超越”人类的“时间表”,但在很多专家看来,目前的人工智能距离AGI还有不小的距离。
罗素认为,当下火热的大语言模型并不“理解世界”,只是通用人工智能的一块“拼图”——“我们并不了解如何将它与其他部分连接起来,甚至还有一些缺失的拼图还没有找到。”
北京智源人工智能研究院院长黄铁军指出,要实现通用人工智能,有3条技术路线:第一是大模型,通过海量高质量数据,让人工智能具备智能涌现能力;第二是具身智能,通过强化学习方法,训练出具身模型;第三是类脑智能,让机器达到或类似于人脑能力。
对于人工智能的发展,图灵奖得主、纽约大学教授杨立昆提出了“世界模型”的概念——人工智能系统可以通过这一模型理解世界的运转方式,并以最优化、成本最小的方式来行动。
加强安全治理领域国际合作
根据预测,到2030年,人工智能将创造15.7万亿美元的经济价值。人工智能为经济发展提供了重要机遇,但也引发了安全性方面的担忧和争议。
图灵奖得主、多伦多大学教授杰弗里·辛顿认为,目前的人工智能已经可以通过学习,掌握“欺骗”人类的方式。“一旦人工智能具备了‘欺骗’的能力,就有了‘控制’人类的能力。这样的超级智能可能会比预想中发生得更快。”
在通用人工智能时代到来之前,人工智能的安全风险主要来自于“人”。“我们不应该假设机器是公正的,因为机器可能会试图改变人类的行为。更准确地说,是机器的所有者想要改变其他人的行为。”图灵奖得主、中国科学院院士姚期智说,当前人工智能的发展处于重要窗口期,各国应共同合作,搭建人工智能的治理结构。
随着人工智能的本事越来越大,人工智能的“对齐”问题浮上水面。所谓“对齐”,即人工智能系统的目标要和人类的价值观与利益“对齐”,保持一致。
如何让人工智能与人类“对齐”?阿尔特曼认为,人们应当负责任地将人工智能应用到世界中,重视和管理好安全风险。他建议在人工智能技术研发过程中建立平等、统一的国际规范和标准,并通过国际合作,以可验证的方式建立人工智能系统安全开发的信任体系。
黄铁军认为,人工智能虽然会产生预料之外的新能力,但这并不意味着人类无法对人工智能进行管理。“如何管理人工智能这样一个创造性极强的系统,社会学、历史学等学科都能提供很好的借鉴意义。”
今年2月,中国在《全球安全倡议概念文件》中提出加强人工智能等新兴科技领域国际安全治理,预防和管控潜在安全风险。在此次智源大会上,专家学者积极评价中国在推动人工智能国际治理上的贡献。
阿尔特曼说,中国在人工智能领域拥有大量优秀的人才和产品系统,在人工智能的安全方面应发挥关键作用。
麻省理工学院人工智能与基础交互研究中心教授马克斯·泰格马克表示,中国在塑造全球人工智能议程上的能力日益增长,可以在人工智能安全治理领域发挥领导作用。
推动大模型共建共享
当下,全球人工智能领域的科技竞赛日趋白热化。2023中关村论坛上发布的《中国人工智能大模型地图研究报告》显示,全国已发布了79个参数在10亿规模以上的人工智能大模型。
从全球来看,中国和美国已发布的大模型数量超过全球总数的80%。中国自2020年起进入大模型快速发展期,在大模型方面已建立起涵盖理论方法和软硬件技术的体系化研发能力,形成了紧跟世界前沿的大模型技术群,涌现出多个具有行业影响力的预训练大模型。
在此次大会上,全面开源的智源“悟道3.0”系列大模型及算法正式发布。据了解,“悟道3.0”涵盖了一系列领先成果,包括“悟道·天鹰”(Aquila)语言大模型系列、天秤(FlagEval)开源大模型评测体系与开放平台,“悟道·视界”视觉大模型系列以及一系列多模态模型成果等。
黄铁军认为,人工智能大模型有3个特点:一是规模大;二是有“涌现性”,即能够产生预料之外的新能力;三是通用性,不限于解决专门问题或者专门领域。他表示,大模型不是任何一家机构或者一家公司垄断的技术,应当共建共享,推出一套智力社会所需的基础的算法体系。
(来源:《人民日报海外版》;编辑:高逸昕;审核:林超)
生成式人工智能将给保险行业带来什么
2022年11月,美国初创公司OpenAI推出了ChatGPT,再度掀起了全球对生成式人工智能(AIGC)的关注热潮。这款运用人工智能(AI)驱动的高级自然语言处理工具仅上线5天用户数就突破100万,仅2个月后,月活跃用户数就突破了1个亿,成为人类历史上用户数增长最快的消费级应用。
目前,各行各业都在探索,AIGC到底能带来哪些颠覆。
5月25日,贝壳财经记者注意到,近期,由众安保险联合众安科技发布了保险业首份《AIGC/ChatGPT保险行业应用白皮书》(以下简称《白皮书》)。
其中提到,该项技术有望成为险企决胜未来的重要战略性资产,其与行业的深度融合将大幅提高企业整体运营效率,而非单一的人力替代。
由于AIGC赋能险企仍处于初期阶段,保险企业应用该项技术仍面临重重挑战,《白皮书》倡议更稳健的技术实践,更科学的试点实验,及更多的跨界沟通,与众协同为生成式人工智能在保险领域的可持续发展贡献力量。
AIGC能为保险业做些什么?
AIGC指一种可以学习复杂数据结构和规律,并用这些规律来生成新数据或解决问题的算法,与传统机器学习算法相比,AIGC有更强大的创造能力。
若充分利用AIGC的优势特点,可以为保险公司在保险产品、营销、运营和客服等多个领域提供深度技术赋能,同时还可以应用于日常办公、研发提效等多个方面。
AIGC到底能为保险业做些什么?以保险产品设计为例,《白皮书》称,AIGC模型在以健康险、寿险为代表的人身险和以车险为代表的财产险中,有巨大的应用潜力。比如在风险因素识别上,AIGC可以分析大量的健康险相关数据,包括历史赔付数据、人口统计和医疗资料等,从中识别出潜在的风险因素,有助于产品精算人员更好地理解不同客户的风险特征,并制定相应的保险策略;在个性化建议上,AIGC可以根据个人医疗历史和风险因素,为产品精算人员提供个性化的保险建议和方案,这有助于产品精算人员更好地理解客户需求,并提供更符合实际需要的保险产品。
《白皮书》还指出,AIGC可赋能保险市场营销服务的应用场景,比如在保险产品推荐上,利用AIGC技术,保险公司可以构建智能化保险产品推荐机器人,通过自然语言交互,为客户提供个性化的保险产品推荐和购买建议。机器人可以通过分析客户的需求、偏好、风险承受能力等信息,快速准确地推荐适合客户的保险产品,提高保险销售效率和客户满意度。
在国际上已有类似的应用,比如2015年创立的以人工智能为特色的互联网保险公司Lemonade,该平台打造基于GPT-3技术面向用户的销售机器人玛雅(AI.MAYA),当客户有购买保险的意图时,只需与玛雅约两分钟的简单聊天便能识别与处理客户信息,推荐适配的保险产品及报价,促成交易的达成。玛雅还通过向客户提出有限且高质量的问题,并根据回答进行算法调整,后续可大幅度减少客户管理时间。
在理赔环节中,AIGC也可以用于提升理赔工作效率和客户满意度,《白皮书》称,AIGC可以自动评估理赔金额,通过机器学习和数据分析技术,根据保险条款、索赔信息和历史数据等因素,自动计算理赔金额,从而提高理赔效率和准确性。
据了解,目前,众安保险已经将AIGC技术用于碎屏险审核协助,通过对碎屏核保照片筛选,根据多维风险特征将其分为不同风险等级,采取不同的审核策略。
相关应用风险需要关注
不过,《白皮书》也提醒称,尽管AIGC在诸多场景下展现出强大能力,但其限制和风险不容忽视。
比如,在安全风险与数据保护方面,《白皮书》提到,企业问答助手涉及企业敏感数据传输和存储,需注意数据安全保护。AIGC大模型也存在被恶意攻击的风险,如注入有害数据或使用攻击性文本。在使用生成式AI时,需要对数据进行加密和安全措施,保护企业和客户敏感数据。
此外,在代码自动补全限制上,《白皮书》提醒称,AIGC在复杂编程语言和框架方面准确性可能不高,无法完全替代人工编写。此外,AIGC可能产生不必要的代码、泄露机密信息、引入安全漏洞等,开发者需适度依赖AIGC以发挥人与AI的互补作用。
因此,《白皮书》建议,在实际应用中,企业应全面考虑数据质量、语义理解、安全风险、误解风险、用户需求等问题,确保模型的准确性和可用性。同时,开发者和使用者需掌握相应技巧和经验,结合人工智能和人类判断,实现最佳的协同效果。
新京报贝壳财经记者潘亦纯编辑王进雨校对柳宝庆