博舍

生成式人工智能时代:研究机构与工业机构的角色之争 生成式人工智能是什么

生成式人工智能时代:研究机构与工业机构的角色之争

来源:IllustrationbyIconScoutStorefromIconScout

作者:刘鹏飞

微软创始人比尔盖茨说人生中让他印象深刻的两次技术革命演示,一次是现在操作系统的先驱“图形用户界面”,另一个就是以ChatGPT为代表的生成式人工智能技术。

一、生成式人工智能:技术革命新时代

什么是生成式人工智能?

生成式人工智能是指:利用机器学习技术让计算机自动生成不同模态(比如文本,图片,语音等)高质量数据的方法。尽管过去几十年的人工智能研究迭代出了无数的生成模型,但生成式人工智能被当成一种新的算力来讨论还要从以GPT3为代表的大预训练语言模型算起。

利用生成式AI技术,人们往往可以通过自然语言交互方式生成高质量内容。比如,张三感染了新冠想写一封邮件给部门经理,那么他只需要输入“我感染了新冠,请帮我写一封邮件告诉部门经理我今天不去上班了”,便可以得到如下一个还不错的邮件初稿

生成式人工智能起草邮件

又比如,张三脑洞大开,想生成一副泰迪熊在时代广场玩滑板的图片,那么他只需要输入“生成一副泰迪熊在时代广场玩滑板的图片”,便可以得到如下图片:

生成式人工智能生成图片生成式人工智能的技术基础?

生成式人工智能所涉及的技术非常综合且广泛,但就其核心文本生成而言,主要依赖于两个重要技术:

生成式预训练(GenerativePre-training)

提示学习(PromptingMethod)

前者负责海量数据的向量化存储问题,后者则提供了一种可以通过自然语言描述对存储数据进行灵活读取的能力。这两种技术的结合,革新了人类对数据存储和读取方式的方式,也催生出了一种新的人机交互接口:自然语言接口(NaturalLanguageInterface),其带来的蝴蝶效应体现在了各个方面。比如关于生成式人工智能,有如下有趣的类比:

生成式人工智能的技术基础

从计算平台角度看,生成式预训练模型可以被视为新一代通用计算机,而OpenAI则是这个通用计算平台之父,赋予了新一代计算机实现通用人工智能的使命;

从计算力角度看,生成式计算(GenerativeComputing)是继云计算之后的又一种新的算力形式,将会像电、网络和云计算一样,成为人们生活中不可或缺的基础算力;

从应用生态角度看,以ChatGPT为代表的生成式人工智能产品将成为互联网新的重要入口。生成式AI产品(比如:ChatGPT)独有的自然语言接口属性使得这个入口很容易建立一个具有超强包容性的生态系统(比如:ChatGPTPlugin);

从人机交互角度看,以ChatGPT为代表的产品将成为人类大脑的延伸,提供更智能、高效、自然的与人交互的方式,同时还能通过工具的使用帮助人类更好地与世界互动。…

不管做怎样的类比,我们都可以看到生成式人工智能都被放在一个空前的技术革命地位,它将会在多个领域为人类带来前所未有的颠覆性、革命性和史诗级的影响,大大提高社会生产力和人们的生活质量。

二、生成式人工智能带来的结构性变革

生成式人工智能的到来将在不同领域、不同方面带来结构性的变革,比如:

1. 个人层面:个人成长、教育和职业发展都需要在新环境下重新思考,学习新知识和工具、适应新环境等。网上有个很现实的说法:未来AI不会淘汰人类,但会淘汰不会使用AI的人,也许说法过于极端,但确实没有道理放着个可以延伸大脑的工具而不去使用;

2.组织层面:不管是学术研究机构、还是工业机构(尤其是互联网等科技公司),其内部组织结构,人员结构、合作方式等都可能需要结合新的形势进行调整与重构;比如,OpenAI发布ChatGPT以来,国内很多巨头公司都对企业内部组织进行了重构,为的是更好地形成合力去研发新产力-生成式AI;在学术界,类似“复仇者联盟”有Laion,Together;创投界也有类似的组队。从这个层面来看,生成式AI,让大家走到了一起:)

3. 行业层面:数字化、信息化、智能化进程将会加速;行业的生产方式将会受到巨大冲击;

4.社会层面:生成式人工智能将会对教育、医疗等行业带来颠覆性影响,人才分布也将会发生改变;政府需要帮助工人平滑地进行角色转变,以及通过合适的政策力量将新科技产力安全地、可靠地、公平地服务于每一个人。

三、研究机构和工业机构在生成式AI中的不同职能

在生成式人工智能所带来的这场产业革命中,我尤其关注研究机构和工业机构的不同职能,和应该扮演的角色。这里有这样一个关于研究者“存在危机”的小背景:

在生成式人工智能到来以后(尤其以ChatGPT,GPT4为典型),人们对于研究机构与工业机构应该扮演的角色感到困惑,主要是因为许多任务看似被解决了,这在学术界引发了关于研究方向的担忧(比如自然语言处理领域研究者会困惑于:自然语言处理这个研究领域还存在吗?)。于是人们也开始思考,学术界在当前形势下还应该研究什么课题,或者哪些课题更适合由学术界来研究。

然而,事实上,生成式人工智能技术仍然存在许多挑战和问题需要解决。只是这些挑战和问题可能不再像之前那么“现成”,需要在拥抱变化、使用体验新技术后被新定义出来,这就要求研究者对生成式AI的技术发展、能力边界、应用范围有更好的理解;

在众多类比中,我比较喜欢“生成式人工智能是人类大脑的延伸”这个设定。沿着这个角度,这里我也尝试给出以大预训练模型为核心的生成式AI的全景技术栈,并剖析每一部分所涉及到的研究或工程环节;

生成式人工智能全景技术栈(createdbyGAIRLab)(1)需求挖掘

生成式AI催生成了连接人和AI的自然语言接口,而该接口的通用性取决于AI模型对人类需求了解的多少,不管是学术界还是工业界都可以在需求挖掘这件事情上贡献;

如何建立数据飞轮,高效地收集用户的需求与反馈(垂直领域或通用领域)?

如何基于大规模数据分析和自然语言处理技术,从用户生成的文本、社交媒体、搜索历史等数据中发现人类潜在的需求?(⭐)

如何通过AI辅助进行需求收集?(⭐)

(2)提示工程

如何设计能够更好帮助用户挖掘有效“提示”的辅助系统或者软件?

如何提供“提示”使用时候的鲁棒性?(⭐)

(3)系统安全

如何防止用户进行恶意的“提示注入“(PromptInjection)行为?(⭐)

如何防止用户通过越狱使用AI做一些违反法律、道德的行为?(⭐)

(4)用户接口

如何设计AI-native接口?

如何设计AI-retrofit接口?

(5)AI安全&价值对齐(⭐)

如何保证AI系统的输出是安全可靠的?

如何保证AI不会输出有害、有毒的内容?

如何确保AI系统的输出对齐我们所普遍认同的价值观?

如何确保AI技术民主化,以及利用AI技术使教育、医疗资源公平化?

(6)LLMOps

数据:如何收集高质量的预训练数据?精调数据?用户的反馈?(⭐)

训练:如何进行有效的、稳定的

预训练?

精调?(⭐)

推理(⭐):

如何提升推理的速度?

如何可控地解码出高质量的文本?

如何理解并使用好in-contextlearning技术?

部署:

如何实现高效的、可规模化扩展的部署?

CI&CD:如何构造一个自动化的LLMOps?

(7)多模态学习

如何提高生成式AI对图片、语音、视频的理解能力,并且可以和文本统一到同一语义空间(⭐)

如何提高图片、语音、视频在自然语言接口下的生成能力(⭐)

(8)环境交互

如何提高生成式AI的工具使用能力?(⭐)

如何标准化生成式AI使用工具的API?

如何为生成式AI开发适配的外部工具?

如何链接生成式AI和机器人?(⭐)

“⭐”所标注的项目都是学术界可以尝试去探索、解决的(由于笔者时间有限,以上只是初步的枚举,未来有机会再详细展开。当然有感兴趣的朋友们也欢迎一起讨论:)

总之,生成式人工智能时代,研究机构可以研究的问题并没有减少,更多的只是内容上的更新,这也就要求学者敢于定义新任务,新场景,并提出可能的解决方案;比如:如何确保生成式人工智能技术的应用不会被滥用或者侵犯人们的隐私和安全?如何促进生成式人工智能技术的公正和可持续发展?在这方面,学术界具有得天独厚的优势。学术界可以利用其自由和开放的环境,推动最新的研究和探索,不断挑战和创新。此外,学术界也可以跨越不同领域和学科的边界,汇聚最新的想法和思路,为生成式人工智能技术的发展提供更广阔的视野和更深入的思考。

我非常喜欢约翰霍普金斯大学MarkDredze教授在类似的讨论话题下对学生们的建议:

“我的建议是总是选择一个主题来研究,这个主题具备以下两个特点:1)你认为没有其他人会解决它。2)你在这个主题上有独特的贡献能力。”

同时MarkDredze教授还具体分享了几个在他看来有价值的方向,这里摘抄分享下:

(1)自然语言处理在其他领域的应用:多年来,各行各业的人们一直在向我们寻求NLP工具,以帮助他们进行研究和解决问题。我们现在有了更好的工具。如何帮助他们使用这些工具?

(2)低资源领域或语言:扩展语言模型可以解决很多问题。并不是每个任务或领域都有足够的数据。这些领域的解决方案是什么?他们会被遗弃吗?对于特定的任务,有很多工作要做监督学习。考虑到任务的规模、成本和准确性等因素,使用GPT-N来解决每个NLP任务的想法是不可行的。

(3)评估:我们需要评估的帮助!我们正在触及目前评估方法的极限,没有好的方法,进步就无法继续。

(4)创造性的新应用:近年来,我被我们现在使用NLP系统的多样性和创造性所震撼。请再来点。

Mark教授很多观点,我都非常认同+共鸣:

1.诚然,每个人都有自己独特的能力,如果能把它和当前发展中遇到的瓶颈问题连接好,你便能做出非凡的工作,无论是在学术界还是工业界。

2.在过去的一年多中,我也和CMUGrahamNeubig教授联合创立了专门面向生成式AI评估的公司,致力于让大模型更安全可靠地服务于人。我们几乎把所有关于自然语言处理任务的评估技术都挖尽了,感受就是目前评估方法相对模型本身的快速发展是严重落后的。这导致很多时候我们可能在一条错误的路子上不断优化,或者满足于部分的优良结果而忽视全面认识,最终错过了技术突破与创新的时机;

3.记得我也曾和Graham教授针对"GPT4出来后,自然语言处理学者还能做什么的"的问题进行过一些讨论,他很认真的说道:

”我们这个世界上还有很多问题没有解决,比如“全球变暖”,”癌症治疗“,“教育公平”,想到我们的新工具可以帮助我们开始解决这些问题,我真的很兴奋。但显然,我们有很多工作要做,这需要新的工具和对现有工具的创造性使用;而当我们发现这些实用工具的局限性时,便找到了一个有价值的研究方向。

你会发现,Graham很多观点和Mark教授也高度吻合;这也让我非常想引出纽约大学教授SamBowman的一个建议:

“探索我们可能用这项技术做的有价值的事情!特别是如果你的目标是更长远的未来,或者专注于科学,你可以做很多这波创业公司无法做的事情。”

我想,长期主义+有责任感会是帮你克服"存在危机"的关键;

当然,也分享这样一个“利好”:

OpenAI做了很多伟大的事情:

他们创造了自然语言接口,创造了新的生产力

他们不断探索技术边界,有可能带我们走向通用人工智能

他们还让学术界和工业界的优化目标更加一致,通过”对齐研究”(AlignmentResearch),让研究者在考虑问题的时候更有“用户需求”意识,这也使我们的技术发展可以更有效地沿着推动生产力发展的方向前进。

生成式AI对学术界、工业界的影响

因此,学术界应该继续研究和探索生成式人工智能技术的各个方面,包括技术本身的发展和应用,以及伦理和社会问题的解决。同时,学术界也需要与工业界和政府合作,共同推进该技术的发展和应用,确保其能够为人类带来更多的益处和福祉。

 // 

 国内首个面向生成式人工智能的实验室:GAIR

最后,这里要分享的是:我也即将回国,任职于上海交大,创建:

生成式人工智能研究实验室(GAIR:GenerativeAIResearchLab)

实验室将致力于创造前沿的生成人工智能技术,使人类能够解决复杂问题,提高世界各地人们的生活质量。具体地说:

基础研究: 我们致力于开展关于生成式AI的基础研究,促进生成式人工智能技术的透明度和可解释性。

AI系统: 通过利用尖端的机器学习、自然语言处理等,我们的目标是创建能够产生负责的、符合人类价值观的人工智能系统,同时尊重用户的不同观点。

社会影响: 我们将与学术界、业界、社区伙伴、政府和普通用户密切合作,确保我们的工作对社会产生积极的影响。

实验室在以上提到的多个生成式AI方向上都有布局,同时也获得了国内多家企业、研究机构的支持,每年也会有和CMU的固定学术合作项目,欢迎感兴趣的学生、朋友们来合作一起做些推动领域&社会发展的事情。

未来智能实验室的主要工作包括:建立AI智能系统智商评测体系,开展世界人工智能智商评测;开展互联网(城市)大脑研究计划,构建互联网(城市)大脑技术和企业图谱,为提升企业,行业与城市的智能水平服务。每日推荐范围未来科技发展趋势的学习型文章。目前线上平台已收藏上千篇精华前沿科技文章和报告。

  如果您对实验室的研究感兴趣,欢迎加入未来智能实验室线上平台。扫描以下二维码或点击本文左下角“阅读原文”

网信办出台生成式人工智能管理办法,亮绿灯还是踩刹车

昨天(4月11日),国家网信办起草《生成式人工智能服务管理办法(征求意见稿)》(下称《办法》),并向社会公开征求意见。办法的出台意味着什么,未来生成式人工智能在中国的发展应该如何开展,世界各国又做了怎样的准备?今天我们来聊一聊。

4月11日,国家网信办起草《生成式人工智能服务管理办法(征求意见稿)》(下称《办法》),并向社会公开征求意见。几个月以来,生成式人工智能(AIGC)一直是人们关注的焦点,从ChatGPT到文心一言,再到GPT-4和各类生成式人工智能,生成式人工智能的浪潮滚滚向前。

而在国内外近半年来的体验中,发现了生成式人工智能的许多问题。也是因此,国家主动出手,秉承着发展的主基调,划定责任主体,制定行业底线,为中国的生成式人工智能健康发展亮起绿灯。

《办法》首先明确,国家支持人工智能算法、框架等基础技术的自主创新、推广应用、国际合作。因此,制订管理办法正是为了未来更好地发展该技术,而不是限制该技术。

01

三大问题,一次规定

《办法》集中瞄准生成式人工智能的三大问题,从明确条件要求、划定责任主体、形成问题处理机制、清晰法律责任几个方面为行业划定底线。而研发、利用生成式人工智能产品,面向中华人民共和国境内公众提供服务的,均在《办法》的适用范围内。

无论是中国还是外国公司,在底线之上,则大有可为。

一是隐私安全问题。人工智能对大数据极度依赖,往往需要经年累月的有关于用户的深度信息才能塑造一个成熟的人工智能。而有关于数据收集和保存的问题已经引起了有关隐私问题的担忧。即使是风靡全球的ChatGPT,近日也被爆出存在隐私泄露风险。

据英国广播公司(BBC)报道,当地时间3月22日,ChatGPT的开发公司OpenAI创始人山姆·阿尔特曼在推特发文称,该AI的一个故障让一些用户能够看到其他用户对话历史记录的标题。几乎是同时,意大利成为全球首个禁用ChatGPT的国家。意大利隐私保护监管机构因隐私安全问题封锁ChatGPT。

OpenAI创始人山姆·阿尔特曼资料图

在生成式人工智能发展的道路上,隐私安全是不可能绕过的问题。对此,《办法》规定,生成式人工智能提供者需“承担该产品生成内容生产者的责任;涉及个人信息的,承担个人信息处理者的法定责任,履行个人信息保护义务。”

二是技术滥用问题。人工智能本质上是提升人类生产力的工具,但当这种工具和技术被用于损害公共利益和安全时,他们的“尤其好用”会变为“尤其危险”。而如果人工智能技术被用于金融、网络犯罪,将会给执法机关造成前所未有的破案难度。

截至目前,人工智能生成图片已经造成了不小的问题。例如Midjourney这类人工智能生成图片的应用软件被滥用,引起了混乱。

近日,马斯克接连在Twitter上评论了多张人工智能合成的他本人的照片,其中有一张照片是马斯克和通用汽车女掌门人MaryBarra手牵手。马斯克评论道:“我肯定不会穿这身衣服。”国内,也有人使用人工智能给地铁上的女乘客“一键脱衣”。随着生成式人工智能的进步,类似的技术滥用问题可能会越来越严重。

在与技术滥用问题相关的虚假信息管理和他人权益问题上,《办法》规定“利用生成式人工智能生成的内容应当真实准确,采取措施防止生成虚假信息。尊重他人合法利益,防止伤害他人身心健康,损害肖像权、名誉权和个人隐私,侵犯知识产权。禁止非法获取、披露、利用个人信息和隐私、商业秘密。”

三是知识产权和他人权益问题。生成式人工智能在输出内容的过程中,其输出的内容很有可能造成专利侵权、商标侵权、版权侵权、未经许可使用软件或数据等问题。同时,生成式人工智能所产生的内容是否具有著作权,也是有争议的问题。

对此,《办法》也作出了初步规定,包括生成式人工智能的训练“不含有侵犯知识产权的内容”“数据包含个人信息的,应当征得个人信息主体同意或者符合法律、行政法规规定的其他情形”等。

同时,生成式人工智能提供者需要建立侵权投诉及保护机制,“及时处置个人关于更正、删除、屏蔽其个人信息的请求;发现、知悉生成的文本、图片、声音、视频等侵害他人肖像权、名誉权、个人隐私、商业秘密,或者不符合本办法要求时,应当采取措施,停止生成,防止危害持续。”

02

多国为AIGC发展建立护栏

对于中国这样一个用户主体庞大且极其多样化、数据质量参差不齐的巨大市场,某一行业的高速发展永远离不开监管的保驾护航。特别是生成式人工智能这样一个崭新却又充满挑战性的领域。实际上,各国对于生成式人工智能的监管都已在路上。

中国方面。《生成式人工智能服务管理办法(征求意见稿)》的制定与实施将帮助确保人工智能产品的合理与安全使用。强调提供者承担生成内容生产者的责任,以及涉及个人信息时承担个人信息处理者的法定责任,并履行个人信息保护义务,有利于保护用户数据和隐私。

美国方面。得益于ChatGPT的流行,美国企业开始不断尝试使用人工智能赋能应用场景。但与此同时,对人工智能的担忧也在增加。几乎与《办法》同时,美国商务部4月11日也就相关问责措施正式公开征求意见,包括新人工智能模型在发布前是否应经过认证程序等。美商务部下属国家电信和信息管理局(NTIA)正在就企业和监管机构如何合作进行调研,以此为基础,建立人工智能模型可信度、合法性和道德准则相关的审查制度。NTIA的调查将侧重于搭建监管人工智能的最佳方法,并在技术发展进程中,为白宫和国会不断输出政策建议。这项调查拟邀请公司、民间社会团体、研究人员和公众群策群力。目前拜登政府也已经开始研究是否需要对ChatGPT等人工智能工具实行检查。

拜登政府正在权衡为ChatGPT等人工智能工具设定规则图源:《华尔街日报》

欧盟方面。目前欧盟和美国一样,还并没有针对生成式人工智能的立法,但已经有了成型的人工智能立法。欧盟的人工智能立法,即《人工智能法案》(AIAct),将于2024年正式生效。《人工智能法案》的目标是让公民和消费者感到信任,并维护欧盟的价值基础。2023年2月8日,欧洲议会人工智能伦理领域顾问AnnaFelländer在欧盟委员会官网发表了ChatGPT’srapidentry–UrgentforthegovernmenttoappointanauthorityforresponsibleAI一文,提出了关于为什么要对生成式AI进行监管。人工智能监管的根本问题在于:究竟是人工智能来控制人类,还是人类来控制人工智能。因此,道德、法律、风险评估都十分重要。

“看到这些工具即使在相对初级阶段也能做到的事情,真是令人惊讶,”NTIA局长艾伦·戴维森说,“我们知道,我们需要设置一些护栏,以确保它们被负责任地使用。”

目前不管是欧盟、美国还是中国,都已经意识到了人工智能领域,尤其是生成式人工智能,既充满了发展的潜力,也遍布了危险的荆棘。因此三个主要经济体几乎同一时间对生成式人工智能设置“护栏”,保证发展的安全性。完善的治理,一方面将保障国家安全和公共安全,另一方面,也可以促进新兴技术和产业的发展,加强国际竞争力。

03

科学与技术走好AIGC安全发展之路

在人工智能技术的发展、落地和应用场景扩散的趋势不断扩大的当下,《办法》的推出坚定了中国未来走好生成式人工智能发展之路的决心。

要发展,也要安全。《办法》中明确提到,国家支持人工智能算法、框架等基础技术的自主创新、推广应用、国际合作,鼓励优先采用安全可信的软件、工具、计算和数据资源。可以看出,生成式人工智能是国家坚定支持的领域,发展是主基调。对于这个领域的企业和组织来说,前途广阔、大有可为。

数据安全、隐私安全、道德和法律,则是生成式人工智能治理的基础。《办法》提出,“利用生成式人工智能产品向公众提供服务前,应当按照《具有舆论属性或社会动员能力的互联网信息服务安全评估规定》向国家网信部门申报安全评估,并按照《互联网信息服务算法推荐管理规定》履行算法备案和变更、注销备案手续。”同时,提供者应当明确并公开其服务的适用人群、场合、用途,采取适当措施防范用户过分依赖或沉迷生成内容。

各国对生成式AI的重视不单单是针对一个未来有前景的新生事物,更重要的是其背后解放和发展当前其他领域的生产力的潜力。未来生成式人工智能极有可能成为主流生产力本身。中国出台相关管理办法正是为了未来发展该技术做准备。

目前《办法》仍处于征求意见阶段,未来还可能收纳各方意见进行调整。《办法》敲定之后,将有助于行业健康发展,遏制不良行为。这一举措显示出中国对生成式人工智能服务发展的关注和支持,希望通过规范管理,保障人工智能技术在安全、合规的环境中发展,同时保护用户的隐私和权益。未来也可将有代表性的人工智能公司纳入治理体系,同监管机关合作开发与技术发展和市场竞争相适应的监管框架。

生成式人工智能将给保险行业带来什么

2022年11月,美国初创公司OpenAI推出了ChatGPT,再度掀起了全球对生成式人工智能(AIGC)的关注热潮。这款运用人工智能(AI)驱动的高级自然语言处理工具仅上线5天用户数就突破100万,仅2个月后,月活跃用户数就突破了1个亿,成为人类历史上用户数增长最快的消费级应用。

目前,各行各业都在探索,AIGC到底能带来哪些颠覆。

5月25日,贝壳财经记者注意到,近期,由众安保险联合众安科技发布了保险业首份《AIGC/ChatGPT保险行业应用白皮书》(以下简称《白皮书》)。

其中提到,该项技术有望成为险企决胜未来的重要战略性资产,其与行业的深度融合将大幅提高企业整体运营效率,而非单一的人力替代。

由于AIGC赋能险企仍处于初期阶段,保险企业应用该项技术仍面临重重挑战,《白皮书》倡议更稳健的技术实践,更科学的试点实验,及更多的跨界沟通,与众协同为生成式人工智能在保险领域的可持续发展贡献力量。

AIGC能为保险业做些什么?

AIGC指一种可以学习复杂数据结构和规律,并用这些规律来生成新数据或解决问题的算法,与传统机器学习算法相比,AIGC有更强大的创造能力。

若充分利用AIGC的优势特点,可以为保险公司在保险产品、营销、运营和客服等多个领域提供深度技术赋能,同时还可以应用于日常办公、研发提效等多个方面。

AIGC到底能为保险业做些什么?以保险产品设计为例,《白皮书》称,AIGC模型在以健康险、寿险为代表的人身险和以车险为代表的财产险中,有巨大的应用潜力。比如在风险因素识别上,AIGC可以分析大量的健康险相关数据,包括历史赔付数据、人口统计和医疗资料等,从中识别出潜在的风险因素,有助于产品精算人员更好地理解不同客户的风险特征,并制定相应的保险策略;在个性化建议上,AIGC可以根据个人医疗历史和风险因素,为产品精算人员提供个性化的保险建议和方案,这有助于产品精算人员更好地理解客户需求,并提供更符合实际需要的保险产品。

《白皮书》还指出,AIGC可赋能保险市场营销服务的应用场景,比如在保险产品推荐上,利用AIGC技术,保险公司可以构建智能化保险产品推荐机器人,通过自然语言交互,为客户提供个性化的保险产品推荐和购买建议。机器人可以通过分析客户的需求、偏好、风险承受能力等信息,快速准确地推荐适合客户的保险产品,提高保险销售效率和客户满意度。

在国际上已有类似的应用,比如2015年创立的以人工智能为特色的互联网保险公司Lemonade,该平台打造基于GPT-3技术面向用户的销售机器人玛雅(AI.MAYA),当客户有购买保险的意图时,只需与玛雅约两分钟的简单聊天便能识别与处理客户信息,推荐适配的保险产品及报价,促成交易的达成。玛雅还通过向客户提出有限且高质量的问题,并根据回答进行算法调整,后续可大幅度减少客户管理时间。

在理赔环节中,AIGC也可以用于提升理赔工作效率和客户满意度,《白皮书》称,AIGC可以自动评估理赔金额,通过机器学习和数据分析技术,根据保险条款、索赔信息和历史数据等因素,自动计算理赔金额,从而提高理赔效率和准确性。

据了解,目前,众安保险已经将AIGC技术用于碎屏险审核协助,通过对碎屏核保照片筛选,根据多维风险特征将其分为不同风险等级,采取不同的审核策略。

相关应用风险需要关注

不过,《白皮书》也提醒称,尽管AIGC在诸多场景下展现出强大能力,但其限制和风险不容忽视。

比如,在安全风险与数据保护方面,《白皮书》提到,企业问答助手涉及企业敏感数据传输和存储,需注意数据安全保护。AIGC大模型也存在被恶意攻击的风险,如注入有害数据或使用攻击性文本。在使用生成式AI时,需要对数据进行加密和安全措施,保护企业和客户敏感数据。

此外,在代码自动补全限制上,《白皮书》提醒称,AIGC在复杂编程语言和框架方面准确性可能不高,无法完全替代人工编写。此外,AIGC可能产生不必要的代码、泄露机密信息、引入安全漏洞等,开发者需适度依赖AIGC以发挥人与AI的互补作用。

因此,《白皮书》建议,在实际应用中,企业应全面考虑数据质量、语义理解、安全风险、误解风险、用户需求等问题,确保模型的准确性和可用性。同时,开发者和使用者需掌握相应技巧和经验,结合人工智能和人类判断,实现最佳的协同效果。

新京报贝壳财经记者潘亦纯编辑王进雨校对柳宝庆

海量资讯、精准解读,尽在新浪财经APP

版权声明:本文内容由互联网用户自发贡献,该文观点仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌抄袭侵权/违法违规的内容,一经查实,本站将立刻删除。

上一篇

下一篇