博舍

生成式人工智能将给保险行业带来什么 人工智能公司做什么

生成式人工智能将给保险行业带来什么

2022年11月,美国初创公司OpenAI推出了ChatGPT,再度掀起了全球对生成式人工智能(AIGC)的关注热潮。这款运用人工智能(AI)驱动的高级自然语言处理工具仅上线5天用户数就突破100万,仅2个月后,月活跃用户数就突破了1个亿,成为人类历史上用户数增长最快的消费级应用。

目前,各行各业都在探索,AIGC到底能带来哪些颠覆。

5月25日,贝壳财经记者注意到,近期,由众安保险联合众安科技发布了保险业首份《AIGC/ChatGPT保险行业应用白皮书》(以下简称《白皮书》)。

其中提到,该项技术有望成为险企决胜未来的重要战略性资产,其与行业的深度融合将大幅提高企业整体运营效率,而非单一的人力替代。

由于AIGC赋能险企仍处于初期阶段,保险企业应用该项技术仍面临重重挑战,《白皮书》倡议更稳健的技术实践,更科学的试点实验,及更多的跨界沟通,与众协同为生成式人工智能在保险领域的可持续发展贡献力量。

AIGC能为保险业做些什么?

AIGC指一种可以学习复杂数据结构和规律,并用这些规律来生成新数据或解决问题的算法,与传统机器学习算法相比,AIGC有更强大的创造能力。

若充分利用AIGC的优势特点,可以为保险公司在保险产品、营销、运营和客服等多个领域提供深度技术赋能,同时还可以应用于日常办公、研发提效等多个方面。

AIGC到底能为保险业做些什么?以保险产品设计为例,《白皮书》称,AIGC模型在以健康险、寿险为代表的人身险和以车险为代表的财产险中,有巨大的应用潜力。比如在风险因素识别上,AIGC可以分析大量的健康险相关数据,包括历史赔付数据、人口统计和医疗资料等,从中识别出潜在的风险因素,有助于产品精算人员更好地理解不同客户的风险特征,并制定相应的保险策略;在个性化建议上,AIGC可以根据个人医疗历史和风险因素,为产品精算人员提供个性化的保险建议和方案,这有助于产品精算人员更好地理解客户需求,并提供更符合实际需要的保险产品。

《白皮书》还指出,AIGC可赋能保险市场营销服务的应用场景,比如在保险产品推荐上,利用AIGC技术,保险公司可以构建智能化保险产品推荐机器人,通过自然语言交互,为客户提供个性化的保险产品推荐和购买建议。机器人可以通过分析客户的需求、偏好、风险承受能力等信息,快速准确地推荐适合客户的保险产品,提高保险销售效率和客户满意度。

在国际上已有类似的应用,比如2015年创立的以人工智能为特色的互联网保险公司Lemonade,该平台打造基于GPT-3技术面向用户的销售机器人玛雅(AI.MAYA),当客户有购买保险的意图时,只需与玛雅约两分钟的简单聊天便能识别与处理客户信息,推荐适配的保险产品及报价,促成交易的达成。玛雅还通过向客户提出有限且高质量的问题,并根据回答进行算法调整,后续可大幅度减少客户管理时间。

在理赔环节中,AIGC也可以用于提升理赔工作效率和客户满意度,《白皮书》称,AIGC可以自动评估理赔金额,通过机器学习和数据分析技术,根据保险条款、索赔信息和历史数据等因素,自动计算理赔金额,从而提高理赔效率和准确性。

据了解,目前,众安保险已经将AIGC技术用于碎屏险审核协助,通过对碎屏核保照片筛选,根据多维风险特征将其分为不同风险等级,采取不同的审核策略。

相关应用风险需要关注

不过,《白皮书》也提醒称,尽管AIGC在诸多场景下展现出强大能力,但其限制和风险不容忽视。

比如,在安全风险与数据保护方面,《白皮书》提到,企业问答助手涉及企业敏感数据传输和存储,需注意数据安全保护。AIGC大模型也存在被恶意攻击的风险,如注入有害数据或使用攻击性文本。在使用生成式AI时,需要对数据进行加密和安全措施,保护企业和客户敏感数据。

此外,在代码自动补全限制上,《白皮书》提醒称,AIGC在复杂编程语言和框架方面准确性可能不高,无法完全替代人工编写。此外,AIGC可能产生不必要的代码、泄露机密信息、引入安全漏洞等,开发者需适度依赖AIGC以发挥人与AI的互补作用。

因此,《白皮书》建议,在实际应用中,企业应全面考虑数据质量、语义理解、安全风险、误解风险、用户需求等问题,确保模型的准确性和可用性。同时,开发者和使用者需掌握相应技巧和经验,结合人工智能和人类判断,实现最佳的协同效果。

新京报贝壳财经记者潘亦纯编辑王进雨校对柳宝庆

使用生成式人工智能,公司应考虑什么法律问题

   今天是美国时间2023年4月17日。

     DanFelz(Alston&Bird隐私和数据安全实践的合伙人)、WimNauwelaerts(Alston&Bird管理合伙人,领导欧洲隐私、网络和数据战略团队)、PaulGreaves(Alston&Bird资深律师,隐私、网络和数据战略团队的成员)以及JoshuaFox(Alston&Bird律师)在2023年4月14日在Law.Com联合发表了题为《ChatGPT&GenerativeAI:Everything

YouNeedtoKnow》(ChatGPT和生成型人工智能:你需要了解的一切)的文章。该文章全面分析了当公司考虑使用生成式人工智能工具时,应考虑的法律问题。今天的AI&LAW将分享他们提到的这些法律问题,enjoy:

1.        合同签订方和可行性

     生成式人工智能提供商通常会使其工具易于获取,这可能会导致签署合同方面的混淆。公司员工可以注册生成式人工智能工具,其使用可能部分是为工作,部分是为个人使用。而公司采购部门不知道,这就绕过公司的尽职调查和合同流程。

因此,公司应确保采购职能部门知晓员工注册,并遵循尽职调查和合同流程。

2.        保密

     生成式人工智能是自学习技术,可能会引起保密问题。公司应意识到输入和输出可能成为该人工智能工具的一部分,并可提供给公司外部的其他人。在有选择的情况下应使用选择退出选项,不应输入保密信息。

3.        知识产权

    生成式人工智能在知识产权方面的风险包括可能侵犯第三方知识产权、使用开源软件以及对由AI驱动的工具创作的知识产权权利不清晰。

     对于由AI创建或协助创建的作品或发明,公司不应假设可以为之注册获得知识产权保护,并应避免在没有适当许可的情况下使用受版权保护的材料。

4.        网络安全

    生成式人工智能通过摄取用户输入以改进模型的方法可能会带来网络安全风险。因此,公司应确保员工遵循安全软件开发流程,并扫描由AI创建的代码以查找漏洞。

5.        隐私和数据保护

     公司在使用生成式人工智能时应考虑隐私和数据保护法律。输入到这些工具中的个人数据可能会影响隐私合规性,并且不清楚数据是否可以从生成式人工智能模型中删除。

公司必须根据相关隐私法对提供商进行分类,并可能需要针对高风险使用情况进行数据保护影响评估。

6.        准确性和可靠性

     生成式人工智能工具目前尚不完全可靠和准确,需要进一步人工审核以确保输出的准确性。

7.        偏见

     由于训练数据集中固有的偏见,生成式人工智能可能存在偏见,这可能对监管合规性和消费者影响构成风险。

8.        律师与客户之间的保密特权

     在使用生成式人工智能工具时,如果将律师与客户之间的保密信息放置其中,在某些司法管辖区可能会视为放弃此类律师与客户之间的保密特权。使用此类工具前,法律部门应考虑此风险。

9.        责任限制

     生成式人工智能提供商通常会限制其责任,并要求免责。公司应仔细审查责任条款。

来源:ChatGPT&GenerativeAI:EverythingYouNeedtoKnow

版权声明:本文内容由互联网用户自发贡献,该文观点仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌抄袭侵权/违法违规的内容,一经查实,本站将立刻删除。

上一篇

下一篇