在发展中治理完善人工智能大模型
新一轮科技革命和产业变革迅猛发展,数字技术、智能经济与数字化产业成为催生新产业、新业态、新模式的重点领域。发布仅6个月的ChatGPT,已掀起全球人工智能(AI)产业的大模型热潮。在日前举办的中国人工智能产业年会中,AI大模型带来的安全挑战和发展机遇成为与会专家热议话题。
赋能千行百业
ChatGPT在与人类对话、写作文、写代码等方面令人惊艳的表现,是AI大模型GPT通过大算力、大规模训练数据突破自然语言处理瓶颈的结果。但大模型本身并不是新鲜事物,AI大模型也不止GPT这一条路线,很多科技巨头近几年都在“炼”大模型,且各有积累。这也是ChatGPT走红之后,各巨头短短数月内就纷纷推出竞品的原因。
“以ChatGPT为代表的多模态通用大模型,将深刻变革各行各业。”电子科技大学教授、考拉悠然科技有限公司联合创始人沈复民说,行业人工智能可有效推动技术与市场供需平衡,将是人工智能产业化的最大机遇。人工智能技术落地行业时,需要克服开发效率低、落地成本高、场景复杂多元等难题。
沈复民所在的研发团队获得了2022年度吴文俊人工智能科学技术奖自然科学一等奖。据他介绍,团队开发了为垂直行业赋能的多模态AI操作系统,基于行业多模态大模型、多模态融合分析、机器视觉等核心AI算法支持,可以让企业摆脱繁杂的算法、算力、数据整合工作,快速孵化行业大模型,高效率应用到工业制造、城市治理、消费、能源、交通、建材等业务场景。
“通用对话技术是人工智能领域最具挑战性的方向之一,也被认为是通用人工智能的必备能力。如今备受关注的对话式人工智能,其背后就有通用对话技术。”百度首席技术官、深度学习技术及应用国家工程研究中心主任王海峰说。中国人工智能产业年会期间,由他带领团队完成的“知识与深度学习融合的通用对话技术及应用”成果,获2022年度吴文俊人工智能科技进步奖特等奖。
公开资料显示,这一研究项目已获授权发明专利82项,发表高水平论文36篇,在国际权威评测中获世界冠军11项。目前项目成果实现了大规模产业应用,已支持5亿智能设备,服务超过10亿用户,覆盖包括通信、金融、汽车、能源等20多个行业。
争取“主动安全”
技术是把双刃剑。人工智能大模型能力越大,一旦滥用带来的危害也就越大。当前,ChatGPT等工具被用于生成假新闻、假照片、假视频,甚至实施诈骗等犯罪行为,引发人们对大模型安全性的担忧。
西北工业大学教授王震是网络空间智能对抗应用研究领域的专家,他认为,要用人工智能驱动网络空间智能对抗。比如,用人工智能检测、识别有害信息,搭建“主动安全”的智能防御网。
“只有在AI发展过程中,我们才能面对问题、解决问题,并找到机遇。”蚂蚁集团AI风险管理负责人杨舟表示,在AI管理中,安全事件对日常风险管理至关重要。“我们需要重视和预测相关事件,分析安全问题,避免发展带来的风险。”
了解机理是安全管理的基础。不过,大模型的“智能涌现”目前还是个难以解释的黑箱,没有人能理解、预测或可靠地控制这些大模型,甚至模型的创造者也不能。开发出ChatGPT的公司OpenAI,也为大模型做了大量价值敏感设计和道德嵌入工作,但仍然存在明显的漏洞和局限。
“虽然大模型的能力在不断变强,但如果不对其进行专门的安全性训练或安全性加固,其脆弱性不会得到任何改善。”瑞莱智慧公司首席执行官田天认为,人工智能大模型的安全性面临很多挑战。
“大模型是人工智能发展的转折点,研究人员需要进一步了解这些大模型为何具备类人思考的能力。”香港科技大学教授冯雁表示,ChatGPT最初只作为科研项目发布,但通过加入人机交互界面,迅速变成网红产品。其爆红带来的伦理问题始料未及,也给生成式人工智能的管理提出了挑战。“只有真正的开源,才能共同研究,理解大模型存在的问题和产生的根源,更好地进行管理。”
“商汤一直是开源开放的贡献者和支持者,但在开源上我们要谨慎一些,特别是目前对于大模型而言,安全防护体系还未健全。”商汤科技人工智能伦理与治理研究主任胡正坤说,在智能时代把底层模型开源,不见得安全,因为在开放能力的同时,也在开放薄弱点,而薄弱点有可能被不法分子利用。
亟需深度治理
专家们对未来的人工智能长远治理做出种种设想。
“不能把价值设计看成治理的唯一路径。”复旦大学应用伦理学研究中心教授王国豫认为,针对现阶段人工智能治理的局限性,可从三方面采取措施。一是充分评估数据和模型的伦理影响和风险点;二是从流程方面,不仅要考虑通用模型,还要把通用模型纳入到社会生态系统、社会政治经济系统来考虑;三是探索伦理方法,充分探索“价值敏感设计”“负责任创新”等伦理方法在通用模型语境下的可行性。
中国社会科学院哲学所科技哲学研究室主任、研究员段伟文表示,需要警惕机器对人类思维的驯化。比如,有的人不擅社交,可能用人工智能生成对话的方式帮他社交聊天,这样的对话机制会反过来驯化人类。他建议加强人类和人工智能的交互和沟通,不仅要了解人类怎么去修机器,也要研究机器如何影响人类。
中科院自动化研究所研究员曾毅期待构建人工智能的道德直觉,“为机器人立心、为人工智能立心”是重要的长远工作目标。“强化学习的奖惩只是加加减减,它不是真正对道德的理解,除非人工智能实现基于自我的道德直觉。缺乏自我的人工智能无法拥有真正的道德直觉,做真正的道德决策。我们在做一个基于类脑的脉冲神经网络构建创生的人工智能引擎,希望让它像儿童一样去学习,获得自我感知。”曾毅说。
“从要求人工智能大模型合乎伦理,到真正构建有道德的人工智能。”曾毅表示,未来通用人工智能和超级智能的伦理安全问题,要从现在就开始关注和准备。(记者佘惠敏)
ChatGPT:了解聊天型人工智能模型的全新进展
免费使用:https://sider.ai/invited?c=13ac730bbe1eb7a9a36a058a7163117f
Sider
导语:聊天型人工智能模型(ChatGPT)是近年来人工智能领域的一项重要技术进展。它能够模拟自然语言对话,具备扩展对话能力和生成连贯回复的能力,使得与机器的对话更加自然流畅。本文将向您介绍ChatGPT的基本原理、发展历程以及潜在应用。
一、ChatGPT的基本原理聊天型人工智能模型(ChatGPT)是基于深度学习技术的生成模型。它使用了一种称为“生成对抗网络”(GenerativeAdversarialNetwork)的框架,结合了递归神经网络(RNN)和注意力机制(Attentionmechanism)等技术,以实现对话的生成和回复。
ChatGPT通过学习大量的语言数据,训练出一个可以生成人类语言的模型。在对话中,模型通过输入一段对话历史文本,然后预测下一个可能的回复。它可以从历史文本中提取上下文信息,并生成连贯、有意义的回答。
二、ChatGPT的发展历程ChatGPT的发展经历了多个版本的迭代改进。最初的版本是GPT模型,它通过对单个句子生成进行训练,存在一些回答含糊不清或与上下文不一致的问题。为了解决这些问题,OpenAI团队推出了ChatGPT,以改善对话生成的质量和连贯性。
在不断的改进中,OpenAI发布了GPT-2和GPT-3等更强大的版本,它们具备了更大的模型规模和更高的生成能力。GPT-3在2020年引发了广泛关注,其模型规模达到了1750亿个参数,拥有更高质量和更创造性的对话生成能力。
三、ChatGPT的应用前景ChatGPT在人工智能交互、虚拟助手和智能客服等领域具有广阔的应用前景。它可以用于构建更智能的聊天机器人,实现更自然、流畅的对话体验。
ChatGPT还可以用于教育、娱乐和创意产生等领域。例如,它可以为学生提供个性化的学习辅助,回答问题和解答疑惑;在游戏中,它可以扮演角色与玩家进行互动;在创意产生方面,它可以帮助诗人、作家等生成灵感。
然而,ChatGPT也存在挑战和潜在风险。对于生成模型而言,确保生成结果的准确性、道德性和适当性仍然是一个挑战。OpenAI团队正在不断努力,通过模型监督和过滤等手段来提高ChatGPT的质量和安全性。
结语:聊天型人工智能模型(ChatGPT)是一项具有巨大潜力的技术,它能够模拟自然对话并生成连贯回复。随着不断的改进,我们可以期待ChatGPT在各个领域的广泛应用,同时也需要关注其潜在的风险,共同推动人工智能技术的发展与应用。