ChatGPT:强人工智能时代的里程碑
■ 史爱武
ChatGPT标志的强人工智能已到来,科幻电影描绘的超人工智能还会远吗?3月29日,由约书亚·本吉奥、埃隆·马斯克、尤瓦尔·赫拉利等超千人联名发表公开信,呼吁所有AI实验室立即暂停训练比GPT-4更强大的AI系统,为期至少6个月,以确保人类能够有效管理其风险。AI的发展无人可以阻挡,在它无穷的潜力面前,也没人知道它会将人类文明推向何方。
从去年11月ChatGPT发布开始,到微软将其整合到Bing搜索引擎和Edge浏览器中,再到GPT-4火速上线,ChatGPT在开年几个月的火爆程度令人难以想象,俨然是一场全球的AI科技狂欢。科技巨头竞相布局拼产品,全球股市相关概念股也是全线飘红,吃瓜群众朋友圈持续刷屏,各种新旧媒体也是乐此不疲追新闻……而上一波这样的全球科技热潮却是2021年3月美国游戏公司Roblox上市所引爆的元宇宙概念。ChatGPT吸引了全球各界的关注与讨论,也标志着强人工智能时代的来临。
弱人工智能、强人工智能
和超人工智能
人工智能通常是指机器智能,让机器实现类似乃至超越人类感知、认知、行为等智能的系统。一般来说,人工智能分成弱人工智能、强人工智能和超人工智能三大类。
弱人工智能:擅长专有或特定技能的人工智能,也叫专业人工智能。比如战胜世界围棋冠军的人工智能AlphaGo,它只会下围棋,如果让它下国际象棋或分辨一下人脸,它就不知道怎么做了。目前的人工智能绝大多数都是弱人工智能。
强人工智能:是指在各方面都能和人类比肩的人工智能,这是类似人类级别的人工智能,也叫通用人工智能。人类能干的很多脑力活,它也能干,创造强人工智能比创造弱人工智能难得多,ChatGPT就是强人工智能的一个里程碑。
超人工智能:知名人工智能思想家Nick Bostrom把超级智能定义为“在几乎所有领域都比最聪明的人类大脑都聪明很多,包括科学创新、通识和社交技能”。超人工智能现在还不存在,很多人也希望它永远不要存在,担心它可能像好莱坞科幻大片里的超级AI机器人一样给人类带来一些威胁或者颠覆。
我们现在处于一个充满弱人工智能的世界,扫地机器人是帮助我们打扫卫生的弱人工智能;百度翻译是帮助我们翻译英文的弱人工智能,等等。这些弱人工智能的不断创新都是迈向强人工智能和超人工智能的进步。人工智能科学家Aaron Saenz说过,现在的弱人工智能就像地球早期软泥中的氨基酸,可能突然之间就形成了生命。
ChatGPT:AIGC技术的
文本生成典型应用
人工智能生产内容AIGC(AI-Generated Content)最基本的能力是生成内容,包括文本、图像、视频、代码或者几种媒介类型转换形成的“多模态内容”。传统AI侧重于根据已有内容的分析能力,现在的AI(特别是AIGC)基于训练数据和生成算法模型可以自主生成各种形式的内容和数据。生成算法、预训练深度模型、多模态等AI技术的创新和融合催生了AIGC的大爆发。2022年,Stable Diffusion、DALL-E 2等通过文字生成图片的AIGC模型风行一时;ChatGPT能够回答问题、生成代码、构思剧本和小说,将人机对话推向新高度。具体而言,ChatGPT能理解并生成文字,属于AIGC技术应用中的文本生成应用模型。
ChatGPT是一款由美国OpenAI公司于2022年11月发布的自然语言处理人机交互应用,是迄今为止人工智能领域最成功的产品和历史上用户增长速度最快的应用程序。ChatGPT是“Chat Generative Pre-trained Transformer”的缩写,Chat是聊天的意思,GPT是生成式预训练语言模型。ChatGPT其实就是基于GPT-3.5神经网络架构,然后利用人工微调升级的一个新语言模型。它拥有接近人类水平的语言理解和文本生成能力,尤其是它会通过连接包含真实世界中的对话等大量的语料库来训练模型,还能根据聊天的上下文进行互动,真正像人类一样聊天交流。ChatGPT不单是聊天机器人,还能完成写邮件、编辑视频脚本、设计文案、翻译文本、开发代码等文本生成式任务。
ChatGPT的出现标志着强人工智能的来临,是里程碑式的技术进步,将引发新一轮人工智能热潮。毋庸置疑,ChatGPT的发展也应归功于人工智能的三要素——数据、算法和算力,更是依赖大数据、大模型、大算力而发展起来的。
数据:ChatGPT的数据集可分为六类,分别是维基百科、书籍、期刊、Reddit链接、Common Crawl和其他数据集。其中,Reddit链接是指从社交媒体平台Reddit所有出站链接网络中抓取的数据,代表了流行内容的风向标;Common Crawl是2008年至今的一个网站抓取的大型数据集,包含来自不同语言、不同领域的原始网页、元数据和文本提取;其他数据集由GitHub等代码数据集、StackExchange等对话论坛和视频字幕数据集组成。根据2020年OpenAI发布的关于GPT-3模型论文,所用的主要训练数据集大小为753GB,包含4990亿Token(一个Token指的是响应请求所需的最小文本单位)。
算法:ChatGPT的卓越表现得益于其背后多项核心算法的支持和配合,包括作为其实现基础的Transformer语言模型、激发出其蕴含知识的提示学习和指令精调Prompt/Instruction Tuning算法、其涌现出的思维链能力COT、以及确保其与人类意图对齐的基于人类反馈的强化学习算法RLHF。其中,最基础的模型是基于Transformer的预训练语言模型GPT,Transformer是一种基于自注意力机制的深度神经网络模型,可以高效并行地处理序列数据。原始的Transformer模型包含编码器和解码器两个关键组件。编码器用于将输入序列映射到一组中间表示,解码器则将中间表示转换为目标序列。编码器和解码器都由多层的注意力模块和前馈神经网络模块组成。其中自注意力模块可以学习序列中不同位置之间的依赖关系,即在处理每个位置的信息时,模型会考虑序列中其他所有位置上的信息。GPT系列模型GPT-3最显著的特点就是大,一方面是模型规模大,参数多,达到1750亿个参数;另一方面是训练过程中使用到的数据集规模大,达到45TB。在这样的模型规模与数据量下,GPT-3在多个任务上均展现出了非常优异的性能。
算力:随着ChatGPT的模型参数量指数级增长和训练数据集规模化扩张,算力需求也是持续增加。据报道,ChatGPT的模型训练使用了微软专门建设的、由1万个V100 GPU组成的高性能集群AI计算系统,而训练消耗的总算力约为3640PF-days(即假如每秒计算一千万亿次,需要计算3640天),需要7~8个投资规模30亿、算力500P(1P相当于每秒运算一千万亿次)的数据中心才能支撑——这还只是模型训练阶段的算力需求,真实运行过程中的算力需求更为惊人。OpenAI宣布,GPT-5将在2024 年底左右推出,它的参数量为GPT-3的100倍,算力需求为 GPT-3的200-400倍。随着ChatGPT用户和应用范围的持续扩大,数据处理压力不断增大,算力需求更是飙升。
ChatGPT带来的机遇与挑战
ChatGPT时代充满了机遇与挑战。新技术解放了人类繁杂重复工作,让人将宝贵的时间精力转移到更多具有创造性、想象力和人性化的工作上,人均生产效率会持续提高。未来太多的工作岗位也会因为ChatGPT而缩减甚至被大部分替代,如一些重复性和低层次的工作(数据录入员、仓库人员、银行柜员等);初级创意工作(文案设计师、平面设计师、初级编程人员等),等等。并非所有岗位都可能被取代,需要个人情感、智力和创造力的许多工作是ChatGPT为代表的人工智能技术目前无法模拟或完全替代的。人工智能技术替代的不是人类整体,而是不愿意学习提升的那类人。换言之,它不是替代我们,而是促使我们更好地学习、进化,为我们赋能。
ChatGPT的出现产生了轰动效应,也给我们带来了诸多挑战。在教育和学术领域,为了防止学术欺诈和剽窃,巴黎政治学院、香港大学等高校宣布禁止师生在教学活动中使用ChatGPT等AI工具。《科学》《自然》等多家期刊也发表声明,不接受论文将ChatGPT列为“合著者”。2023年3月,OpenAI发布声明,由于开源库中存在漏洞导致一些用户可以看到另一些用户的聊天记录标题,ChatGPT临时下线。同月,意大利数据保护机构宣布,对OpenAI公司非法收集用户信息展开调查,并禁止使用ChatGPT;韩国三星内部发生三起涉及ChatGPT误用与滥用案例,包括两起“设备信息泄露”和一起“会议内容泄露”。
ChatGPT标志的强人工智能已到来,科幻电影描绘的超人工智能还会远吗?3月29日,由约书亚·本吉奥(图灵奖得主、深度学习三巨头之一)、埃隆·马斯克、尤瓦尔·赫拉利(《人类简史》作者)等超千人联名发表公开信,呼吁所有AI实验室立即暂停训练比GPT-4更强大的AI系统,为期至少6个月,以确保人类能够有效管理其风险。目前来看,这封公开信应该不能阻止AI飞速发展的脚步。AI的发展无人可以阻挡,在它无穷的潜力面前,也没人知道它会将人类文明推向何方。
科学网—人工智能的基石是数学
中国科学院院士徐宗本:人工智能的基石是数学
■本报见习记者程唯珈
“人工智能的基石是数学,没有数学基础科学的支持,人工智能很难行稳致远。”近日,由联合国教科文组织和中国工程院联合主办的联合国教科文组织国际工程科技知识中心2019国际高端研讨会上,中国科学院院士、西安交通大学教授徐宗本在题为《AI与数学:融通共进》的主题报告上如是说。
在他看来,目前人工智能所面临的一些基础问题,其本质是来自数学的挑战。
数学家眼里的人工智能是什么?徐宗本给出的答案简洁明了:当下主要指机器学习。
如果给这个名词赋予一个说明,他认为这是人或者智能体,通过与环境的交互来提升自身行为和解决问题能力的智能化操作。“机器学习是把这种智能形式化为数学公式,转换成计算机可以操作的算法和软件。”他说。
进一步说,人工智能实际上是一个将数学、算法理论和工程实践紧密结合的领域。将其剖开来看,就是算法,也就是数学、概率论、统计学、各种数学理论的体现。
不过徐宗本认为,作为人工智能基石的数学,还存在五大核心问题待解,而这也是制约人工智能进一步发展的“绊脚石”。
第一是大数据的统计学基础。徐宗本认为,人工智能和大数据是一对“孪生姐妹”。人工智能更多指应用模式,强调与领域知识的结合。大数据则是最底层的信息技术,强调机器和机器、机器与人之间的内容交互与理解。但是当前,分析大数据的统计学基础面临颠覆,应用于复杂大数据分析的极限理论、统计推断方法、真伪判定等数学基础尚未完全建立起来。
第二是大数据计算基础算法。一般而言,理解和分析大数据都是通过数据处理或数据分析来实现的,而无论是数据处理还是数据分析,最终都归于求解一系列基本的数学问题,如线性方程组求解、图计算、最优化计算、高维积分等。不过,这些看似早已解决的问题在大数据情形下却成了“拦路虎”。
他以旅游为例,打了一个生动的比方来解释这种挑战。“比如从西安到北京,怎么走最近?过去地图分辨率不高,根据普通的地图可以获取基本的路线。但现在大数据背景下,地图的分辨率越来越高,不可能一次就涵盖西安至北京之间全部城市与道路的数据,只能一次一次地提供其中某些城市间的道路信息。到达北京需要多少时间,怎样走最近?要带多少钱?现在的机器还回答不了这些问题。这是由于在分布式图信息环境下,图计算的基础算法问题还没有解决。”徐宗本说。
第三是深度学习的数学理论。徐宗本认为,这个问题在当下尤为关键。新一轮的人工智能多以深度学习为基本模型,然而深度学习的设计基础在哪里,什么样的结构决定了什么样的性能,能不能有台劳公式和富里埃级数这样的数学表示理论,这些基本的理论问题还没有解决。正是由于这个原因,现在的人工智能还得靠“人工”来换“智能”,这也是造成当下“人工智能=人工+智能”的原因。
第四是非常规约束下的最优输运。人工智能的很多问题都可归纳为两个领域数据打通问题,即让两个对象在满足某一个特定的不变量情况下互相转移。“比如中英文互译,就是在保持语义的情况下将中文数据转换成英文数据。”
应用到现实,徐宗本畅想,将医院的CT和核磁共振图像相互转移或能很好地解决医疗诊断的信息不足问题。“因为照的是同一个人,这里人就是不变量。要解决这些问题,建立特定约束下实现最优传输的数学理论与方法是基本的。”
第五是关于学习方法论的建模与函数空间上的学习理论。徐宗本表示,研究生阶段学到的机器学习理论,需上升到方法论学习的阶段。
“从数学上说,无论函数空间上的学习理论怎么建立,本质是要适应不同的任务。由于任务本身是函数,是无穷的,那么就需要把过去机器学习中对样本、数据的选择、泛化,推广到对任务的选择、泛化中。”
如果辩证地看待数学和人工智能的关系,相辅相成可能是其最好的诠释。徐宗本表示,不仅数学可为人工智能提供基础,人工智能也为数学研究提供新的方法论。
“比如解偏微分方程,过去人们可能会使用计算机,现在用人工智能可以做得更好。”他认为,让数学中的模型方法与人工智能的数据方法结合,可将机器的深度学习应用得更加精确。
面对如今发展得如火如荼的人工智能产业,徐宗本也道出了自己对从业者的希冀。
“人工智能想要做得好,要靠数学问题尤其是算法的解决。”徐宗本再次强调,从业者应潜心从基础研究抓起,使我国的应用场景优势真正转化为技术优势和产业优势。
《中国科学报》(2019-11-04第4版综合)