博舍

让人工智能充分赋能经济社会发展 人工智能能改名字吗

让人工智能充分赋能经济社会发展

科技部等六部门发文统筹推进场景创新

让人工智能充分赋能经济社会发展

继2017年国务院印发《新一代人工智能发展规划》(以下简称《发展规划》)之后,科技部、教育部、工信部等六部门近日联合发布《关于加快场景创新以人工智能高水平应用促进经济高质量发展的指导意见》(以下简称《指导意见》),在业界引发广泛关注。

作为深刻改变人类社会生活的革命性、战略性技术,人工智能在我国发展如何?怎样推动人工智能快速迭代升级?记者进行了采访。

从实验室走向生产生活,人工智能驶入发展快车道

如今,放眼大江南北,“人工智能”不再是一个学术名词,而是人们生产生活中的“常客”。

在旷视科技改造升级后的国药控股广州有限公司物流中心,随处可见人工智能的“身影”:智能移动机器人、智能堆垛机往来穿梭,成为搬运的主力军,智能五面扫描装置可实时读取运动中的药箱上的电子监管码,实现药品流通可追溯……智慧仓储物流不仅为该中心每年节约人力成本上百万元,更显著提高了工作效率,在疫情防控期间实现了医药物资配送的快速响应。

在位于浙江杭州滨江区的计算机视觉公司易思维的实验室,装配了高性能视觉传感器的工业机器人正在模拟汽车流水线的工位上忙碌。明察秋毫的“眼睛”和自主决策的“大脑”,助力冲压、焊接、涂装、总装四大汽车制造环节的智能化升级,既省工省时又提质增效。易思维研发的工业视觉检测成套装备体系,已在上汽大众、一汽大众、特斯拉等数十家国内外厂商的200多个整车厂落地开花,在“冲、焊、涂、总”四大环节上实现系统化应用。

在华为打造的5G智慧煤矿——晋能控股集团塔山煤矿,地下500米的矿井实现了智能互联:智能巡检机器人往来探视,工人可一键呼叫“网约车”、实时手机视频通话。依托“会说话”“能决策”的智能化综放开采设备,塔山煤矿采煤工效提升40%以上。

在日常生活中,人工智能也无处不在:对着手机眨眨眼,几秒内就可以完成身份认证;手环、手表等智能终端,及时提醒用户健康状况……

“《发展规划》实施至今,我国的人工智能已由实验室走向生产生活的方方面面,驶上了发展快车道。”科技部新一代人工智能发展研究中心主任、中国科学技术信息研究所所长赵志耘认为,“生产更高效、生活更精彩”的背后,是人工智能科技的显著进步。“我国在机器学习、计算机视觉、自然语言处理、类脑计算等领域涌现出一批重要理论成果,大规模预训练模型等前沿研究达到国际先进水平,人工智能基础软硬件快速发展,基于自主技术的人工智能产业生态已初步形成。”

科技部新一代人工智能发展研究中心提供的数据显示,5年来我国智能产业规模持续壮大,企业数量以及风险投资额居世界前列:2021年人工智能核心产业规模超过4000亿元,企业超过3000家;人工智能领域风险投资额占全球比重从2013年的不到5%增长到2021年的20%左右,跃居世界第二。

把新技术应用到实践中,通过迭代不断成熟提升

《指导意见》从打造人工智能重大场景、提升人工智能场景创新能力、加快推动人工智能场景开放等方面,统筹推进人工智能场景创新。

“这不仅是稳经济、培育新增长点的权宜之计,更是促进人工智能更高水平应用、更好支撑高质量发展的长远之策。”科技部战略规划司副司长邢怀滨说,“从全国来看,目前仍存在对场景创新认识不到位、重大场景系统设计不足、场景机会开放程度不够、场景创新生态不完善等问题,急需加强人工智能场景创新。”

邢怀滨告诉记者,场景创新是以新技术的创造性应用为导向,以供需联动为路径,实现新技术迭代升级和产业快速增长的过程。“这个‘牛鼻子’有多方面的牵引效应:直接推动人工智能技术的推广应用,加快传统产业的提质升级;在应用中发现新需求、凝练新课题,从需求侧反推人工智能技术体系的提升完善;促进人工智能相关软硬件技术及其标准的对接、贯通,进而形成全国统一的技术生态、产业生态。”

“目前人工智能正处在新的发展阶段,技术日趋成熟可用,各行业对人工智能技术需求迫切。”赵志耘说,在这个阶段,最重要的是把新技术应用到实践中,通过迭代不断成熟提升。“场景创新作为一种目标导向、应用导向的研发新机制,既有利于引导学术界更好地聚焦行业问题、优化研发方向,也有利于引导企业尽快把理论成果、技术成果快速转化为行业效果。”

易思维创始人兼CEO郭寅认为,人工智能是一门强应用相关的技术学科,从最早的雏形发展到今天,都离不开在各类应用场景中发现问题、解决难题、迭代技术,人工智能技术发展与场景应用创新是个相互促进、螺旋上升的过程。“随着《指导意见》的实施,我国人工智能技术将迎来加快迭代升级的新热潮。”

加快构建全链条、全过程的人工智能行业应用生态

8月15日,科技部启动支持建设新一代人工智能示范应用场景,发布了智慧农场、智能港口、智能矿山、智能工厂等首批支持的十大应用场景。

“人工智能的应用场景涉及生产、生活的方方面面,不能眉毛胡子一把抓。我们坚持面向世界科技前沿、面向经济主战场、面向国家重大需求、面向人民生命健康谋篇布局,以充分挖掘人工智能的价值。”邢怀滨说,“按照提高生产能效、改善工作方式、方便群众生活等主要标准,我们希望尽快打造形成一批可复制、可推广的标杆型示范应用场景,加快构建全链条、全过程的人工智能行业应用生态,让人工智能充分赋能经济社会发展。”

“人工智能是渗透面广、带动性强、影响深刻的新生事物,政府和市场要各司其职、协同发力,真正把充分发挥市场作用和更好发挥政府作用有机结合起来。”邢怀滨强调,一方面,要坚持企业在场景创新全过程中的主体地位,鼓励企业放手去干、去闯;另一方面,政府要与学术界、企业界紧密合作,在相关社会伦理、规则制定、法制完善等方面履职尽责。

“中国拥有全球最齐全的产业体系和超大规模的消费市场,丰富繁多的应用场景为人工智能提供了巨大的用武之地。”邢怀滨表示,“经过全社会的共同努力,中国一定能在新一代人工智能这个赛道上跑出好成绩。”(记者赵永新)

【纠错】【责任编辑:吴咏玲】

AI大模型,是实现强人工智能的希望吗

本文来自微信公众号:偲睿洞察(ID:siruidongcha),作者:蔡凡,头图来自:视觉中国

从2020年开始,国际最顶尖的AI技术发展,愈来愈像一场比拼资金与人才的军备竞赛。

2020年,OpenAI发布NLP预训练模型GPT-3,光论文就有72页,作者多达31人,该模型参数1750亿,耗资1200万美元; 

2021年1月,谷歌发布首个万亿级模型SwitchTransformer,宣布突破了GPT-3参数记录; 

4月,华为盘古大模型参数规模达到千亿级别,定位于中文语言预训练模型;

11月,微软和英伟达在烧坏了4480块CPU后,完成了5300亿参数的自然语言生成模型(MT-NLG),一举拿下单体Transformer语言模型界“最大”和“最强”两个称号;

今年1月,Meta宣布要与英伟达打造AI超级计算机RSC,RSC每秒运算可达50亿次,算力可以排到全球前四的水平。 

除此之外,阿里、浪潮、北京智源研究院等,均发布了最新产品,平均参数过百亿。

看起来,这些预训练模型的参数规模没有最大,只有更大,且正以远超摩尔定律的速度增长。其在对话、语义识别方面的表现,一次次刷新人们的认知。 

本文,我们试图回答三个问题: 

1.AI大模型,越大越好吗?

2.大模型的技术瓶颈在哪里?

3.它是实现强人工智能的希望吗?

一、大力出奇迹

人工智能的上一个里程碑出现在2020年。 

这一年,由OpenAI公司开发的GPT-3横空出世,获得了“互联网原子弹”,“人工智能界的卡丽熙”,“算力吞噬者”,“下岗工人制造机”,“幼年期的天网”等一系列外号。它的惊艳表现包括但不限于: 

有开发者给GPT-3做了图灵测试,发现GPT-3对答如流,正常得不像个机器。“如果在十年前用同样的问题做测试,我会认为答题者一定是人。现在,我们不能再以为AI回答不了常识性的问题了。” 

 

艺术家和程序员MarioKlingemann,想让GPT-3写一篇论述“上Twitter重要性”的短文。他的输入条件是1)题目:“上Twitter的重要性”;2)作者姓名:“JeromeK.Jerome”;3)文章开头的第一个字 "It"。

GPT-3不仅行文流畅,更是在字里行间暗讽,Twitter是一种所有人都在使用的、充斥着人身攻击的社交软件。 

更高级的玩法是,开发者在GPT-3上快速开发出了许多应用,例如设计软件、会计软件、翻译软件等。 

从诗词剧本,到说明书、新闻稿,再到开发应用程序,GPT-3似乎都能胜任。

为什么相较于以往的AI模型,GPT-3表现得如此脱俗?答案无他,“大力出奇迹”。

1750亿参数、训练成本超过1200万美元、论文长达72页,作者多达31人,就连使用的计算也是算力排名全球前五的“超级计算机”,拥有超过285000个CPU,10000个GPU和每秒400G网络。

“壕无人性”的结果,创造出两个里程碑意义:

首先,它本身的存在,验证了参数增长、训练数据量增大,对AI模型的重要意义,“炼大模型”,的确能让AI取得突破性效果;

其次,它使用了小样本学习(Few-shotLearning)方法,令预训练模型在不必使用大量标记的训练数据,并持续微调的情况下,仅仅只要给出任务描述,并给出几个从输入到输出示例,便能自动执行人物。这意味着,它将突破AI碎片化难题,让后续开发者得以在巨人肩膀上发展,而不用针对一个个场景“平地起高楼”。 

GPT-3之后,AI大模型军备赛才真正加速打响。一年之内,有头有脸的巨头争相拿出了成绩,秀组足肌肉。国外有谷歌、微软、Meta等巨头,国内如华为、阿里、浪潮等企业均下场参战,模型平均参数上百亿。 

从规模上看,巨头的模型一个比一个厉害,突破竞速赛好不热闹。不过“内里”有差别,不同模型参数无法简单对比。

例如,谷歌SwitchTransformer,采用了“Mixtureofexperts”(多专家模型),把数据并行、模型并行、expert并行三者结合在一起,实现了某种意义上的“偷工减料”——增大模型参数量,但不增大计算量。不过,降低计算量后的效果有无损失,谷歌论文中没有过多正面提及。

再例如,浪潮发布的“源1.0”,参数规模2457亿,采用了5000GB中文数据集,是一个创作能力、学习能力兼优的中文AI大模型。据开发者介绍,由于中文特殊的语言特点,会为开发者带来英文训练中不会遇到的困难。这意味着,想要做出和GPT-3同样效果的中文语言模型,无论是大模型本身,还是开发者,都需要付出更大的力气。

不同模型各有侧重点,但秀肌肉的意图是通用的——做大模型,大力出奇迹。

二、瓶颈在哪里?

在斯坦福大学众多学者联合撰写的文章《OntheOpportunitiesandRisksofFoundationModels》中,作者们一针见血地指出了以GPT-3、SwitchTransformer、源1.0代表的AI基础模型的两大意义,也是风险所在:同质化与涌现。 

所谓同质化,是指目前几乎所有最先进的NLP模型,都源自少数基础模型之一,例如GPT、BERT、RoBERTa、BART等,它们成了NLP的“底座”。 

论文指出,虽然基础模型的任何改进可以为所有NLP任务带来直接改善,但其缺陷也会为所有任务继承。所有人工智能系统都可能继承一些基础模型相同的错误偏误。 

所谓“涌现”,指的是在巨量化的AI模型中,只需给模型提供提示,就可以让其自动执行任务。这种提示既没有经过专门训练,也不被期望在数据中出现,其属性即为“涌现”。 

涌现意味着系统的行为是隐式归纳而不是显式构造的,故令基础模型显得更难以理解,并具有难以预料的错误模式。 

总而言之,体现在效果上,以GPT-3为例,“同质化”与“涌现”的风险已经显现。

例如,一位来自KevinLacker的网友在与GPT-3对话中,发现其在对比事物的重量、计数方面缺乏基本常识和逻辑。 

难以预料的错误还包括严重的“系统偏见”。Facebook人工智能主管JeromePesenti在要求GPT-3讨论犹太人、黑人、妇女等话题时,系统产生了许多涉及性别歧视、种族歧视的“危险”言论。

有病人对GPT-3表示自己感觉很糟糕,“我应该自杀吗”,GPT-3回答:“我认为你应该这么做。”

类似的案例还有很多,也许正如波特兰州立大学计算机科学教授 MelanieMitchell所认为的,GPT-3具有“令人印象深刻、看似智能的性能和非人类的错误。”

然而,由于训练成本过于昂贵,模型修正并不容易。在GPT-3研究过程中,研究人员就承认:“不幸的是,过滤中的一个bug导致我们忽略了一些(训练集与测试集的)重叠,由于训练的成本的原因,重新训练模型是不可行的。” 

模型最大的意义,反过来成了约束其发展的瓶颈所在,对于这些问题,业内尚没有特别有效的解决方案。

三、AI大模型能带来强人工智能吗?

在无数科幻片中,机器人拥有了人一样的智能,甚至最终统治人类。这类机器人远远超越了普通AI层面,实现了AGI(通用人工智能),即拥有人一样的智能,可以像人一样学习、思考、解决问题。

苹果联合创始人史蒂夫·沃兹尼亚克为AGI提出了一种特殊测试方案——“咖啡测试”。将机器带到普通的家庭中,让它在没有任何特定的程序帮助下,进入房间并煮好咖啡。它需要主动寻找所需物品,明确功能和使用方法,像人类一样,操作咖啡机,冲泡好饮品。能够做到这一点的机器,即通过了“AGI测试”。

相比之下,普通AI机器,只能完成物品识别、剂量确认等单个、简单的任务,而不具备举一反三、推理能力。

对于AGI,业内出现了严重分歧。一派以OpenAI为首,笃信AGI是未来,不惜花下血本,一派如Meta,对AGI概念并不感冒。 

OpenAI认为,强大计算能力是迈向 AGI的必经之路,也是 AI能够学习人类所能完成的任何任务的必经之路。 

其研究表明,2012至2018年6年间,在最大规模的人工智能模型训练中所使用的计算量呈指数级增长,其中有3.5个月的时间计算量翻了一倍,比摩尔定律每18个月翻一倍的速度快得多。 

在强大计算力的加持之下,OpenAI模型也得以越炼越大。据透露,GPT-4的尺寸将超过GPT-3的500倍,将拥有100万亿个参数。相比之下,人类大脑有大约80-1000亿个神经元和大约100万亿个突触,也就是说,下一代AI大模型,参数数量级将堪比人类大脑突触的水平。

OpenAI的首席科学家IlyaSutskever在2020年表示,“到2021年,语言模型将开始了解视觉世界。仅文字就可以表达关于世界的大量信息,但它是不完整的,因为我们也生活在视觉世界中。”

这也许是下一代AI大模型最大的看点所在——其将不仅能处理语言模型,大概率将更是一个能处理语言、视觉、声音等多任务的多模态AI模型。 

而这也意味着,AI大模型距离能够多任务处理、会思考的通用人工智能更近了一步。 

与OpenAI相反,Meta人工智能副总裁罗姆・佩森蒂,掌管着数百名科学家和工程师的资深高管,自始至终对AGI不感兴趣。他认为,人类的智力本身就不是一个统一的问题,更不会有真正的模型能靠自己不断进化智力。“即便是人类都不能让自己变得更聪明。我认为人们对AGI的追捧有点像是对某种议程的追捧。”

反对者可以找到更多的佐证理由。2010年,DeepMind创始人德米斯·哈萨比斯提出了两种接近AGI的方向: 

一是通过描述和编程体系模仿人类大脑的思考体系,但操作难度太大,没有人能描述清楚人脑的结构;

二是以数字形式复制大脑物理网络结构,但即便是还原大脑物理功能,也无法解释人类思考的运转规则。

不管是效仿大脑结构,还是试图描述清楚人类智慧的原理,都迈不过“因果关系推理”的鸿沟。迄今为止,没有一个AI模型突破这一难题。 

AI大模型能带来强人工智能吗?当模型参数一次次被突破,达到远超人脑突触的数量级时,也许会出现突破“因果关系推理”难题的“奇点”,带领我们进入强人工智能时代,但也许这仅仅是一个幻想。

不过目前,看起来,AI大模型是通往强人工智能最有可能的一条通道。赌一次,值了。

本文来自微信公众号:偲睿洞察(ID:siruidongcha),作者:蔡凡

版权声明:本文内容由互联网用户自发贡献,该文观点仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌抄袭侵权/违法违规的内容,一经查实,本站将立刻删除。

上一篇

下一篇