人工智能的三次发展高潮 始于上世纪50年代
人工智能是在1956年达特茅斯会议上首先提出的。该会议确定了人工智能的目标是“实现能够像人类一样利用知识去解决问题的机器”。虽然,这个梦想很快被一系列未果的尝试所击碎,但却开启了人工智能漫长而曲折的研究历程。下面就随网络通信小编一起来了解一下相关内容吧。
人工智能的第一次高潮始于上世纪50年代。在算法方面,感知器数学模型被提出用于模拟人的神经元反应过程,并能够使用梯度下降法从训练样本中自动学习,完成分类任务。另外,由于计算机应用的发展,利用计算机实现逻辑推理的一些尝试取得成功。理论与实践效果带来第一次神经网络的浪潮。然而,感知器模型的缺陷之后被发现,即它本质上只能处理线性分类问题,就连最简单的异或题都无法正确分类。许多应用难题并没有随着时间推移而被解决,神经网络的研究也陷入停滞。
人工智能的第二次高潮始于上世纪80年代。BP(BackPropagation)算法被提出,用于多层神经网络的参数计算,以解决非线性分类和学习的问题。另外,针对特定领域的专家系统也在商业上获得成功应用,人工智能迎来了又一轮高潮。然而,人工神经网络的设计一直缺少相应的严格的数学理论支持,之后BP算法更被指出存在梯度消失问题,因此无法对前层进行有效的学习。专家系统也暴露出应用领域狭窄、知识获取困难等问题。人工智能的研究进入第二次低谷。
人工智能的第三次高潮始于2010年代。深度学习的出现引起了广泛的关注,多层神经网络学习过程中的梯度消失问题被有效地抑制,网络的深层结构也能够自动提取并表征复杂的特征,避免传统方法中通过人工提取特征的问题。深度学习被应用到语音识别以及图像识别中,取得了非常好的效果。人工智能在大数据时代进入了第三次发展高潮。
以上是关于网络通信中-人工智能的三次发展高潮始于上世纪50年代的相关介绍,如果想要了解更多相关信息,请多多关注eeworld,eeworld电子工程将给大家提供更全、更详细、更新的资讯信息。
盘点人工智能发展史上的8个历史性事件
原标题:盘点人工智能发展史上的8个历史性事件人工智能被广大人民群众所熟知大概是从2016年阿尔法围棋(AlphaGo)与围棋世界冠军、职业九段选手李世石进行人机大战那次,并以4:1的总比分获胜。
不少职业围棋手认为,阿尔法围棋的棋力已经达到甚至超过围棋职业九段水平,在世界职业围棋排名中,其等级分曾经超过排名人类第一的棋手柯洁。此次人机大战,引起了全球前所未有的关注,开启了人工智能的新纪元。
实际上,早在上世纪40年代,人工智能的概念就已诞生。在那个时期的一些科幻小说、科幻电影里,就经常有关于人工智能的描述,如超级机器人、超级计算机、光脑等。
在人工智能的发展历程中,还经历了以下七个历史性事件:
一)1943年,WarrenMcCulloch和WalterPitts两位科学家提出了“神经网络”的概念,正式开启了AI的大门。虽然在当时仅是一个数学理论,但是这个理论让人们了解到计算机可以如人类大脑一样进行“深度学习”,描述了如何让人造神经元网络实现逻辑功能。
二)1955年8月31日,JohnMcCarthy、MarvinMinsky、NathanielRochester和ClaudeShannon四位科学家联名提交了一份《人工智能研究》的提案,首次提出了人工智能(AI)的概念,其中的JohnMcCarthy被后人尊称为“人工智能之父”。
三)1969年人类首次提出了反向传播算法(Backpropagation),这是80年代的主流算法,同时也是机器学习历史上最重要的算法之一,奠定了人工智能的基础。
这种算法的独特之处在于映射、非线性化,具有很强的函数复现能力,可以更好地训练人工智能的学习能力。
四)20世纪60年代,麻省理工学院的一名研究人员发明了一个名为ELIZA的计算机心理治疗师,可以帮助用户和机器对话,缓解压力和抑郁,这是语音助手最早的雏形。
语音助手可以识别用户的语言,并进行简单的系统操作,比如苹果的Siri,某种程度上来说,语音助手赋予了人工智能“说话”和“交流”的能力。
展开全文五)1993年作家兼计算机科学家VernorVinge发表了一篇文章,在这篇文章中首次提到了人工智能的“奇点理论”。他认为未来某一天人工智能会超越人类,并且终结人类社会,主宰人类世界,被其称为“即将到来的技术奇点”。
VernorVinge是最早的人工智能威胁论提出者,后来者还有霍金和特斯拉CEO马斯克。
六)1997年,IBM的超级计算机“深蓝”战胜了当时的国际象棋冠军GarryKasparov,引起了世界的轰动。虽然它还不能证明人工智能可以像人一样思考,但它证明了人工智能在推算及信息处理上要比人类更快。这是AI发展史上,人工智能首次战胜人类。
七)2012年6月,谷歌研究人员JeffDean和吴恩达从YouTube视频中提取了1000万个未标记的图像,训练一个由16,000个电脑处理器组成的庞大神经网络。在没有给出任何识别信息的情况下,人工智能通过深度学习算法准确的从中识别出了猫科动物的照片。
这是人工智能深度学习的首次案例,它意味着人工智能开始有了一定程度的“思考”能力。
人工智能未来的发展:
AI行业的六大发展趋势
·更聪明的机器人
·更快的分析
·更自然的互动
·更微妙的恐惧
·更智能的学习
·知识共享
人工智能的近期研究目标在于建造智能计算机,用以代替人类去从事各种复杂的脑力劳动。正是根据这一近期研究目标,人们才把人工智能理解为计算机科学的一个分支。当然,人工智能还有它的远期研究目标,即探究人类智能和机器智能的基本原理,研究用自动机模拟人类的思维过程和智能行为。这个长期目标远远超出计算机科学的范畴,几乎涉及自然科学和社会科学的所有学科。如今,人工智能已经进入21世纪,其必将为发展国民经济和改善人类生活做出更大的贡献。
来源:人工智能返回搜狐,查看更多
责任编辑:人工智能发展简史
编辑导语:人工智能的发展成果越来越显现在我们的日常生活中,它的发展并不是一帆风顺的,而是经历了许多次寒冬,最后才得以爆发。本文讲述了人工智能的发展简史,未来的人工智能又该如何发展,一起来看下。
一、起源提到人工智能的历史,所有书都会提到1956年度的达特茅斯会议,在这次会上人工智能的鼻祖Johnmcarthy是发起人,minsky也积极参与其中,包括我们课本上非常著名的提出信息论的香农本人。
曾经麦卡锡和明斯基都曾经在贝尔实验室为香农打工,当时他们研究的核心就是图灵机,并将此作为智能活动的理论基础。
后来麦卡锡到IBM打工,遇到了研究神经网络的罗切斯特并得到了洛克菲勒基金会的资助,决定在第二年达特茅斯召开人工智能夏季研讨会,这便是人工智能名字的由来。
从1955年到1965年,人工智能进入快速发展时期,在机器学习领域,出现了“跳棋程序”并在1959年实现了人工智能战胜人类的事件打败了当时设计他的设计师Samuel,并在1962年,打败了州跳棋冠军。
在模式识别领域,1956年Oliverselfridge研发了第一个字符识别程序,并在1963年发明了符号积分程序SAINT,在1967年SAINT的升级版SIN就达到了专家级的水准。
同时美国政府也投入了2000万美元资金作为机器翻译的科研经费。当年参加达特茅斯的专家们纷纷发表言论,不出十年,计算机将成为世界象棋冠军、可以证明数学定理、谱写优美的音乐,并且在2000年就可以超过人类。
二、第一次寒冬但在1965年人工智能迎来一个小高潮之后,质疑的声音也随之到来,Samuel设计的跳棋程序停留在了战胜周冠军,机器翻译领域因为一直无法突破自然语言理解(NLP),1966年的美国公布了一份名为“语言与机器”的报告全盘否定了机器翻译的可行性。
1969年,发起人之一的minsky发表言论,第一代神经网络(感知机perceptron)并不能学习任何问题,美国政府和美国自然基金会大幅削减了人工智能领域的研究经费。在20世纪70年代人工智能经历了将近10年左右的寒冬时期。
三、第二次高潮与寒冬直到80年代,人工智能进入第二次发展高潮,卡耐基梅隆大学为日本DEC公司设计的XCON专家规则系统(专注于解决某一限定领域的问题,具备2500条规则,专门用于选配计算机配件,因此避免了常识问题)可以为该公司一年节省数千万美金。
同期日本政府拨款8.5亿美元支持人工智能领域科研工作,主要目标包括能够与人交流、翻译语言、理解图像、像人一样进行推理演绎的机器。
但是随后人们发现,专家系统通用性较差,未与概率论、神经网络进行整合,不具备自学能力,且维护专家系统的规则越来越复杂,且日本政府设定的目标也并未实现,人工智能研究领域再次遭遇了财政苦难,随之人工智能发展进入第二次寒冬。
四、第一次算力与算法爆发上世纪90年代,计算机在摩尔定律下的计算机算力性能不断突破,英特尔的处理器每18-24个月晶体管体积可以缩小一倍,同样体积上的集成电路密集度增长一倍、同样计算机的处理运算能力可以翻一倍。
1989年,还在贝尔实验室的杨立坤通过CNN实现了人工智能识别手写文字编码数字图像。
1992年,还在苹果任职的李开复利用统计学方法,设计了可支持连续语音识别的Casper语音助理(Siri的前身),在1997年IBM的国际象棋机器人深蓝战胜国际象棋冠军卡斯帕罗夫(不再止步于州冠军,第一次真正意义上的战胜人类),同年两位德国科学家提出了LSTM网络可用于语音识别和手写文字识别的递归神经网络。
五、算力+算法+数据三驾马车聚齐:发展进入快车道直到2006年,也就是我们身处的这不到20年的时间是当代人工智能快速发展的阶段,同年杰弗里辛顿发表了《learningofmultiplelayersofrepresentation》奠定了当代的神经网络的全新架构。
2007年还在Stanford任教的华裔女科学家李飞飞教授,发起了ImageNet项目,开源了世界上最大的图像识别数据集(超过1400万、2万多标注类别的图像数据集)。
在2006年亚马逊的AWS的云计算平台发布,进一步大幅提升了人工智能网络模型计算所需要的算力。
同时,随着2014年4G时代的到来与智能手机大规模普及,移动互联网的极速发展,催生了覆盖人起居生活工作的方方面面的各色应用,带来了神经网络训练迭代所需的养料“海量的数据”,同时随着IoT物联网的兴起、支持分布式计算(边缘计算)的传感器时序(temporal)数据指数级生成。
六、技术发展离不开政府支持,我国将人工智能列入国家战略2017年我国政府也引发了《新一代人工智能发展规划》明确了我国新一代人工智能发展的战略目标:到2020年,人工智能总体技术和应用与世界先进水平同步,人工智能产业成为新的重要经济增长点,人工智能技术应用成为改善民生的新途径。
到2025年,人工智能基础理论实现重大突破,部分技术与应用达到世界领先水平,人工智能成为我国产业升级和经济转型的主要动力,智能社会建设取得积极进展;到2030年,人工智能理论、技术与应用总体达到世界领先水平,成为世界主要人工智能创新中心。
人工智能发展简史–符合事物发展本质-螺旋式上升
回顾人工智能历史发展的60多年间,有上升期、有瓶颈期、有寒冬期,但却一直不断的演进进步,正如恩格斯在《自然辩证法》所说,一切事物都是由螺旋形上升运动是由事物内部矛盾引起的,矛盾双方经过反复斗争,引起对立面的两次否定,两次转化,事物的发展从肯定到否定再到否定之否定,形成一个周期性,每一周期的终点同时又是下一周期的开端。
一个周期接着一个周期,每一周期完成时出现仿佛向出发点的复归,形成由无数“圆圈”衔接起来的无限链条,呈现出螺旋形的上升运动。
而如今的我们,正处在一个人工智能高速发展时代,且已经渗透到人们日常生产、生活、工作的方方面面,大家可能会问,为什么不是10年前、20年前而是现在?
这就不得不提人工智能三要素,分别是:算法、算力和数据,三者缺一不可。而人工智能早期发展的瓶颈,很多都是因为你三要素的一种或者多种要素的缺乏,导致人工智能产业陷入短暂的困境,如下图所示。
而如今,随着4G、5G基础网络通讯设施的快速发展,使万物互联成为可能,全球有天文数字级别的人、设备、传感器被连接,产生海量的数据,而这些数据正是人工智能算法模型迭代的充足养料。
而为什么我国有建设成为人工智能创新中心的底气?因为我们国家在网络基础设施建设方面在全球最为领先,移动互动联网渗透人们生产生活最为彻底,“配送下乡”的电商平台淘宝、拼多多、京东,美团等互联网“买菜”服务下沉到社区,村子里在直播玩短视频的大爷大妈,每个人都不知不觉的在享受着“人工智能”科技发展所带来的红利,同时也被“算法”支配着时间。
困在算法里的外卖小哥、内容平台利用推荐算法向你定向投喂的“猪食内容”、“人脸”信息被滥用,“算法”的偏见与歧视,正如一切事物的两面性一样、技术的发展同时一定会带来负面的影响,引发社会舆论的挑战。
如何更好的保护人们的隐私的同时,让算法更好的为人们服务?如何让人工智能将来不会“觉醒”,失去控制甚至伤害人类?如何让深度学习这个相对黑盒更具可解释性,更安全、更鲁棒?
相信诸位也跟我刚接触这个领域一样带着许多困惑。这些学界和工业界都已经有一些尝试与探讨,我希望在这本书的有限章节中向你尽可能简要但清晰的分享。
七、人工智能的未来在哪?未来人工智能又将去向何从,会像是科幻电影里人工智能终将觉醒、他们因为不具备”人性”可以更加理智的不会错的进化统治甚至“奴役”人类?
还是由于人类生存活动使地球的生态环境不断恶化,“病毒”不断肆虐,人类无法外出,只能沉陷于由人工智能创造的虚拟环境中,像是”头号玩家”所描述的世界,在虚幻世界中实现”自我”价值?
虽然无法先知,但是可以预见的是,人工智能未来一定会具备以下趋势:
从专家系统转向通用型的认知智能,像是我们上文提到的早期只能针对问题解决问题的某个细分领域的人工智能,未来的人工智能是更加通用型的、在感知能力的基础上具备像人一样具备认知智能,除了分类、归纳、检测、识别具备推演、预测的能力;深度学习模型从过去的黑盒不可解释,变得更加具备“可解释性”,从而通过算法模型更公平、更安全、更鲁棒;深度学习向多模态发展,正如人类文明进行学习不仅仅是通过眼睛观看,还有“口眼耳鼻舌身意、色相声香味触法”,因此深度学习需要多传感器的信息融合进行模型学习训练与判断;由于高级任务的带标签训练数据十分匮乏,这会促使人们进一步研究稀疏数据环境中的学习技术,比如,小样本学习和自我监督学习以及如何提升学习的效率以及如何让学习的进度追赶上数据产生的进度,增量学习也是一个解决当前现状的实用方向。数据隐私和数据安全引起社会广泛关注,如何保护隐私的前提下同时进行模型训练迭代,联邦学习已经被大多公司和组织广泛使用。八、总结这本书适用于所有刚刚从其他行业转型的AI产品经理,或作为一名刚毕业即将或者已经踏入职场的“新鲜人”,又或者是对于人工智能这个行业感兴趣想要了解的朋友们,希望通过我的一些经验和案例总结浓缩了七节课,希望可以帮助大家了解人工智能行业的同时,理解人工智能产品经理这个岗位,甚至可以快速实操上手。
第一章,我们介绍人工智能发展的介绍,从历史到现状再进一步尝试预见其未来。
第二章,我们介绍进入人工智能领域必知必会的基础知识,包括人工智能最为重要的三驾马车,人工智能、机器学习、深度学习之间的关系?对于AI产品经理需要理解的算法模型,如何衡量算法模型的好坏,如何建立评价体系?
第三章,我们介绍产品经理技能“方法论”,包括需求管理能力、向上管理能力、横向管理能力、项目管理能力、产品管理能力包括如何完成一个产品从0到1的构建,包括常用的管理工具/商业工具等,需要具备的数据分析能力、透过数据进行商业分析的能力等
第四章,我们介绍主要与软件算法类相关的人工智能项目,包括人脸算法技术的场景应用:智能相册、AI人像视频美妆、人体算法、手势算法、人像风格化算法等场景应,人脸AI小游戏等直接面向C端消费者场景的项目;
第五章,我们介绍软硬结合的AI算法类项目,包括智能音箱、智能电视、儿童手表、机器狗、智能座舱项目;
第六章,我们介绍B端垂直行业的AI应用类项目,包括智慧工厂、智慧办公、智慧门店项目;
第七章,我们介绍AI产品的商业模式设计。
最后,我们会推荐几本书籍和影视剧作品作为拓展性阅读,希望有余力的同学可以参考阅读。
作者:大仙河 微信号:大仙河知识学堂。专注分享关于人工智能产品、智能硬件、哲学的思考。
本文由@大仙河 原创发布于人人都是产品经理,未经许可,禁止转载
题图来自Unsplash,基于CC0协议
人工智能泡沫已经破了两次,这次还会破吗
第一次浪潮和第一次低谷:
达特茅斯会议推动了全球第一次人工智能浪潮的出现,这次浪潮从1956年一直持续到1974年。当时乐观的气氛弥漫着整个学界,在算法方面出现了很多世界级的发明,其中包括一种叫做增强学习的雏形(即贝尔曼公式),增强学习就是谷歌AlphaGo算法核心思想内容。
70年代初,AI遭遇了瓶颈。人们发现逻辑证明器、感知器、增强学习等等只能做很简单、非常专门且很窄的任务,稍微超出范围就无法应对。当时的计算机有限的内存和处理速度不足以解决任何实际的AI问题。
研究者们很快发现,要求程序对这个世界具有儿童水平的认识这个要求都太高了——1970年没人能够做出人工智能需要的巨大数据库,也没人知道一个程序怎样才能学到如此丰富的信息。另一方面,有很多计算复杂度以指数程度增加,这成为了不可能完成的计算任务。
第二次浪潮和第二次低谷:
在80年代,一类名为“专家系统”的AI程序开始为全世界的公司所采纳,而“知识处理”成为了主流AI研究的焦点。专家系统的能力来自于它们存储的专业知识,知识库系统和知识工程成为了80年代AI研究的主要方向。
但是专家系统的实用性仅仅局限于某些特定情景,不久后人们对专家系统的狂热追捧转向巨大的失望。另一方面,1987年到1993年现代PC的出现,其费用远远低于专家系统所使用的Symbolics和Lisp等机器。
相比于现代PC,专家系统被认为古老陈旧而非常难以维护。于是,政府经费开始下降,寒冬又一次来临。
第三次浪潮:
1993年后,出现了新的数学工具、新的理论和摩尔定律。人工智能也在确定自己的方向,其中一个选择就是要做实用性、功能性的人工智能,这导致了一个新的人工智能路径。
深度学习为核心的机器学习算法获得发展,积累的数据量极大丰富,新型芯片和云计算的发展使得可用的计算能力获得飞跃式发展,现代AI的曙光又再次出现了。一个标志性事件发生在2016年3月,谷歌DeepMind研发的AlphaGo在围棋人机大战中击败韩国职业九段棋手李世石。随后,大众开始熟知人工智能,各个领域的热情都被调动起来了。
深度学习算法,这次人工智能崛起的技术根基
可以看到,每次技术的突破,都会迎来一波人工智能的发展浪潮。这次人工智能浪潮的基石有三个,分别是算法、数据和计算能力。尤其是算法,直接决定了人工智能的发展水平。
人工智能的三大根基
首先,我们来看看这次人工智能的技术根基。1943年,美国心理学家McCulloch和数学家Pitts在论文《神经活动中所蕴含思想的逻辑活动》中首次提出神经元的M-P模型,该模型从逻辑功能器件的角度来描述神经元。M-P模型将生物神经信息处理模式简化为数学模型,为神经网络的理论研究开辟了道路。
M-P模型
在M-P模型中,Xi(i=1,2,...,n)表示来自于与当前神经元j相连的其他神经元传递的输入信号,Wij表示从神经元i到j的连接强度,F为转移函数。那么神经元的输出用向量表示就是Yj=F(XW)。
2006年,加拿大多伦多教授Hinton和他的学生发表了《Reducingthedimensionalityofdatawithneuralnetworks》,提出了一种面向复杂通用学习任务的深度神经网络,指出具有大量隐层的网络具有优异的特征学习能力,而网络的训练可以采用“逐层初始化”与“反向微调”技术解决。
自此,人类借助神经网络找到了处理“抽象”概念的方法,人工智能进入了一个崭新的时代。
深度神经网络
另一方面,由于互联网、移动互联网以及物联网的发展,企业尤其是互联网巨头积累了大量的数据。再加上云计算的发展,让计算能力像电力一样变得更加便宜,可获得性更高。
芯片性能的提高,GPU、FPGA等人工智能芯片的出现和发展,进一步提高了人类可利用的计算水平。一些互联网巨头开始利用大量数据,来训练其深度学习算法,不断提升系统的智能水平。
纯粹理性批判,我们离冬天还有几年?
介绍完了人工智能的“沉浮史”,以及支撑这次浪潮的基础。现在让我们回到刚开始的那个问题:这次人工智能的泡沫会破么?分析这个问题的角度有两个:
从历史上人工智能两次低谷的原因来分析这次面临同样困境的可能性;从这次人工智能浪潮的支撑基石角度,看目前的技术水平能支撑人工智能走多远。
从上两次人工智能泡沫破灭的原因来看,最重要的限制来自算法层面。人们对人工智能的最大期待是不断提升系统的智能水平,让智能系统逐步拓展能够处理的问题范围,最终实现通用人工智能系统,解决几乎所有领域问题。
每次人工智能浪潮中,人们都或多或少的怀有“一劳永逸”的期待。泡沫破灭的主要原因,也是现实的系统远远无法达到人们所想象的智能水平。
第一次泡沫破灭是因为人们发现当时的智能系统如逻辑证明器、感知器、增强学习等,只能做很简单、非常专门且很窄的任务,稍微超出范围就无法应对,这让智能系统不足以解决任何实际的问题。
第二次泡沫破灭也是因为专家系统所能解决的问题非常局限,远远无法达到人们的期待。
那么,算法的局限性也会是埋葬这次人工智能浪潮的掘墓人么?——很可能是!这次技术革新最大的成就无疑是深度学习技术,人工智能浪潮能走多远很大程度上取决于深度学习技术到底有多强。
深度学习是比以前的统计学和机器学习方法更为强大的模式识别方法,但具有很多的内在缺陷:
深度学习系统缺乏推理能力。深度学习技术缺乏表达因果关系的手段,缺乏进行逻辑推理的方法,而逻辑推理毫无疑问是人类智能的核心之一。
深度学习系统缺乏短时记忆能力。人类的大脑有着惊人的记忆功能,我们不仅能够识别个体案例,更能分析输入信息之间的整体逻辑序列。这些信息序列富含有大量的内容,信息彼此间有着复杂的时间关联性。
目前的深度学习系统,都不能很好地存储多个时间序列上的记忆,也就是说缺乏记忆能力。这在目前主流的人机对话系统中可以很明显的感觉出来。
人类的交流,都会基于前面的交谈内容来构建语境,后面的交流都会基于前面的语境来进行,目前的人机对话系统还远远达不到这种水平。比如苹果的Siri系统,你问它3乘以3等于多少,它可以很好的回答,但是你再问“刚才的结果再乘以3呢?”或者说“我刚刚问你什么来自?”,估计Siri得一脸懵逼。
缺乏执行无监督学习的能力。无监督学习在人类和动物的学习中占据主导地位,我们通过观察能够发现世界的内在结构,而不是被告知每一个客观事物的名称。
目前几乎所有由人工智能创造的经济价值都来自监督学习技术,也就是基于系统曾经接受过的其他实例的输入,来学习对结果进行预测或对东西进行分类。
在可预见的未来,深度学习系统还无法具备无监督学习的能力。目前来看,虽然无监督学习可以帮助特定的深度网络进行“预训练”,但最终绝大部分能够应用于实践的深度学习方法都是使用纯粹的有监督学习。
另一个方面,建立在语言之上的知识系统在人类智能方面扮演至关重要的作用。语言是知识的钥匙,而知识正是AI的终极目标。人类社会的知识,正是通过语言来代代相传的。
仅靠观察他人,人类是无法获取到广泛的可复用知识的。对于下一代智能系统所需的知识,人工智能必须能同时进行“阅读”和“聆听”才能获取到。而此等程度的机器学习,其关键技术正是NLP,可以说NLP是实现人与AI之间成功沟通的技术关键。但当前的深度学习方法还不足以解决NLP领域的核心问题。
仅仅通过扩大今天的深度学习技术,我们无法实现通用智能。虽然神经网络在大样本量上可以达到统计学上令人惊讶成果,但它们“对个例不可靠”,并且经常会导致人类永远不会出现的错误。
输入不准确或不完整数据的神经网络将产生错误的结果,这其中有两个著名的例子:
Google图像错误地将非洲裔美国人分类为大猩猩;微软的Tay在Twitter上学习了几个小时后,就出现了种族主义以及歧视女性的言论。
算法的突破无疑是制约人工智能发展的关键,这次人工智能浪潮的核心——深度学习算法的局限,直接决定了目前的人工智能系统不可能实现人们所预想的通用人工智能那种状态。
除了算法层面,就人工智能的另外两个关键因素数据和算力来看,虽然取得了很大的进步,但也存在诸多问题。
首先,数据层面。积累的海量数据就是人工智能系统的“粮食”,可以说是足够多的数据将人工智能“养大的”。
一方面,随着互联网、移动互联网的发展,数据积累的速度在不断加快,5G网络建成之后,物联网体系将会贡献更大量、类型更丰富、对人类更有价值的数据;
另一方面,不是积累的数据都可用,目前机器系统能够“理解”的基本都是结构化数据,像语音、图像、社交数据这些非结构化数据的“理解”还存在很大问题,在10年之内是否能够解决非结构化数据的“理解”问题尚未可知。
算力层面。目前的GPU、FPGA等人工智能芯片,虽然比CPU计算能力更强,但局限性依然很大。我们最终的目标是实现人类一样的通用智能,继而实现超级智能,那从系统的物理结构上就必须支持这一设想。
目前来看,我们对大脑的思维过程还知之甚少,其整个处理和决策过程对于人类来说还是个“黑箱”。就当前的处理芯片跟人脑在物理结构上的差距非常大,甚至可以说根本就不是一回事。对人脑神经系统的研究还任重道远,近10年内基本也看不到获得根本突破性进展的可能。
综上所述,技术尤其是算法层面的局限,决定了这次人工智能浪潮的“天花板”。深度学习算法带来的“技术红利”,将支撑我们再发展5~10年时间,随后就会遇到瓶颈。
在人工智能领域,技术的进步不是线性的,而是线性积累和间断式突破交替进行的。我们必须要达到一个“技术奇点”,才能实现根本上的突破,达到通用人工智能甚至是超级人工智能的水平。
大概率的可能性,未来几年人们对人工智能怀有巨大的热情和非理性的期待,但同时会渐渐发觉推进起来越来越费劲,仿佛有个无形的“天花板”挡在那里,迟迟不能获得突破,人们的耐心被渐渐耗尽,人工智能的下一个冬天也就来临了。
人工智能发展阶段
泡沫会以什么姿势破灭,怎么过冬?
人工智能技术和产业特性决定了,在没能实现高水平的智能之前,现在势头正猛的应用领域,在未来几年很可能会进入寒冬,乃至退出人们的视线,就像第二次浪潮中的专家系统一样。
人工智能的产业化应用,更多的是基于人们对于未来技术发展水平更高的预期,而不是当下已经达到的水平。比如自动驾驶领域,未来商用是基于能够达到L4级别的预期,但如果预期落空了呢?很可能自动驾驶就会被彻底抛弃。
就一般产业而言,线性发展的成分更重一些,即使产业不能再往前推进了,依然能够保持比较高的产业成熟度。人工智能产业则不同,如果以百分制来衡量一个产业的发展程度,人工智能不是从1慢慢发展到100,而是要么是90分以上,要么是10以下。
试想一下,你有一个智能助手,如果他的智力水平一直在10岁以下,你能接受么?那样的智能助手更多的是个玩具,不能委以重任,毕竟谁也不会将重要的事情交给一个小孩子来做。
再比如翻译领域,一旦智能系统能够达到人类水平的翻译能力,那将是一次彻底的颠覆,人类翻译员将彻底消失;但是,在没达到那种水平之前,翻译系统基本就是个摆设,你不能通过那套系统来与外国人顺畅的交流,也不能将看到的整段材料马上转换成另一种语言。
人工智能的泡沫,更多的是产业化和商业应用层面的。很多做人工智能应用的企业,如果发现将方案落地的期待落空,那他整个商业价值存在的根基就不存在了,整个产业将会消失,大量企业也会倒闭。
面对那样一个未来,我们应该怎么应对呢?我提出几点参考建议:
适度降低对人工智能的技术预判,理性设定商业模式。企业要仔细评估技术的发展潜力,不要抱有不切实际的幻想。寻找并设计一些智能水平不是太高就能具有商业价值的应用模式,并基于此来构建竞争壁垒。比如在自动驾驶领域,我们要做好L4在10年内无法实现的心理准备,寻找一些L3级别就能具有商业价值的应用领域。
现在就开始准备“过冬的粮草”。泡沫破灭之后,融资会变得越来越难,依据公司本身的造血能力维持基本没戏。所以,现在尽可能的多融资吧,并且在未来几年省着点花,争取能挨过寒冬。
实行曲线救国策略,发展一些“伪智能”业务,拓展业务领域。如果哪天发现“纯人工智能”这条路走不通,可以考虑发展一些周边产业,只要能带来现金流就行。虽然挂羊头卖狗肉有点缺德,但能保存“革命的火种”,也算一件好事。
我对人工智能事业怀有深切的热情,但目前的技术水平还无法满足我们内心最深切的期待,这一波人工智能浪潮很可能在几年内遭遇低谷。
比较坏的情况是:大多数人会由于失望而对人工智能事业不信任,媒体会由吹捧转而嘲讽冷落,大量企业可能倒闭,目前炙手可热的人工智能人才会遭遇职业危机,流入人工智能领域的资金会越来越少,到处都是一副萧条的景象。
怀有最美好的期待,做最坏的打算,这是干事业应有的理智和态度。希望这次人工智能浪潮不是行将破灭的泡沫,但如果是,请做好准备。(来自中国软件网,作者欧应刚)
免责声明:本文系网络转载,版权归原作者所有。如涉及作品版权问题,请与我们联系,我们将根据您提供的版权证明材料确认版权并支付稿酬或者删除内容。返回搜狐,查看更多