类脑智能:人工智能发展的另一条路径
类脑智能:人工智能发展的另一条路径
人工智能的迅速发展将深刻改变世界发展模式和人类生活方式。为抢抓人工智能发展重大战略机遇,各国均在构筑先发优势。类脑智能作为人工智能的另一条发展路径,也是实现通用人工智能的最可能路径,成为各国的关注焦点。
类脑智能是人工智能发展的必要路径
当前人工智能存在两条技术发展路径。一条是以模型学习驱动的数据智能,另外一条是以认知仿生驱动的类脑智能。当前现阶段人工智能发展的主流技术路线是数据智能,但是数据智能存在一定局限性,如:数据方面,需要海量数据和高质量的标注;自主学习、自适应等能力弱,高度依赖于模型构建;计算资源消耗比较大,CPU、GPU消耗量巨大;缺乏逻辑分析和推理能力不足,仅具备感知识别能力;时序处理能力弱,缺乏时间相关性;仅解决特定问题,适用于专用场景智能。
类脑智能可以解决数据智能的局限性和不足。数据方面,类脑智能可处理小数据、小标注问题,适用于弱监督和无监督问题;更符合大脑认知能力,自主学习、关联分析能力强,鲁棒性较强;计算资源消耗较少,人脑计算功耗约20瓦,类脑智能模仿人脑实现低功耗;逻辑分析和推理能力较强,具备认知推理能力;时序相关性好,更符合现实世界;可能解决通用场景问题,实现强人工智能和通用智能。
类脑智能的定义
类脑智能是受大脑神经运行机制和认知行为机制启发,以计算建模为手段,通过软硬件协同实现的机器智能。类脑智能具备信息处理机制上类脑、认知行为表现上类人、智能水平上达到或超越人的特点。2018年8月,Gartner公司发布2018年新兴技术成熟度曲线,公布了5大新兴技术趋势,其中类脑智能、神经芯片硬件和脑机接口作为重要技术趋势。
类脑智能发展有三个层面的目标,分别是结构层次模仿脑、器件层次逼近脑、功能层次超越脑。具体来说,结构层次,主要研究基本单元(各类神经元和神经突触等)的功能及其连接关系(网络结构),通过神经科学实验的分析探测技术完成;器件层次,重点在于研制模拟神经元和神经突触功能的微纳光电器件,在有限物理空间和功耗条件下构造出人脑规模的神经网络系统,如研制神经形态芯片、类脑计算机;功能层次,对类脑计算机进行信息刺激、训练和学习,使其产生与人脑类似的智能甚至涌现自主意识,实现智能培育和进化,学习、记忆、识别、会话、推理、决策以及更高智能。
现阶段类脑智能研究发展依然缓慢。一是由于脑机理认知尚不清楚。大脑是人类进化的高级产物,重量约1.5公斤,占体重2%,功耗约20瓦,占全身功耗20%,当前人类对大脑的认识还不足5%,尚无完整的脑谱图可参考;二是由于类脑计算模型和算法尚不精确。神经元连接的多样性变化性,使得前馈、反馈、前馈激励、前馈抑制、反馈激励、反馈抑制的建模不精确,脑功能分区与多脑区协同的算法不准确;三是现有计算架构和能力制约。现在计算系统是冯诺依曼架构,计算与存储分离,系统功耗高、并行度低、规模有限,而类脑计算系统是非冯诺依曼架构,计算与存储统合,高密度、低功耗,颠覆现有架构的代价较大。
各国高度重视积极布局
先进国家积极布局类脑智能研发。美国于2013年启动“BRAIN计划”,将大脑结构图建立、类脑相关理论建模、脑机接口等列为研发重点;欧盟于2013年提出“人脑计划”,重点开展人脑模拟、神经形态计算、神经机器人等领域研究;日本于2008年提出“脑科学战略研究项目”,重点开展脑机接口、脑计算机研发和神经信息相关的理论构建;韩国在2016年发布《脑科学研究战略》,重视脑神经信息学、脑工程学、人工神经网络、大脑仿真计算机等领域的研发。
企业争相布局类脑智能。IBM围绕Watson系统和TrueNorth类脑芯片,意图抢先打造类脑智能生态系统;谷歌依托全球技术领先地位,在现有谷歌大脑基础上结合医学、生物学积极布局人工智能;微软提出意识网络架构,声称是具备可解释性的新型类脑系统。除龙头企业外,美国Emotiv、美国Neurallink、美国Kernel、美国Brainco、瑞士aiCTX等一批新兴公司在类脑智能方面取得很多研发成果,部分进入产业化阶段。
我国积极统筹加速布局类脑智能。我国在2006年《国家中长期科学和技术发展规划纲要(2006—2020)》中就把“脑科学与认知”列入基础研究8个科学前沿问题之一。在2016年《“十三五”国家科技创新规划》也将脑科学与类脑研究列入科技创新2030重大项目。2017年国务院《新一代人工智能发展规划》提出了2030年类脑智能领域取得重大突破的发展目标。我国于2017、2018年分别成立了类脑智能技术及应用国家工程实验室、北京脑科学与类脑研究中心,形成了“南脑北脑”共同快速发展的格局。
类脑智能技术体系
类脑智能技术体系分四层:基础理论层、硬件层、软件层、产品层。基础理论层基于脑认知与神经计算,主要从生物医学角度研究大脑可塑性机制、脑功能结构、脑图谱等大脑信息处理机制研究;硬件层主要是实现类脑功能的神经形态芯片,也就是非冯诺依曼架构的类脑芯片,如脉冲神经网络芯片、忆阻器、忆容器、忆感器等;软件层包含核心算法和通用技术,核心算法主要是弱监督学习和无监督学习机器学习机制,如脉冲神经网络、增强学习、对抗神经网络等;通用技术主要是包含视觉感知、听觉感知、多模态融合感知、自然语言理解、推理决策等;产品层主要包含交互产品和整机产品,交互产品包含脑机接口、脑控设备、神经接口、智能假体等,整机产品主要有类脑计算机、类脑机器人等。
类脑智能当前存在先结构后功能和先功能后结构两条发展思路。先结构后功能,主要指先研究清楚大脑生理结构,然后根据大脑运行机制研究如何实现大脑功能;先功能后结构,主要是先使用信息技术模仿大脑功能,在模仿过程中逐步探索大脑机制,然后相互反馈促进。两条发展思路各有千秋,功能和结构的任意发展突破都会推动类脑智能的极大发展,因此现阶段两条路线并行发展。
类脑智能目前整体处于实验室研究阶段,脑机接口技术是类脑领域目前唯一产业化的领域。脑机接口技术是在人或动物脑(或者脑细胞的培养物)与外部设备间建立直接连接通路,以“人脑”为中心,以脑信号为基础,通过脑-机接口实现控制人机混合系统。脑机接口应用于医疗领域,实现瘫痪人士通过脑机设备控制机械臂完成相应动作,也可实现对多动症、癫痫等疾病采取神经反馈方式做对应的恢复训练;用于智能家居,实现意念控制开关灯、开关门、开关窗帘等,进一步控制家庭服务机器人。全球最受关注的脑机接口公司前十名多分布在北美和欧洲,我国产业界逐步推出产品,如科斗脑机、海天智能等公司研发生产出植入式脑微电极、脑控智能康复机器人等产品。
未来发展建议
加快构建全景战略视图,突出重点方向。从科研、技术和产业等多维度形成类脑智能体系化布局,并突出重点发展方向,具体围绕结构、器件、功能三个层面开展重点布局和超前部署。
加大对基础工艺/算法/软件等的投入力度。我国长期以来在新算法、新结构、新原理的研究方面原创不足,制约类脑智能整体创新供给能力。因此,仍需持续加大对原始科研创新的重视力度,对关键基础工艺/算法/软件等加大支撑投入力度。
强化政产学研合作,推动技术体系化创新。类脑智能体系涉及要素较多,需要政产学研紧密合作,深化多方协同的合作,共同推动技术实现体系化的创新。借鉴其他先进国家布局经验,突出政产学研多方合作在类脑智能创新中的合力作用,构建国内多方协同的创新体系。(作者:王冲鶄)
(本文来自于新华08网)
人工智能发展的另一条路径 类脑智能
各国高度重视积极布局
先进国家积极布局类脑智能研发。美国于2013年启动“BRAIN计划”,将大脑结构图建立、类脑相关理论建模、脑机接口等列为研发重点;欧盟于2013年提出“人脑计划”,重点开展人脑模拟、神经形态计算、神经机器人等领域研究;日本于2008年提出“脑科学战略研究项目”,重点开展脑机接口、脑计算机研发和神经信息相关的理论构建;韩国在2016年发布《脑科学研究战略》,重视脑神经信息学、脑工程学、人工神经网络、大脑仿真计算机等领域的研发。
我国积极统筹加速布局类脑智能。我国在2006年《国家中长期科学和技术发展规划纲要(2006—2020)》中就把“脑科学与认知”列入基础研究8个科学前沿问题之一。在2016年《“十三五”国家科技创新规划》也将脑科学与类脑研究列入科技创新2030重大项目。2017年国务院《新一代人工智能发展规划》提出了2030年类脑智能领域取得重大突破的发展目标。我国于2017、2018年分别成立了类脑智能技术及应用国家工程实验室、北京脑科学与类脑研究中心,形成了“南脑北脑”共同快速发展的格局。
类脑智能技术体系
类脑智能技术体系分四层:基础理论层、硬件层、软件层、产品层。基础理论层基于脑认知与神经计算,主要从生物医学角度研究大脑可塑性机制、脑功能结构、脑图谱等大脑信息处理机制研究;硬件层主要是实现类脑功能的神经形态芯片,也就是非冯诺依曼架构的类脑芯片,如脉冲神经网络芯片、忆阻器、忆容器、忆感器等;软件层包含核心算法和通用技术,核心算法主要是弱监督学习和无监督学习机器学习机制,如脉冲神经网络、增强学习、对抗神经网络等;通用技术主要是包含视觉感知、听觉感知、多模态融合感知、自然语言理解、推理决策等;产品层主要包含交互产品和整机产品,交互产品包含脑机接口、脑控设备、神经接口、智能假体等,整机产品主要有类脑计算机、类脑机器人等。
类脑智能目前整体处于实验室研究阶段,脑机接口技术是类脑领域目前唯一产业化的领域。脑机接口技术是在人或动物脑(或者脑细胞的培养物)与外部设备间建立直接连接通路,以“人脑”为中心,以脑信号为基础,通过脑-机接口实现控制人机混合系统。脑机接口应用于医疗领域,实现瘫痪人士通过脑机设备控制机械臂完成相应动作,也可实现对多动症、癫痫等疾病采取神经反馈方式做对应的恢复训练;用于智能家居,实现意念控制开关灯、开关门、开关窗帘等,进一步控制家庭服务机器人。全球最受关注的脑机接口公司前十名多分布在北美和欧洲,我国产业界逐步推出产品,如科斗脑机、海天智能等公司研发生产出植入式脑微电极、脑控智能康复机器人等产品。返回搜狐,查看更多
中国人工智能创新处于什么发展水平
◎编辑|数字经济先锋号
◎来源|北京工业大学学报
◎作者|王山陈昌兵
人工智能作为新技术创新的代表与引领未来、重塑传统行业结构的前沿性与战略性技术,逐渐成为全球新一轮科技革命和产业变革的重要驱动力量。世界各国在以创新为主的人工智能新技术方面展开了激烈的角逐与残酷的竞争。
目前,我国人工智能技术创新水平如何?技术处于何种发展阶段?我国发展人工智能的优势在哪?未来我国人工智能发展趋势如何?本文即将告诉你答案。
指标体系的构建
基于技术创新大数据,本文创新性地构建多指标测度体系与技术创新综合发展指数;根据综合发展指数模拟各国人工智能技术创新S演化曲线,描绘动态演变轨迹并定位中美技术创新发展位置。重点结合五维度在不同阶段的权重分布,比较中美新技术创新发展差距,探讨影响我国人工智能新技术创新发展的主要因素。提出提高新技术创新水平的具体措施与发展建议,助力实现我国人工智能关键核心技术突破、摆脱被先发国家控制的劣势地位。
表1人工智能技术创新发展水平多指标测度体系
根据技术创新周期不同发展阶段可能呈现出的特征与各特征之间的内在逻辑关系,同时结合人工智能新技术创新发展影响因素与技术创新发展测度相关参考文献,我们选择了基础研究、技术创新、科技布局、产业规模与技术进步5个维度来测度人工智能技术创新发展水平(如表一所示)。
根据指标熵权计算式得到的人工智能技术创新水平各测度指标的权重值(Wj)(如表二所示)。从单个指标权重看,首先体现产业规模的人工智能技术融资规模指标权重最高,然后为人工智能新增企业数指标;其次为体现技术创新程度的人工智能技术优先权年专利申请量指标,研发课题数指标权重最低。从分析维度看,首先产业规模维度权重最大;其次为技术创新维度与科技布局维度,基础研究维度权重值最小。综上可知,产业规模与技术创新维度各参数动态变化对人工智能技术创新所处发展阶段的判断具有显著影响。
表2人工智能技术创新水平测度指标权重值
中美等国的对比与分析
根据分析,目前,我国人工智能技术正处于快速发展的技术成长期后期,技术创新十分活跃,未来将涌入更多的企业和科研机构,竞争也将越来越激烈。而美国人工智能技术萌芽于1990年,于2005年步入技术成长期,2020年开始走向成熟,并预计于2034年进入技术衰退期,目前正处于开展商业应用的技术成熟期,创新动力将持续增强。(拟合优度是指回归直线对观测值的拟合程度。度量拟合优度的统计量是可决系数(亦称确定系数)R²。R²最大值为1,越接近1,说明回归直线对观测值的拟合程度越好,表三可见各国人工智能技术创新S演化曲线拟合优度R²均在0.9以上,拟合效果较为理想。——数字经济先锋号注)
表3中美等国人工智能技术创新发展阶段判定
日本、英国、法国与德国作为较早启动人工智能新技术研究开发与科研成果推广应用的主要发达国家,同样具有较大的先发优势,其技术创新发展水平早期均位列世界前沿且技术发展历程与演化轨迹比较相似,均在1990年左右进入技术创新萌芽期,后经技术不断地积累、发展与突破,分别于2005年与2019年左右步入技术创新成长期与成熟期,目前技术已经成熟。
图1中美等国人工智能技术创新周期S曲线
得益于雄厚的科技与经济实力,美国人工智能技术创新累计综合发展指数遥遥领先于其他各国,日英法德4国作为人工智能新技术创新发展早期的追随者与前期领导者,在人工智能技术领域,同样具有较高的发展水平与先发优势,鉴于人工智能技术创新是一个显著的动态累计过程,且发展周期较长,美日等世界主要发达国家并未因前期先发优势而形成技术发展垄断局面,因而为后发国家的技术追赶提供了巨大的机会窗口。
由图1技术创新演变曲线可预测出,在技术经验渐进性积累与自主创新能力不断提升的条件下,我国正逐步缩小与美国在人工智能新技术创新赛道上的发展差距,预计将在人工智能新技术创新发展的成熟期实现技术的追赶与超越。
目前,中国人工智能技术创新累计综合发展指数已超越英法德日4国,但与技术创新水平处于全球领先地位的美国相比仍有较大发展差距。本文从人工智能新技术创新累计综合发展指数增长率探索未来中国是否能反超美国并掌握创新发展的主导权,图2是各国人工智能技术创新累计综合发展指数增长率变化结果。
图2拟合中美等国人工智能技术创新累计综合发展指数增长率
由图2可知,1985-2003年,美国、英国、法国、德国与日本人工智能技术创新累计综合发展指数增长速率基本处于快速上升状态,尤其是美国。而我国的人工智能技术创新起步晚于美国,在基础研究原创性成果的不足或某些前沿领域的投入缺失的情况下错失了先发优势。但在国家大力扶持与自主创新能力不断提升的情况下,我国人工智能技术发展呈现出了非常强劲的增长态势。
因此,可以预见,在当前快速增长态势下,再加上后天技术的积累以及先发的数据优势,我国必将在人工智能新技术这一赛道上领跑全球。
影响因素动态分析
我国人工智能新技术创新发展速度较快,但关键核心技术水平与美国相比仍有差距。技术创新是一个多阶段过程,不同发展阶段因所需资源、条件不同而影响因素权重不同。本节创新性地引入技术创新不同阶段变量,动态分析不同阶段下人工智能技术创新的多指标测度体系中维度权重变化。进一步深入剖析我国人工智能新技术创新发展的影响因素。
由表四可以看出,中美两国在人工智能技术的发展阶段、技术创新和技术进步等方面存在差异。美国在人工智能新技术基础研究投入、技术创新布局、技术产业链上游的占据等方面具有较为显著的优势,而我国在科技布局、产业规模和融资份额等方面具有一定优势。但是,我国与美国相比,技术进步较为缓慢,尤其是在芯片领域存在较大差距,这将对我国的人工智能产业化形成不利影响。
因此,我们应该着眼于加强人工智能领域的基础研究,不断提升自主创新能力,积极推动技术创新和进步,在技术产业链上游抢占制高点,实现由技术跟随到技术引领的转变。同时,也需要加强与市场的有效结合,促进技术产业化的发展,让科技创新更好地服务于经济社会的发展,实现以科技创新驱动高质量发展的目标。
表4人工智能技术不同发展阶段影响因素权重分布
通过与美国的比较不难看出,我国人工智能新技术创新在基础研究、技术创新与技术进步维度,仍有相当发展空间,由于缺乏占据世界产业制高点的核心技术,存在若干被他国“卡脖子”的领域。
图3中美等国人工智能技术创新逐年发展指数
虽然我国人工智能新技术研发起步较晚,基础研究薄弱,技术创新累计综合发展指数与美国存在较大差距,但由技术创新逐年综合发展指数(图3)可知,我国人工智能新技术创新发展指数自2003年开始逐年上升,正不断缩小与美国人工智能技术创新累计综合发展指数的差距。作为后起之秀,在经历长期以技术跟随为主的技术潜伏期与萌芽期,以及二次创新为主的技术成长期后,依靠后发优势,我国于2017年反超自2003年以来技术创新逐年发展指数呈逐步下降态势的美国,跃居全球首位。
结论及建议
本文基于人工智能技术创新科研大数据,提出了人工智能技术创新水平多指标测度体系与技术创新综合发展指数计算模型,并通过绘制技术创新生命周期S演化曲线,对我国与世界主要发达国家在人工智能技术创新方面的发展阶段进行了评估与预测,深度剖析了我国与美国等国之间在技术创新、科技布局、产业规模、技术进步等方面的差距。
基于这些结论,本文提出了几点建议。首先,要强化基础研究,加大对基础研究长期稳定的支持力度,同时引导企业增加基础研究投入,提高我国基础研究水平和源头创新能力。
其次,要推动应用研究与基础研究的融合贯通,坚持问题导向、目标导向,设立重大科技计划项目,支持设立联合攻关团队(校企联合或校校联合等),或以企业为主导并协调高校和有关科研院所的资源,对有关人工智能的应用技术进行研究开发(委托研究、联合研究等形式)。
此外,还建议要产业化市场化发展,中国目前以高校为主、各自为战的人工智能研发体系不利于中国人工智能产业对前沿技术的把握和整体技术创新水平的进一步提升,也不利于技术的快速转化应用。建议培育一批技术先进、世界领先的企业,并带动产业上下游协同发展,形成持续创新能力、技术全球领先的产业集群。
最后,要完善技术创新机制,应鼓励企业培育和引进掌握关键核心技术的科技领军人才和团队,为产业发展提供智力支持;建立综合的关键核心技术突破与创新机制,将短期与中长期科技积累相结合,建立国家基础研究、产业科技等方面的公私结合的综合创新体系,将产业发展创新需求、国家战略创新需求、科研好奇创新需求等三大方面的创新动力综合起来,并重结合,实现“远水”和“近渴”的融合。
综上所述,通过实施这些建议,我国在人工智能技术创新方面可以进一步提升自身的科技水平和创新能力,缩小与美国等发达国家的差距,加速我国在人工智能领域的发展进程。
原文来源:王山,陈昌兵.中美人工智能技术创新的动态比较——基于人工智能技术创新大数据的多S曲线模型分析[J/OL].北京工业大学学报(社会科学版)。(因篇幅原因,本文有部分删减)
关于我们
「数字经济先锋号」是成都数联产服科技有限公司旗下数字经济研究交流平台。围绕数字产业、数字基建、数字治理、数字生态等数字应用领域,揭示与记录数字经济发展点滴与脉络。
数联产服是一家数字经济行业智库、产业大数据服务商,具备全流程大数据治理-分析-决策支撑服务能力,面向各级政府和产业运营机构提供基于大数据的产业经济发展解决方案和综合服务。
人工智能的三次沉浮,和可能的寒冬
[[437677]]
如果将眼光放长远一点,历史上已经经历了三次发展浪潮,也经历了两次低谷。换言之,人工智能的泡沫已经破灭两次了。让我们先来回顾一下人工智能这三起两落的历史,从历史中来找寻现在的意义,推导出我们可能面临的未来。
第一次浪潮和第一次低谷:
达特茅斯会议推动了全球第一次人工智能浪潮的出现,这次浪潮从1956年一直持续到1974年。当时乐观的气氛弥漫着整个学界,在算法方面出现了很多世界级的发明,其中包括一种叫做增强学习的雏形(即贝尔曼公式),增强学习就是谷歌AlphaGo算法核心思想内容。
70年代初,AI遭遇了瓶颈。人们发现逻辑证明器、感知器、增强学习等等只能做很简单、非常专门且很窄的任务,稍微超出范围就无法应对。当时的计算机有限的内存和处理速度不足以解决任何实际的AI问题。研究者们很快发现,要求程序对这个世界具有儿童水平的认识这个要求都太高了——1970年没人能够做出人工智能需要的巨大数据库,也没人知道一个程序怎样才能学到如此丰富的信息。另一方面,有很多计算复杂度以指数程度增加,这成为了不可能完成的计算任务。
第二次浪潮和第二次低谷:在80年代,一类名为“专家系统”的AI程序开始为全世界的公司所采纳,而“知识处理”成为了主流AI研究的焦点。专家系统的能力来自于它们存储的专业知识,知识库系统和知识工程成为了80年代AI研究的主要方向。但是专家系统的实用性仅仅局限于某些特定情景,不久后人们对专家系统的狂热追捧转向巨大的失望。另一方面,1987年到1993年现代PC的出现,其费用远远低于专家系统所使用的Symbolics和Lisp等机器。相比于现代PC,专家系统被认为古老陈旧而非常难以维护。于是,政府经费开始下降,寒冬又一次来临。
第三次浪潮:1993年后,出现了新的数学工具、新的理论和摩尔定律。人工智能也在确定自己的方向,其中一个选择就是要做实用性、功能性的人工智能,这导致了一个新的人工智能路径。深度学习为核心的机器学习算法获得发展,积累的数据量极大丰富,新型芯片和云计算的发展使得可用的计算能力获得飞跃式发展,现代AI的曙光又再次出现了。一个标志性事件发生在2016年3月,谷歌DeepMind研发的AlphaGo在围棋人机大战中击败韩国职业九段棋手李世乭。随后,大众开始熟知人工智能,各个领域的热情都被调动起来了。
深度学习的发展,让人工智能进入新的发展高潮。技术尤其是算法层面的局限,决定了这次人工智能浪潮的“天花板”。深度学习算法带来的“技术红利”,将支撑我们再发展5~10年时间,随后就会遇到瓶颈。在人工智能领域,技术的进步不是线性的,而是线性积累和间断式突破交替进行的。我们必须要达到一个“技术奇点”,才能实现根本上的突破,达到通用人工智能甚至是超级人工智能的水平。大概率的可能性,未来几年人们对人工智能怀有巨大的热情和非理性的期待,但同时会渐渐发觉推进起来越来越费劲,仿佛有个无形的“天花板”挡在那里,迟迟不能获得突破,人们的耐心被渐渐耗尽,人工智能的下一个冬天也就来临了。
就一般产业而言,线性发展的成分更重一些,即使产业不能再往前推进了,依然能够保持比较高的产业成熟度。人工智能产业则不同,如果以百分制来衡量一个产业的发展程度,人工智能不是从1慢慢发展到100,而是要么是90分以上,要么是10以下。试想一下,你有一个智能助手,如果他的智力水平一直在10岁以下,你能接受么?那样的智能助手更多的是个玩具,不能委以重任,毕竟谁也不会将重要的事情交给一个小孩子来做。再比如翻译领域,一旦智能系统能够达到人类水平的翻译能力,那将是一次彻底的颠覆,人类翻译员将彻底消失;但是,在没达到那种水平之前,翻译系统基本就是个摆设,你不能通过那套系统来与外国人顺畅的交流,也不能将看到的整段材料马上转换成另一种语言。
人工智能的泡沫,更多的是产业化和商业应用层面的。很多做人工智能应用的企业,如果发现将方案落地的期待落空,那他整个商业价值存在的根基就不存在了,整个产业将会消失,大量企业也会倒闭。
如果真的要面对那样一个未来,我们应该怎么应对呢?我提出几点参考建议:
第一,适度降低对人工智能的技术期待,理性设定商业模式。企业要仔细评估技术的发展潜力,不要抱有不切实际的幻想。寻找并设计一些智能水平不是太高就能具有商业价值的应用模式,并基于此来构建竞争壁垒。比如在自动驾驶领域,我们要做好L4在10年内无法实现的心理准备,寻找一些L3级别就能具有商业价值的应用领域。
第二,现在就开始准备“过冬的粮草”。泡沫破灭之后,融资会变得越来越难,依据公司本身的造血能力维持基本没戏。所以,现在尽可能的多融资吧,并且在未来几年省着点花,争取能挨过寒冬。
第三,实行曲线救国策略,发展一些“伪智能”业务,拓展业务领域。如果哪天发现“纯人工智能”这条路走不通,可以考虑发展一些周边产业,只要能带来现金流就行。虽然挂羊头卖狗肉有点缺德,但能保存“革命的火种”,也算一件好事。