博舍

新一代人工智能:从“感知智能”向“认知智能”转化 一般认为人工智能是使计算机具有感知和行为的能力

新一代人工智能:从“感知智能”向“认知智能”转化

光明日报记者刘茜陈建强

新一代人工智能正在逐步从感知智能向认知智能转化——这是全国政协副主席、中国科协主席万钢在第五届世界智能大会上作出的判断。

“感知智能是机器具备了视觉、听觉、触觉等感知能力,将多元数据结构化,并用人类熟悉的方式去沟通和互动。”万钢认为,“认知智能则是从类脑的研究和认知科学中汲取灵感,结合跨领域的知识图谱、因果推理、持续学习等,赋予机器类似人类的思维逻辑和认识能力,特别是理解、归纳和应用知识的能力。”他以新能源智能汽车为例,阐释了“感知智能”向“认知智能”转化的现实图景:新一代智能汽车除了应用系统感知的智能,实现对周边环境的感知和处理外,还必须通过车网协同、车路协同,甚至综合处理超感知的因素,比如地理、交通、路口、信号、气象等实时信息,从而实现更加安全、便捷、高效的智能服务。

“感知智能向认知智能的快速迭代,就更需要跨界协同,进一步提升智能装备的质量和效益。其中最为重要的一环,就是要更加重视类脑科学研究,用创新的理论来指导人工智能的发展。”万钢表示。

事实上,“感知智能”向“认知智能”转化,是新一代人工智能的发展趋势。在众多的研究者和产业化队伍中,不乏捷足先登者。

在天津医院康复科的治疗室里,63岁的脑出血患者徐宝钏正在借助天津大学神经工程团队研发的康复机器人系统,依靠运动想象进行手腕功能康复训练。帮助他的康复机器人叫“神工”,核心技术就是脑机接口,这项技术便是人工认知智能的典型。

“神工”的“爸爸”是个70后的山东人,有着令人印象深刻的名字——明东。1994年,明东考入天津大学精仪学院生物医学工程专业学习。“我们专业本科学制5年,医工兼修。在读博期间,看到许多截瘫患者后期康复治疗非常困难,当时我就想,如果通过机器采集和读取脑电信号,然后解码输出控制信号,让身体执行,是不是可以为截瘫患者建立新的人工运动神经通路,重新获得运动能力。”

明东介绍:“大脑不但有极为复杂的神经网络结构,还有千变万化的动态信息。每说一段话,大脑里可能有上亿个涉及的神经细胞在发放电信号。”头皮脑电波的信号非常微弱,只有百万甚至千万分之一伏,科研工作者要通过传感装置监测不同活动脑电波的变化,再通过这些信息研判出人在做什么样的思考或者有什么意图。捕捉、破译头皮脑电信号类似于在非常嘈杂的购物中心远远地听见、听懂一个人自言自语的呢喃。听到脑语、解读脑语、输出脑语,涉及传感、材料、算法、介质……听上去都不轻松,研究过程的艰难可想而知。

2014年,首台适用于全肢体中风康复的人工神经机器人系统——“神工一号”研制成功。融合了运动想象脑机接口技术和物理训练康复疗法,该系统在中风患者体外,仿生构筑了一条人工神经通路,经过模拟解码患者的运动康复意念信息,进而驱动多级神经肌肉电刺激技术,产生对应动作。随后“神工二号”“神工三号”相继研发成功。目前,“神工”已通过国家食品药品监督管理总局(CFDA)检测,在天津、山东多地三甲医院进行临床试验,受益患者数千例。

明东介绍,脑机接口技术有三个发展阶段:脑机接口、脑机交互和脑机融合。目前正由第一阶段向第二阶段发展过渡,未来脑机接口技术,将从目前脑机单向接口,进化为脑机双向“交互”,最终有望实现脑机完全智能“融合”。

智能网联汽车,也是适应新一代人工智能的演进趋势,正在勃兴的产业集群。换言之,“感知智能”向“认知智能”转化,更醒目地在交通领域显现出来。但是,如何通过产业协同、系统集成,构建精密、庞大、统一的智能网络,使得每一辆人工智能汽车都能获得具备“认知智能”的系统支撑,却是当前亟须攻克的难题。在第5届世界智能大会智能交通峰会上,众多专家一致认为:“作为未来产业发展的战略制高点,我国智能网联汽车产业发展已取得显著成效,目前的重点是从关键技术创新、基础设施建设、标准法规完善、商业模式探索等方面协同发力,加快形成产业竞争优势。”

“提高智能网联汽车的测试效率,降低测试成本,保障测试的有效性,是当前智能网联汽车迫切需要解决的一大难题。”带领团队做了近30年传统车辆测试的长安大学副校长赵祥模说,我国目前在智能网联汽车测试方面存在5个问题:缺少科学系统多维度智能网联汽车测试评价理论体系,测试场景数据库还不够完善、场景数据结构与自动重构技术亟待突破,柔性测试工具链和自适应加速测试技术不完善,封闭测试场景构建方法和场地测试技术以及核心测试装备有待突破,没有完善的系统级或者整车级测试评价标准体系。据了解,长安大学已开展有关工作,具体包括在国内建设了首个智能网联高速公路测试基地,建设全国高校唯一车联网与智能汽车测试场,开展智能网联汽车测试场景构建方法研究和部署工作,研发一些测试工具和测试移动平台,开放国内外首套智能驾驶室内测试平台,开展网联环境下群体控制测试,开展广泛深入的国际合作等。

下一代人工智能长什么样可感知和理解行为、解释决策

下一代人工智能是什么样的?

5月21日,英国初创公司CogninoAI联合创始人兼首席执行官普里蒂·帕迪(PritiPadhy)在第五届世界智能大会科技向善与人工智能教育论坛上通过视频表示,在下一波人工智能浪潮中,AI必须具有感知和理解行为的能力,利用人类理解语言的能力,将语言转化为知识,将数据转化成智能,并做出决策。人工智能还要具备可解释性,通过模型可以解释为什么人工智能会做出这种决策,就像人类可以解释为什么会做出某种决定,可以解释为什么会认为图上的动物是狗而不是狐狸。

CogninoAI总部位于英国伦敦,在美国、巴西和印度设有办事处,专注于自学习可解释的人工智能方面,目标是用“可解释的AI”赋能决策。

帕迪说,大约10年前,也就是2010年出现了神经网络,它在面部识别和图像识别方面非常准确。过去十多年我们在人工智能方面已经取得了巨大进步,“上一波人工智能的浪潮不仅强大,而且带来了真正的变革。”

但人工智能仍然面临很多挑战。帕迪给出一张孩子拿着牙刷的图片。“为什么我很快能意识到这是一个拿着牙刷的孩子,因为作为人类,我们关注周围的环境,仔细观察我们可以看到周围有牙刷和水槽,所以这个孩子很可能拿的是牙刷。”

而如果是人工智能来识别,由于目前AI主要基于大型统计模型,AI会认为图上是一个孩子,“可能会认为是一个拿着棒棒糖的孩子,也可能会认为是一个拿着牙刷的孩子,或者可能是一个拿着勺子的孩子。”总之AI肯定会认为这是一个孩子,但无法根据周围的信息判断他拿的是什么,因此不能绝对准确地对图片上的内容进行预测。

“也就是说,当涉及到个别情况时,AI有时是不可靠的。”帕迪说,他最近测试了一款有趣的食品识别应用程序,然而程序却告诉他食物拼盘图片有99%的可能性是章鱼。

“这就是目前面临的挑战。之所以判断为章鱼,是因为缺少上下文的情境信息。”帕迪说,AI不具备清晰的理解能力,不能像人类一样处理信息并将其置于情境中。“我们使用的情境是基于我们的短期记忆和长期记忆,以及我们当前学到的和过去学到的知识。”

相对于十多年前出现的AI浪潮,帕迪认为,在下一次浪潮中,AI必须具有感知和理解行为的能力,利用人类理解语言的能力,将语言转化为知识,将数据转化成智能,并做出决策。“我认为这才是真正的人工智能,它可以根据上下文的情境理解并采取行动。”

另一方面,人工智能还要具备可解释性,“我们需要考虑什么是有效的,什么是可追溯的,什么是可审核的。”对于可解释的AI,帕迪说,也就是通过模型可以解释为什么人工智能会做出这种决策,“每当涉及到AI时,我们都能解释模型工作的原理。”

“我们关注人工智能如何观察、学习、推理、抽象、解释,并且可以交互学习,还有短期记忆和长期记忆,就像人类那样。这样就可以通过大量真实世界的数据进行推理,并且可以做出一个可以真正解释的决定。”

帕迪说,团队正在研究下一代人工智能。他们并不通过训练数十亿的狗的图片来预测图片上是一只狗,不在大型复杂数据集的基础上学习,而是通过示范人类学习的过程让模型学习。“我们的想法是基于一组训练数据和一些基本组成元素,学习的过程是基于基本元素的。”

“所以我们需要创建一个可以被训练的AI模型,这些基本元素的组合决定了狗是由什么组成的。狗由头、尾巴、四条腿和身体组成,还有两只耳朵。这些是我们需要让模型学习的各种基本元素。”

团队还让场景信息发生变化,在这一过程中逐步告诉模型这是一只狗,“几乎90%的学习是通过自我学习的,因为模型理解了狗的基本组成元素。所以即使场景改变了,模型仍然可以知道这是一只狗。”

但这并没有就此结束,帕迪说,他们还必须弄清楚为什么模型会做出这样的判断,为什么模型会认为这是一只狗而不是一只狐狸,能否通过改变模型的某些特征要素来影响模型的决策。“必须将这种真实性、可审核性和解释性作为我们所构建的AI结构的基础。”

也就是说,通过引入这些基础元素和上下文的情境信息,让模型能够像人类一样学习,并随着情境的改变而不断做出调整。模型也需要具有解释的能力,就像人类可以解释为什么他们会做出某种决定,可以解释为什么他们会认为这是一张狗的照片。

版权声明:本文内容由互联网用户自发贡献,该文观点仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌抄袭侵权/违法违规的内容,一经查实,本站将立刻删除。

上一篇

下一篇