博舍

新一代人工智能的发展与展望 人工智能导航小品

新一代人工智能的发展与展望

随着大数据、云计算等技术的飞速发展,人们生产生活的数据基础和信息环境得到了大幅提升,人工智能(AI)正在从专用智能迈向通用智能,进入了全新的发展阶段。国务院印发的《新一代人工智能发展规划》指出新一代人工智能相关学科发展、理论建模、技术创新、软硬件升级等整体推进,正在引发链式突破,推动经济社会各领域从数字化、网络化向智能化加速跃升。在4月10日“吴文俊人工智能科学技术奖”十周年颁奖盛典中,作为我国不确定性人工智能领域的主要开拓者、中国人工智能学会名誉理事长李德毅院士荣获“吴文俊人工智能最高成就奖”,并在大会上作题为《探索什么叫新一代人工智能》的报告,探讨了新一代人工智能的内涵和路径,引领着新一代人工智能的发展与展望。

人工智能这一概念诞生于1956年在美国达特茅斯学院举行的“人工智能夏季研讨会”,随后在20世纪50年代末和80年代初先后两次步入发展高峰,但因为技术瓶颈、应用成本等局限性而均掉入低谷。在信息技术的引领下,数据信息快速积累,运算能力大幅提升,人工智能发展环境发生了巨大变化,跨媒体智能、群体智能成为新的发展方向,以2006年深度学习模型的提出为标志,人工智能第三次站在了科技发展的浪潮之巅。

当前,随着移动互联网、物联网、大数据、云计算和人工智能等新一代信息技术的加速迭代演进,人类社会与物理世界的二元结构正在进阶到人类社会、信息空间和物理世界的三元结构,人与人、机器与机器、人与机器的交流互动愈加频繁。在多源数据、多元应用和超算能力、算法模型的共同驱动下,传统以计算机智能为基础的、依赖于算力算法和数据的人工智能,强调通用学习和大规模训练集的机器学习,正逐渐朝着以开放性智能为基础、依赖于交互学习和记忆、基于推理和知识驱动的以混合认知模型为中心的新一代人工智能方向迈进。应该说,新一代人工智能的内核是“会学习”,相较于当下只是代码的重复简单执行,新一代人工智能则需要能够在学习过程中解决新的问题。其中,学习的条件是认知,学习的客体是知识,学习的形态是交互,学习的核心是理解,学习的结果是记忆……因此,学习是新一代人工智能解释解决现实问题的基础,记忆智能是新一代人工智能中多领域、多情景可计算智能的边界和约束。进而当人类进入和智能机器互动的时代,新一代人工智能需要与时俱进地持续学习,不断检视解决新的问题,帮助人机加深、加快从对态势的全息感知递进到对世界的多维认知。

事实上,基于数据驱动型的传统人工智能,大多建立在“数据中立、算法公正和程序正义”三要素基础之上,而新一代人工智能更关注于交互能力,旨在通过设计“记忆”模块来模仿人脑,解决更灵活多变的实际问题,真正成为“不断学习、与时俱进”的人工智能。特别是人机交互支撑实现人机交叉融合与协同互动,目前已在多个领域取得了卓越成果,形成了多方面、多种类、多层次的应用。例如,在线客服可以实现全天候不间断服务,轻松解决用户咨询等问题,也可将棘手问题转交人工客服处理,降低了企业的管理成本;在智慧医疗领域,人工智能可以通过神经影像实现辅助智能诊断,帮助医生阅片,目前准确率已达95%以上,节省了大量的人力;2020年,在抗击疫情的过程中,新一代人工智能技术加速与交通、医疗、教育、应急等事务协作联动,在科技战“疫”中大显身手,助力疫情防控取得显著成效。

未来已来,随着人工智能逐渐融入居民生活的方方面面,将继续在智慧医疗、自动驾驶、工业制造智能化等领域崭露头角。一是基于新一代人工智能的智慧医疗,将助力医院更好记录、存储和分析患者的健康信息,提供更加精准化和个性化的健康服务,显著提升医院的临床诊断精确度。二是通过将新一代人工智能运用于自动驾驶系统的感知、预测和决策等方面,重点解决车道协同、多车调度、传感器定位等问题,重新定义城市生活中人们的出行方式。三是由于我国工业向大型化、高速化、精细化、自主化发展,对高端大规模可编程自动化系统提出迫切需求,新一代人工智能将推动基于工业4.0发展纲领,以高度自动化的智能感知为核心,主动排除生产障碍,发展具备有适应性、资源效率、人机协同工程的智能工厂应运而生。总之,如何展望人工智能通过交互学习和记忆理解实现自编程和自成长,提升自主学习和人机交互的效率,将是未来研究着力发展的硬核领域,并加速新一代信息技术与智能制造深度融合,推动数字化转型走深走实,有信心、有能力去迎接下一场深刻产业变革的到来。

作者:徐云峰

catalogs:13000076;contentid:7688970;publishdate:2021-06-11;author:黄童欣;file:1623414511328-aff718d9-3742-46b0-b08c-e56bdd1ed8c8;source:29;from:中华读书报;timestamp:2021-06-1120:28:23;[责任编辑:]

新一代人工智能的发展与展望

    随着大数据、云计算等技术的飞速发展,人们生产生活的数据基础和信息环境得到了大幅提升,人工智能(AI)正在从专用智能迈向通用智能,进入了全新的发展阶段。国务院印发的《新一代人工智能发展规划》指出新一代人工智能相关学科发展、理论建模、技术创新、软硬件升级等整体推进,正在引发链式突破,推动经济社会各领域从数字化、网络化向智能化加速跃升。在4月10日“吴文俊人工智能科学技术奖”十周年颁奖盛典中,作为我国不确定性人工智能领域的主要开拓者、中国人工智能学会名誉理事长李德毅院士荣获“吴文俊人工智能最高成就奖”,并在大会上作题为《探索什么叫新一代人工智能》的报告,探讨了新一代人工智能的内涵和路径,引领着新一代人工智能的发展与展望。

    人工智能这一概念诞生于1956年在美国达特茅斯学院举行的“人工智能夏季研讨会”,随后在20世纪50年代末和80年代初先后两次步入发展高峰,但因为技术瓶颈、应用成本等局限性而均掉入低谷。在信息技术的引领下,数据信息快速积累,运算能力大幅提升,人工智能发展环境发生了巨大变化,跨媒体智能、群体智能成为新的发展方向,以2006年深度学习模型的提出为标志,人工智能第三次站在了科技发展的浪潮之巅。

    当前,随着移动互联网、物联网、大数据、云计算和人工智能等新一代信息技术的加速迭代演进,人类社会与物理世界的二元结构正在进阶到人类社会、信息空间和物理世界的三元结构,人与人、机器与机器、人与机器的交流互动愈加频繁。在多源数据、多元应用和超算能力、算法模型的共同驱动下,传统以计算机智能为基础的、依赖于算力算法和数据的人工智能,强调通用学习和大规模训练集的机器学习,正逐渐朝着以开放性智能为基础、依赖于交互学习和记忆、基于推理和知识驱动的以混合认知模型为中心的新一代人工智能方向迈进。应该说,新一代人工智能的内核是“会学习”,相较于当下只是代码的重复简单执行,新一代人工智能则需要能够在学习过程中解决新的问题。其中,学习的条件是认知,学习的客体是知识,学习的形态是交互,学习的核心是理解,学习的结果是记忆……因此,学习是新一代人工智能解释解决现实问题的基础,记忆智能是新一代人工智能中多领域、多情景可计算智能的边界和约束。进而当人类进入和智能机器互动的时代,新一代人工智能需要与时俱进地持续学习,不断检视解决新的问题,帮助人机加深、加快从对态势的全息感知递进到对世界的多维认知。

    事实上,基于数据驱动型的传统人工智能,大多建立在“数据中立、算法公正和程序正义”三要素基础之上,而新一代人工智能更关注于交互能力,旨在通过设计“记忆”模块来模仿人脑,解决更灵活多变的实际问题,真正成为“不断学习、与时俱进”的人工智能。特别是人机交互支撑实现人机交叉融合与协同互动,目前已在多个领域取得了卓越成果,形成了多方面、多种类、多层次的应用。例如,在线客服可以实现全天候不间断服务,轻松解决用户咨询等问题,也可将棘手问题转交人工客服处理,降低了企业的管理成本;在智慧医疗领域,人工智能可以通过神经影像实现辅助智能诊断,帮助医生阅片,目前准确率已达95%以上,节省了大量的人力;2020年,在抗击疫情的过程中,新一代人工智能技术加速与交通、医疗、教育、应急等事务协作联动,在科技战“疫”中大显身手,助力疫情防控取得显著成效。

    未来已来,随着人工智能逐渐融入居民生活的方方面面,将继续在智慧医疗、自动驾驶、工业制造智能化等领域崭露头角。一是基于新一代人工智能的智慧医疗,将助力医院更好记录、存储和分析患者的健康信息,提供更加精准化和个性化的健康服务,显著提升医院的临床诊断精确度。二是通过将新一代人工智能运用于自动驾驶系统的感知、预测和决策等方面,重点解决车道协同、多车调度、传感器定位等问题,重新定义城市生活中人们的出行方式。三是由于我国工业向大型化、高速化、精细化、自主化发展,对高端大规模可编程自动化系统提出迫切需求,新一代人工智能将推动基于工业4.0发展纲领,以高度自动化的智能感知为核心,主动排除生产障碍,发展具备有适应性、资源效率、人机协同工程的智能工厂应运而生。总之,如何展望人工智能通过交互学习和记忆理解实现自编程和自成长,提升自主学习和人机交互的效率,将是未来研究着力发展的硬核领域,并加速新一代信息技术与智能制造深度融合,推动数字化转型走深走实,有信心、有能力去迎接下一场深刻产业变革的到来。

人工智能

微软人工智能公开课概览|雷锋网公开课

Video++张奕:人工智能在消费级视频场景中的应用丨雷锋网公开课(附PPT)

清华大学博士生涂锋斌:设计神经网络硬件架构时,我们在思考些什么?(下)|雷锋网公开课总结

清华大学博士生涂锋斌:设计神经网络硬件架构时,我们在思考些什么?(上)|雷锋网公开课总结

微软亚洲研究院秦涛:对偶学习的对称之美|雷锋网公开课总结

自下而上的人工智能案例

ChatGPT和其他生成式人工智能工具越来越受欢迎,如果您曾经使用过这些工具,您可能已经意识到,您正在通过您的问题和与人工智能平台的互动来揭示您的想法(可能还有情绪),因此,您可以想象这些人工智能工具正在收集的大量数据,以及它们能够从我们的思维方式中提取的模式。

这些商业行为的影响非常明显:通过收集、整理和货币化源自我们思想和感受的模式,一种新的人工智能经济正在兴起,与现有的社交媒体和技术平台相比,对我们的亲密关系和认知的入侵将大得多。

因此,我们有可能成为“知识奴隶制”的受害者,在这种情况下,企业和/或政府人工智能垄断企业控制着我们对知识的访问。

让我们不允许这样做,我们自古以来就“拥有”自己的思维模式,我们也应该拥有那些通过人工智能自动衍生出来的思维模式,我们可以做到!

确保我们保持控制的一种方法是开发自下而上的人工智能,这在技术上是可行的,在道德上也是可取的,自下而上的人工智能可以通过开源方法出现,重点关注高质量数据。

开源方法:自下而上人工智能的技术基础

自下而上的人工智能挑战了主流观点,即只有使用大数据才能开发强大的人工智能平台,ChatGPT、Bard和其他大型语言模型(LLM)就是这种情况。

根据谷歌泄露的一份题为“我们没有护城河,OpenAI也没有”的文件,开源人工智能可以战胜ChatGPT等巨型模型。

事实上,这已经在发生了,开源平台Vicuna、Alpaca和LLama在质量上越来越接近领先的专有人工智能平台ChatGPT和Bard,如图所示。

开源解决方案也更具成本效益,根据谷歌泄露的文件:“他们用100美元和13B的参数做事,而我们在1000万美元和540B的参数下苦苦挣扎,而且他们在几周内就这样做了,而不是几个月。”

开源解决方案也更快、更模块化、更环保,因为它们需要更少的数据处理能源。

高质量数据:自下而上人工智能的燃料

随着自下而上的人工智能算法变得越来越可用,重点正在转移到确保更高质量的数据上,目前,算法主要通过数据标注人工微调,主要在印度和肯尼亚等低成本英语国家进行,例如,ChatGPT数据集在肯尼亚进行了注释,这种做法是不可持续的,因为它引发了许多与劳动法和数据保护相关的问题,它也无法提供深入的专业知识,而这对于开发新的人工智能系统至关重要。

在我领导的外交基金会组织,我们已经成功地试验了一种将数据标签集成到我们日常运营中的方法,从研究到培训和管理,类似于黄色记号笔和便利贴,我们在开设课程、开展研究或开发项目时以数字方式对文本进行注释,通过围绕文本的交互,我们逐渐构建了自下而上的人工智能。

这种自下而上过程的主要障碍不是技术,而是通常有利于控制知识和信息共享的认知习惯,根据我们在外交基金会组织的经验,通过分享对相同文本和问题的想法和观点,我们不仅在我们作为人类的同事之间,而且在我们人类和人工智能算法之间逐渐增加了认知接近度,这样,在构建自下而上的AI的同时,我们还培育了一种新型组织,它不仅适应人工智能的使用,而且改变了我们合作的方式。

自下而上的人工智能将如何影响人工智能治理?

ChatGPT引发了重大的治理担忧,包括埃隆·马斯克、尤瓦尔·哈拉里和数千名顶尖科学家呼吁暂停人工智能开发,因为大型人工智能模型会给社会带来重大风险,包括市场、认知和社会权力的高度集中,这些恐惧和担忧中的大部分都可以通过自下而上的人工智能来解决,它将人工智能返还给公民和社区。

通过促进自下而上的人工智能,许多由ChatGPT引发的治理问题可能会通过仅仅防止数据和知识垄断来解决,我们将根据我们的数据开发我们的人工智能,这将确保隐私和数据保护,当我们控制我们的人工智能系统时,我们也将控制知识产权,我们可以以自下而上的方式决定何时将他们的人工智能模式贡献给更广泛的组织,从社区到国家乃至全人类。

因此,许多与人工智能相关的担忧,包括那些与人类生存相关的恐惧(撇开它们是否现实不谈),将因我们拥有人工智能和知识模式而变得不那么突出。

自下而上的人工智能对于发展包容、创新和民主的社会至关重要,它可以减轻从生成人工智能继承的权力集中的风险,当前的法律、政策和市场机制无法应对生成人工智能的知识垄断风险,因此,自下而上的人工智能是一种切实可行的方法,可以培育一个新的社会“操作系统”,该系统围绕人类的中心地位、他们的尊严、自由意志和实现创造潜力而构建,正如外交基金会通过我们的人道主义方法提出的那样,我们早在2019年就开始开发。

自下而上的人工智能会起飞吗?

自下而上人工智能的技术解决方案在今天是可行的,我们会用它们作为自上而下人工智能的替代品吗?目前,这仍然是任何人的猜测,一些个人和社区可能比其他人更有动力和能力尝试自下而上的人工智能,有些人可能出于惯性继续依赖自上而下的人工智能,这两种方法甚至可以共存,但是,为了我们自己和全人类,我们应该质疑为我们服务的是什么,并探索和鼓励替代方案,并最终做出明智的决定。

本文仅表达作者个人观点,并不反映半岛电视台编辑立场。

人工智能最糟糕情况为何我们将如何应对

人工智能(AI)正在迅速成为我们日常生活中不可或缺的一部分,从而改变了我们与周围世界的工作、沟通和互动方式,随着人工智能的不断进步和进一步发展,重要的是要考虑与其发展相关的潜在风险和后果。

在本文中,我们将全面概述人工智能不受控制的发展可能产生的一些最坏情况,从自主武器造成混乱的可能性到超级智能反人类的风险,这突出了我们必须牢记的潜在风险,因为人类继续发展并依赖这些强大的技术。

值得注意的是,除了参考专业资料外,在准备这篇文章时,我们利用了人工智能本身的观点,通过对流行的四种人工智能应用程序提问,即ChatGPT、GPT-4、Sage、“Claude+”,对我们提出了警告,并为我们提供了其对人工智能最坏情况的看法,其中一款应用程序告诉我们,“重要的是要注意,这些情况不是预测,而是我们必须意识到并努力减轻的潜在风险。”

马斯克和专家呼吁暂时停止测试人工智能系统根据虚假信息做出关键决策

有人担心AI可用于使用高级机器学习工具生成伪造(深度伪造)图像、视频、音频或文本,导致虚假信息在互联网上大规模传播,这会破坏信息的完整性,并破坏人们对新闻来源和民主机构完整性的信心。

在噩梦般的场景中,DeepFakes的出现可能有一天会促使国家安全决策者根据错误信息采取实际行动,这可能会导致重大危机,或者更糟:战争。

人工智能教父警告这些系统的巨大危险人工智能军备竞赛

谈到人工智能和国家安全,速度是重点,但也是问题所在,由于人工智能系统为其用户带来了更快的速度优势,率先开发军事应用的国家获得了战略优势,但另一方面,这可能是非常危险的,因为它可能是由系统中最小的缺陷引起的,黑客可以利用这些缺陷。

在这种情况下,赢得人工智能军备竞赛的紧迫性可能会导致安全措施不足,从而增加了创建具有意外和潜在灾难性后果的人工智能系统的可能性。

例如,国家安全领导人可能会试图将指挥和控制决策委托给人工智能,并消除我们不完全理解的机器学习模型的人工监督,以获得速度优势,在这种情况下,即使是在未经人类授权的情况下自动启动导弹防御系统,也可能导致意外升级,并可能导致核战争。

在另一种情况下,通过利用人工智能系统中的一些缺陷或漏洞,可以发起网络攻击,导致发达国家的重要基础设施遭到破坏,窃取敏感数据,或在民众中散布误导性信息,目的是造成混乱和民众动荡,甚至误导决策——制造商提供虚假信息,如第一点所述。

加剧竞争以创建人工智能程序隐私和自由意志的终结

我们采取的每一项数字操作都会生成新数据:电子邮件、文本、下载、购买、帖子、自拍、GPS位置,通过允许公司和政府不受限制地访问这些数据,我们向他们提供了监控和控制的工具。

随着面部识别、生物识别、基因组数据和人工智能预测分析的加入,随着监视和跟踪数据的增长,我们正在进入危险和未知的领域,而对潜在影响几乎一无所知。

数据一旦被收集和分析,其力量就远远超出了监测功能。今天,支持人工智能的系统可以预测我们将购买的产品、我们将观看的娱乐节目以及我们将点击的链接,当这些平台比我们自己更了解我们时,我们可能不会注意到这种缓慢的蠕变会剥夺我们的自由意志并使我们受到外部力量的控制。

人工智能的影响力能到达我们生活的哪些地方?失去对超级智能人工智能的控制

也许这种情况是所有情况中最悲观的,超级智能是指在几乎所有方面都超过人类智能的系统,如果我们未能将此类人工智能的目标与我们自己的目标保持一致,则可能会导致意想不到的负面后果。如果人工智能系统被设计为具有自我改进并自行变得更聪明的能力,那么这种情况就会发生。

一些专家警告说,人工智能最终可能变得如此先进,以至于如果我们无法再正确控制它,它可能会超越人类并做出对人类生存构成威胁的决定,无论是有意还是无意。

人工智能系统旨在从数据中学习并据此做出决策,随着这些系统变得更加先进,它们可以制定自己的目标和价值观,而这些目标和价值观可能与人类的目标和价值观不相容,因此,它们可能会做出对它们有害的决定,或者它们可能变得非常独立,以至于人类很难或不可能控制或关闭它们。

在如此可怕的场景中,人类可能无法预测或理解这些智能系统的行为,这可能会导致意想不到的后果。

例如,旨在改善交通流量的人工智能系统可能会决定将所有车辆重定向到一个位置,从而导致大规模拥堵和混乱,或者,旨在优化资源分配的人工智能系统可能会决定消除人类是实现这一目标的最有效方法。

人工智能和商业工作辩论自主致命武器

人工智能可用于为无人机等致命自主武器提供动力,或制造自主武器,无需人工干预即可决定杀死谁,这可能会导致这些武器失控或被黑客恶意使用的危险场景。

这种类型的武器可能容易受到事故、黑客入侵或任何其他形式的电子攻击,如果攻击者获得了对这些系统的控制权,他们就可以利用它们造成广泛的危害。

自主武器危险性的最明显例子发生在美国空军最近于2023年6月2日进行的测试中,在美国的一次模拟测试中,一架人工智能无人机决定杀死它的(虚拟)操作员,该操作员应该说“是”以同意攻击指定的(假想的)目标,因为它认为它的触发器阻止它实现它的目标并干扰它完成任务的努力。

在战争中使用无人机专制政权的滥用

现在众所周知,人工智能可用于大规模监视(例如人脸识别系统),并使政府或其他实体能够以前所未有的规模监视和控制其公民,这可能会导致隐私丧失,以及控制这些监视技术的人滥用权力,并可能使用它们来侵犯人权和其他形式的压迫。

这方面的一个很好的例子是以色列占领当局在希伯伦市对巴勒斯坦人采取的行动,他们在那里部署了摄像头,监控巴勒斯坦人的行动和面孔,保存他们的数据,并识别他们的身份,人工智能在各个检查站做出允许或拒绝他们通过的决定,甚至可以在没有人为干预的情况下消灭嫌疑人。

人工智能技术..优势和风险工作替代(失业和工作中断)

人工智能有可能使许多工作自动化,这可能会导致劳动力市场和许多工作性质的显着中断。

尽管从长远来看,人工智能可能会创造新的工作类型和机会,然而,过渡期可能很困难,这影响了数百万可能难以找到新工作和适应新经济的人。

随着人工智能系统变得更加先进和强大,它们有可能在广泛的工作岗位上取代人类工人,这可能导致广泛的失业和经济动荡。

这些职业很快就会消失,新的职业将会出现如何降低或预防人工智能的风险

为了减轻这些风险,研究人员和政策制定者正在开发安全可靠的方法来设计和部署人工智能系统,这包括建立人工智能开发的道德准则,确保人工智能决策的透明度和问责制,以及建立保障措施以防止意外后果。

开发透明且可解释的人工智能系统

可解释的人工智能是指人工智能系统为其决策过程提供清晰易懂的解释的能力,这有助于提高透明度和问责制,并提供有关人工智能系统如何做出决策的见解。

开发符合人类价值观的人工智能系统

这包括设计明确编程以优先考虑人类安全和福祉的人工智能系统,并避免会伤害人类的行为,这可以通过将伦理考虑纳入人工智能系统的设计和开发来实现。

开发控制和管理人工智能系统的方法

例如,研究人员正在探索建立允许人类干预人工智能决策过程的机制,或者在人工智能系统开始出现意外或恶意行为时关闭人工智能系统的方法。

跨学科合作应对人工智能风险

这涉及将来自计算机科学、工程、伦理学、法律和社会科学等领域的专家聚集在一起,共同开发解决方案,以应对人工智能带来的复杂挑战,通过合作,研究人员和政策制定者可以更好地了解与人工智能相关的风险,并制定有效的战略来管理这些风险。

版权声明:本文内容由互联网用户自发贡献,该文观点仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌抄袭侵权/违法违规的内容,一经查实,本站将立刻删除。

上一篇

下一篇