博舍

为什么人工智能比核武器更危险 人工智能为什么不危险

为什么人工智能比核武器更危险

0分享至

想象一下:一个机器比人更聪明的世界,无需人类干预即可做出决策,甚至具备发动战争的能力。奇怪的是,人工智能(AI)的世界不再只是科幻幻想。它就在这里,它是真实的,而且它可能比核武器更危险。

在您将此视为过度反应之前,让我们花点时间考虑一下事实。人工智能技术的快速发展正在打开机遇与挑战的潘多拉魔盒。从彻底改变行业到引发人们对工作保障、隐私甚至安全的担忧,人工智能是一股不可忽视的力量。

“人工智能是未来,未来就在这里。但当我们站在这个新时代的悬崖边时,我们必须问自己——未来安全吗?”本文将探讨人工智能的潜在危险,讨论为什么一些专家认为它可能比核武器构成更大的威胁。我们将深入探讨人工智能的阴暗面,揭示它如何被用于有害目的,例如制造自主武器、操纵社交媒体或传播虚假信息。最后,我们希望对人工智能的潜在危险和好处提供一个平衡的视角,从而就人工智能发展的道德影响和更严格监管的必要性进行更广泛的讨论。

人工智能的破坏潜力

人工智能的阴暗面——自主武器、社交媒体操纵和错误信息

人工智能的伦理影响

需要更严格的监管

因此,当您系好安全带,坐上过山车进入科技的未来时,请记住保持开放的心态。旅途可能会坎坷不平,但景色一定会发人深省。

人工智能的崛起:对人类的威胁

当我们想到人类面临的威胁时,经常会想到核灾难的画面。但是街区里出现了一个新孩子,它的名字是什么?人工智能(AI)。

人工智能已经悄然融入我们的生活。它存在于我们的智能手机、汽车甚至冰箱中。但当人工智能从有益变成有害时会发生什么?

人工智能的阴暗面

虽然人工智能帮助我们自动化任务并分析大量数据,但它也有潜在的阴暗面。随着人工智能变得更加智能和复杂,滥用的可能性也随之增加。

自主武器:想象一下可以决定杀死谁的无人机。这就是自主武器的现实,它可以用来造成我们以前从未见过的大规模破坏。

社交媒体操纵:人工智能算法用于让我们点击、观看和滚动。但如果这些算法被用来传播假新闻或煽动暴力怎么办?

传播虚假信息:我们已经看到了深度造假技术的影响,人工智能被用来创建人们说过或做过的事情的真实图像或视频。

道德困境

开发人工智能会带来一系列道德问题。如果人工智能造成伤害,谁该负责?如果人工智能系统变得比我们更聪明,会发生什么?谁首先决定什么是“道德”?

我们需要对人工智能进行更严格的监管,但达成全球共识是一个巨大的障碍。毕竟,技术不分国界。

为什么人工智能可能比核武器更危险

想象一下:您舒适地坐在家里,喝着一杯热可可,突然,您的智能设备在没有任何警告的情况下开始出现故障。它首先播放怪异的曲调,然后开始闪烁,最后完全关闭。很可怕,不是吗?现在,想象一下更大、更具灾难性的场景。这就是人工智能所带来的潜在危险,这就是为什么一些专家认为它可能比核武器更危险的原因。

人工智能的自主性

我们都看过机器人变得有自我意识并反人类的电影。虽然这看起来只不过是好莱坞戏剧,但这种可能性并不像你想象的那么牵强。人工智能具有学习和适应能力,有可能实现一定程度的自主,如果控制不当,会对人类构成重大威胁。

战争中的人工智能

想象一个战争不是由人类而是由人工智能控制的自主武器进行的世界。听起来像科幻电影,不是吗?可怕的是,这是一种非常现实的可能性。这些自主武器可能会被编程为在没有任何人为干预的情况下杀人,如果落入坏人手中,它们将成为极其危险的工具。

人工智能和社交操纵

人工智能不仅仅在物理领域是危险的。它在虚拟世界中也构成了重大威胁。想象一下,人工智能能够操纵社交媒体平台,传播虚假信息,并以远远超出我们近年来所见的规模有效地扰乱社会。这是一个令人不寒而栗的想法,不是吗?

人工智能可用于创建更复杂、更难以检测的网络钓鱼攻击。

人工智能道德与监管

权力越大,责任越大,对于人工智能来说尤其如此。随着这项技术的不断进步,我们考虑其发展的伦理影响至关重要。需要更严格的监管,以确保人工智能得到负责任的使用,而不是造成伤害。

那么,人工智能比核武器更危险吗?这是一个仍有争议的问题。但有一件事是肯定的,人工智能的潜在危险太大,不容忽视。与所有强大的技术一样,我们必须谨慎行事,确保我们使用人工智能来改善社会,而不是毁灭社会。

人工智能和社交媒体:操纵和虚假信息的可能性

当我们谈论人工智能和社交媒体时,我们正在走下坡路。在正确的人手中,人工智能可以成为过滤假新闻、监控网络欺凌并实现更个性化用户体验的工具。然而,当这种权力落入坏人之手时会发生什么呢?

操纵的潜力

想象一下这样一个世界:人工智能可以根据每个用户的喜好、厌恶和在线行为,为他们制作个性化的政治宣传。人工智能不是政客直接向群众讲话,而是可以向每个人低声传达量身定制的信息,在雷达下影响观点。这不仅仅是理论上的威胁,而是我们今天已经在行动中看到的威胁。

传播虚假信息

人工智能还可以成为传播错误信息和虚假信息的有力工具。“深度假货”(几乎无法与真实视频区分开来的经过处理的视频)的兴起就是一个鲜明的例证。人工智能现在可以让人感觉好像有人在说什么,这使得在谎言的海洋中更难找到真相。

正如万维网的发明者蒂姆·伯纳斯·李曾经说过的那样:“我们需要重新思考我们应对数字环境的方法,因为人工智能和其他技术使传播虚假信息变得比以往任何时候都容易。”总之,虽然人工智能有潜力彻底改变我们的社交媒体体验,但它也带来了巨大的风险。与任何工具一样,它可以用于善行,也可以用于邪恶。随着我们在这个数字时代不断前进,至关重要的是,我们必须牢记这些风险,并努力建立一个更安全、更值得信赖的在线环境。

人工智能的阴暗面:道德影响和更严格监管的必要性

想象一下:一个原本为善而设计的人工智能却变得失控。听起来像好莱坞科幻惊悚片,对吧?然而,这是一个潜在的现实,它清楚地描绘了人工智能的黑暗面如何出现。

如果落入坏人之手,人工智能可能会被用来制造自主武器或操纵社交媒体。想象一个人工智能系统驱动舆论、传播虚假信息甚至煽动冲突的世界。这是一个令人不寒而栗的想法,不是吗?

让我们更深入地探讨道德含义。人工智能具有自学习能力,就像一个孩子。但是,当这个“孩子”学会了歧视或偏见等有害行为时会发生什么?这是一个道德雷区,我们需要小心谨慎。

正如埃隆·马斯克曾经说过的那样,“人工智能比核武器危险得多。”你问解决办法是什么?答案既简单又复杂:更严格的监管。我们需要全面的指导方针来管理人工智能的开发和使用,就像我们为核武器制定的指导方针一样。但这里的挑战是双重的。首先,人工智能是一个快速发展的领域,因此很难保持最新的法规。其次是国际合作问题。我们如何确保所有国家都遵守规则?

更严格的监管不仅仅是限制人工智能的负面潜力;它还涉及最大化其利益。通过正确的制衡,我们可以利用人工智能的力量来解决从气候变化到医疗保健等一些最大的挑战。

总之,人工智能的黑暗面是一个令人畏惧的前景。但通过承认潜在的危险并采取积极主动的措施,我们可以避免反乌托邦的未来。毕竟,我们的目标不是阻止人工智能,而是引导它走上造福全人类的道路。

平衡人工智能未来的好处和危险

人工智能(AI)是一把双刃剑,有可能以难以想象的方式改变我们的世界。一方面,它有望彻底改变从医疗保健到交通运输的各个领域,使我们的生活更加高效和便捷。但另一方面,它也带来了比核武器更强大的潜在危险。

危险:自主武器和社会操纵

想象一下人工智能用于为自主武器提供动力的世界。这些并不是典型的科幻小说中的机器人。我们谈论的是无人机和导弹,它们可以独立决定攻击目标和攻击时间。人工智能造成广泛破坏和人员伤亡的可能性是巨大的。

但威胁并不止于身体暴力。人工智能有潜力操纵社交媒体,以人类根本无法比拟的速度和规模传播虚假信息。这可能会破坏社会稳定、影响选举、煽动冲突,而这一切都无需开一枪。

伦理意义

人工智能具有如此深远的潜在影响,其伦理影响也是巨大的。谁决定何时以及如何使用人工智能?当人工智能犯错误时,例如错误识别目标或传播虚假消息,会发生什么?也许最重要的是,我们如何确保人工智能的使用造福于整个人类,而不是少数人?

监管人工智能:必要的一步

考虑到潜在的危险,对人工智能进行更严格的监管至关重要。虽然这项规定的具体形式仍有争议,但专家们一致认为,它需要主动而不是被动。这意味着在人工智能的破坏潜力得到充分发挥之前就立即实施保障措施。

人工智能:平衡之举

尽管存在潜在危险,但重要的是要记住人工智能也有潜力做巨大的好事。它可以彻底改变医学,使诊断更加准确,治疗更加有效。它可以通过为自动驾驶汽车提供动力来使我们的道路更加安全。它甚至可以帮助应对气候变化和不平等等全球挑战。

但要获得这些好处,我们需要小心应对危险。我们必须取得平衡,利用人工智能的力量,同时最大限度地降低其风险。这不仅需要技术创新,还需要道德反思、强有力的监管以及将人类利益放在首位的承诺。

人工智能在网络安全中的作用:一把双刃剑

让我们深入探讨人工智能(AI)发挥着重要作用的数字领域。网络安全是我们网络世界的守护者,在很大程度上依赖于人工智能。然而,就像双刃剑一样,它并不都是玫瑰和彩虹。

人工智能可用于创建更复杂、更有效的黑客工具。

好消息?人工智能可以帮助我们应对网络威胁。这就像拥有一只永不睡觉的超级智能数字看门狗。它可以比人类更快地发现可疑活动、识别恶意软件并响应违规行为。借助人工智能,我们正在加强防御游戏。

现在,让我们翻转剑,看看另一面。人工智能也可以武装坏人。想象一下网络犯罪分子可以使用人工智能驱动的工具。他们可以发起更复杂的攻击,突破防御,甚至创建“深度伪造”——超现实的虚假视频或音频。很可怕,不是吗?

此外,运行网络安全的自主人工智能系统可能会失控或被操纵。如果他们开始将友好用户视为威胁怎么办?造成损害的可能性是巨大的,可能比物理武器更具破坏性。

那么,我们应该采取什么行动呢?我们不能否认人工智能在网络安全方面的潜在好处。然而,我们也不能对风险视而不见。我们需要谨慎行事,在进步与预防之间取得平衡。

这正是一些专家主张对人工智能技术进行更强有力监管的原因。他们认为我们需要类似于核武器的国际条约。他们希望防止人工智能军备竞赛,即各国竞相构建更强大且具有潜在危险的人工智能系统。

简而言之,网络安全中的人工智能是一把双刃剑。它具有帮助我们的巨大潜力,但如果处理不当,可能会适得其反。与核武器类似,我们必须在利用其威力的同时管理其风险。

人工智能的未来及其对社会的影响

想象一下这样一个世界:机器人为我们做决定,算法决定我们的一举一动。人工智能的未来并不完全是反乌托邦的,但它确实引起了一些人的关注。从诊断疾病到驾驶汽车,人工智能的潜力是无可争议的。

但是,伙计们,请抓紧你们的帽子,因为人工智能领域的情况并不都是乐观的。可以彻底改变我们的世界的技术也可以操纵它。人工智能可用于制造自主武器;认为无人机在没有人为干预的情况下做出“杀戮”决定。

这个想法本身就令人毛骨悚然,不是吗?此外,人工智能可以成为社交媒体世界中的木偶大师。它可以传播虚假信息,在全球范围内造成歇斯底里,其速度比你说“假新闻”还要快。这就像一场打了类固醇的中国私语游戏!

“拥有权利的同时也被赋予了重大的责任。”这是轻描淡写的说法。人工智能的伦理影响是巨大的。如果我们不小心,我们就有可能创造一个人工智能侵犯我们基本人权的世界。这是一条很好的路线,我们在这里谈论的不仅仅是黑客帝国式叛乱的可能性。

人工智能是一个了不起的工具,但像任何工具一样,它也可能被滥用。对人工智能技术进行严格监管的必要性至关重要。我们不希望我们的未来由算法决定,不是吗?

因此,虽然人工智能可能不像核弹那样具有爆炸性,但其长期影响可能同样具有毁灭性。现在是我们开始给予人工智能应有的尊重和谨慎的时候了。

结论

人工智能(AI)具有巨大的潜力,但也存在巨大的风险,一些专家将其等同于核武器。

人工智能可以极大地改善我们的生活并推动科学进步。然而,如果没有适当的控制和监管,该技术可能会成为威胁。

潜在风险包括自主武器滥用、大规模社交媒体操纵以及错误信息的快速传播。这些都是人工智能主导的未来的真实场景。

本质上,人工智能是一种工具,它的影响取决于我们如何使用它。我们需要谨慎对待人工智能的开发和应用。为了防止滥用并保持对这一强大技术的控制,需要更严格的监管。

我们必须迅速采取行动,确保人工智能使我们受益。一旦人工智能失控,可能很难重新获得控制。人类的未来可能取决于此。

特别声明:以上内容(如有图片或视频亦包括在内)为自媒体平台“网易号”用户上传并发布,本平台仅提供信息存储服务。

Notice:Thecontentabove(includingthepicturesandvideosifany)isuploadedandpostedbyauserofNetEaseHao,whichisasocialmediaplatformandonlyprovidesinformationstorageservices.

/阅读下一篇/返回网易首页下载网易新闻客户端

李开复AI五讲|人工智能的五个定义:哪个最不可取

编者按:从惊呼“人工智能来了”到察觉“人工智能无处不在”,人类社会才走过寥寥数年。在提出建设国家人工智能高地的上海,许多率先试水的应用在各行各业写下了“AI+”的故事。此时此刻,我们更加要冷静地思考自身与人工智能的关系。我们真的知道什么是人工智能吗?我们真的准备好与人工智能共同发展了吗?我们该如何规划人工智能时代的未来生活?

本月底,2019世界人工智能大会将在黄浦江畔揭开序幕。澎湃新闻特邀李开复、王咏刚将著作《人工智能》精编为系列短文,试析与AI相关的若干关键问题。

请抛开人工智能就是人形机器人的固有偏见,然后,打开你的手机。我们先来看一看,已经变成每个人生活的一部分的智能手机里,到底藏着多少人工智能的神奇魔术。

谷歌最资深的计算机科学家与软件架构师、谷歌大脑开发团队的带头人杰夫•迪恩(JeffDean)说:“很多时候(人工智能)都是藏在底下,因此人们并不知道有很多东西已经是机器学习的系统在驱动。”

到底什么是人工智能?为什么我们说智能搜索引擎、智能助理、机器翻译、机器写作、机器视觉、自动驾驶、机器人等技术属于人工智能,而诸如手机操作系统、浏览器、媒体播放器等通常不被归入人工智能的范畴?人工智能究竟有没有一个容易把握和界定的科学定义?

这里,简要列举几种历史上有影响的,或目前仍流行的人工智能的定义。对这些定义的分析、讨论是一件相当有趣的事,这有些类似于古代哲学家们围坐在一起探讨“人何以为人”,或者,类似于科幻迷们对阿西莫夫的“机器人三定律”展开辩论。其实,很多实用主义者反对形而上的讨论,他们会大声说:“啊,管它什么是人工智能呢?只要机器能帮助人解决问题不就行了?”

定义一:Al就是让人觉得不可思议的计算机程序

人工智能就是机器可以完成人们不认为机器能胜任的事——这个定义非常主观,但也非常有趣。一个计算机程序是不是人工智能,完全由这个程序的所作所为是不是能让人目瞪口呆来界定。

这种唯经验论的定义显然缺乏一致性,但这一定义往往反映的是一个时代里大多数的普通人对人工智能的认知方式:每当一个新的人工智能热点出现时,新闻媒体和大众总是用自己的经验来判定人工智能技术的价值高低,而不管这种技术在本质上究竟有没有“智能”。

计算机下棋的历史就非常清楚地揭示了这一定义的反讽之处。

早期,碍于运行速度和存储空间的限制,计算机只能用来解决相对简单的棋类博弈问题,例如西洋跳棋,但这毫不妨碍当时的人们将一台会下棋的计算机称作智能机器,因为那时,普通计算机在大多数人心目中不过是一台能用飞快的速度做算术题的机器罢了。

1962年,IBM的阿瑟•塞缪尔的程序战胜了一位盲人跳棋高手,一时间成了不小的新闻事件,绝大多数媒体和公众都认为类似的西洋跳棋程序是不折不扣的人工智能。

随着PC的普及,每台个人电脑都可以运行一个水平相当高的西洋跳棋程序,会下棋的计算机逐渐褪去了神秘的光环。

当国际象棋、中国象棋逐渐被计算机玩得滚瓜烂熟,公众找到了维护人类智慧尊严的最后阵地——围棋。直到2016年年初,除了一个叫樊麾的职业围棋选手和谷歌DeepMind的一支规模不大的研发团队外,几乎所有地球人都说:“下象棋有什么了不起?真有智能的话,来跟世界冠军下盘围棋试试?”

很不幸,人类的自以为是又一次被快速发展的人工智能算法无情嘲笑了。2016年3月9日,随着AlphaGo在五番棋中以四比一大胜围棋世界冠军李世石,有关人工智能的热情和恐慌情绪同时在全世界蔓延开来,也因此引发了一拨人工智能的宣传热潮。

今天,没有人怀疑AlphaGo的核心算法是人工智能。但想一想曾经的西洋跳棋和国际象棋,当时的人们不是一样对战胜了人类世界冠军的程序敬若神明吗?

定义二:Al就是与人类思考方式相似的计算机程序

这是人工智能发展早期非常流行的一种定义方式。从根本上讲,这是一种类似仿生学的直观思路。

但历史经验证明,仿生学的理路在科技发展中不一定可行。一个最好也最著名的例子就是飞机的发明。在几千年的时间里,人类一直梦想着按照鸟类扑打翅膀的方式飞上天空,但反讽的是,真正带着人类在长空朝翔,并打破了鸟类飞行速度、飞行高度纪录的,是飞行原理与鸟类差别极大的固定翼飞机。

人类思考方式?人究竟是怎样思考的?这本身就是一个复杂的技术和哲学问题。哲学家们试图通过反省与思辨,找到人类思维的逻辑法则,而科学家们则通过心理学和生物学实验,了解人类在思考时的身心变化规律。这两条道路都在人工智能的发展历史上起到过极为重要的作用。

世界上第一个专家系统程序Dendral是一个成功地用人类专家知识和逻辑推理规则解决一个特定领域问题的例子。这是一个由斯坦福大学的研究者用Lisp语言写成的,帮助有机化学家根据物质光谱推断未知有机分子结构的程序。

Dendral项目在20世纪60年代中期取得了令人瞩目的成功,带动了专家系统在人工智能各相关领域的广泛应用,从机器翻译到语音识别,从军事决策到资源勘探。一时间,专家系统似乎就是人工智能的代名词,其热度不亚于今天的深度学习。

但人们很快就发现了局限。一个解决特定的、狭小领域问题的专家系统很难被扩展到宽广一些的知识领域中,更别提扩展到基于世界知识的日常生活里了。

一个著名的例子是1957年苏联发射世界上第一颗人造卫星后,美国政府和军方急于使用机器翻译系统了解苏联的科技动态。但用语法规则和词汇对照表实现的俄语到英语的机器翻译系统笑话百出,曾把“心有余而力不足”(thespiritiswilingbutthefleshisweak)翻译为“伏特加不错而肉都烂掉了”(thevodkaisgoodbutthemeatisroten)。

另一方面,从心理学和生物学出发,科学家们试图弄清楚人的大脑到底是怎么工作的,并希望按照大脑的工作原理构建计算机程序,实现“真正”的人工智能。这条道路上同样布满荆棘。最跌宕起伏的例子,非神经网络莫属。

20世纪90年代开始,随着计算机运算能力的飞速发展,神经网络在人工智能领域重新变成研究热点。但直到2010年前后,支持深度神经网络的计算机集群才开始得到广泛应用,供深度学习系统训练使用的大规模数据集也越来越多。神经网络这一仿生学概念在人工智能的新一轮复兴中,真正扮演了至关重要的核心角色。

定义三:AI就是与人类行为相似的计算机程序

和仿生学派强调对人脑的研究与模仿不同,实用主义者从不觉得人工智能的实现必须遵循什么规则或理论框架。“黑猫白猫,逮住耗子的就是好猫。”在人工智能的语境下,这句话可以被改成:“简单程序,复杂程序,聪明管用的就是好程序。”

实用主义者推崇备至的一个例子是麻省理工学院于1964年到1966年开发的“智能”聊天程序ELIZA。这个程序看上去就像一个有无穷耐心的心理医生,可以和无聊的人或需要谈话治疗的精神病人你一句我一句永不停歇地脚下去。当年,ELIZA的聊天记录让许多人不敢相信自己的的眼睛。

可事实上,ELIZA所做的,不过是在用户输入的句子里,找到一些预先定义好的关键词,然后根据关键词从预定的回答中选择一句,或者简单将用户的输入做了人称替换后,再次输出,就像心理医生重复病人的话那样。ELIZA心里只有词表和映射规则,它才不懂用户说的话是什么意思呢。

这种实用主义的思想在今天仍有很强的现实意义。比如今天的深度学习模型在处理机器翻译、语音识别、主题抽取等自然语言相关的问题时,基本上都是将输入的文句看成由音素、音节、字或词组成的信号序列,然后将这些信号一股脑塞进深度神经网络里进行训练。

深度神经网络内部,每层神经元的输出信号可能相当复杂,复杂到编程者并不一定清楚这些中间信号在自然语言中的真实含义,但没有关系,只要整个模型的最终输出满足要求,这样的深度学习算法就可以工作得很好。

定义四:AI就是会学习的计算机程序

没有哪个完美主义者会喜欢这个定义。这一定义几乎将人工智能与机器学习等同了起来。但这的确是最近这拨人工智能热潮里,人工智能在许多人眼中的真实模样。谁让深度学习一枝独秀,几乎垄断了人工智能领域里所有流行的技术方向呢?

这一定义似乎也符合人类认知的特点一—没有哪个人是不需要学习,从小就懂得所有事情的。因此,今天最典型的人工智能系统通过学习大量数据训练经验模型的方法,其实可以被看成是模拟了人类学习和成长的全过程。

如果说人工智能未来可以突破到强人工智能甚至超人工智能的层次,那从逻辑上说,在所有人工智能技术中,机器学习最有可能扮演核心推动者的角色。

当然,机器目前的主流学习方法和人类的学习还存在很大的差别。举个最简单的例子:目前的计算机视觉系统在看过数百万张或更多自行车的照片后,很容易辨别出什么是自行车,什么不是自行车,这种需要大量训练照片的学习方式看上去还比较笨拙。反观人类,给一个三四岁的小孩子看一辆自行车之后,再见到哪怕外观完全不同的自行车,小孩子也十有八九能做出那是一辆自行车的判断。也就是说,人类的学习过程往往不需要大规模的训练数据。

最近,尽管研究者提出了迁移学习等新的解决方案,但从总体上说,计算机的学习水平还远远达不到人类的境界。

如果人工智能是一种会学习的机器,那未来需要着重提高的,就是让机器在学习时的抽象或归纳能力向人类看齐。

定义五:Al就是根据对环境的感知,做出合理的行动,并获得最大收益的计算机程序

维基百科的人工智能词条采用的是斯图亚特•罗素(StuartRussell)与彼得•诺维格(PeterNorvig)在《人工智能:一种现代的方法》一书中的定义,他们认为:

人工智能是有关“智能主体(Intelligentagent)的研究与设计”的学问,而“智能主体是指一个可以观察周遭环境并做出行动以达致目标的系统”。

基本上,这个定义将前面几个实用主义的定义都涵盖了进去,既强调人工智能可以根据环境感知做出主动反应,又强调人工智能所做出的反应必须达致目标,同时,不再强调人工智能对人类思维方式或人类总结的思维法则的模仿。

以上,我们列举了五种常见的人工智能的定义。其中,第二种定义(与人类思考方式相似)特别不可取。人们对大脑工作机理的认识尚浅,而计算机走的是几乎完全不同的技术道路。

第一种定义(让人觉得不可思议)揭示的是大众看待人工智能的视角直观易懂,但主观性太强,不利于科学讨论。

第三种定义(与人类行为相似)是计算机科学界的主流观点,也是一种从实用主义出发,简洁、明了的定义,但缺乏周密的逻辑。

第四种定义(会学习)反映的是机器学习特别是深度学习流行后,人工智能世界的技术趋势,虽失之狭隘,但最有时代精神。第五种定义(维基百科使用的综合定义)是学术界的教科书式定义,全面均衡,偏重实证。

版权声明:本文内容由互联网用户自发贡献,该文观点仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌抄袭侵权/违法违规的内容,一经查实,本站将立刻删除。

上一篇

下一篇