博舍

全球两类人工智能治理实践的教训 人工智能失败的教训是什么呢

全球两类人工智能治理实践的教训

人工智能技术的快速进步及其应用场景的不断拓展延伸,让各国政府监管部门正面临着越来越大的监管挑战。作为一项新兴关键技术,其应用领域极其广泛,但即使这样,作为一项基础技术而言,它会在多大范围、多深程度上影响产业发展、工人就业并产生其他诸如虚假信息、隐私保护、国家安全等方面的挑战,人们仍然无法确定。更重要的是,无论是美欧等传统发达经济体还是像中国这样的新兴经济体,对如何监管人工智能等新兴技术和新兴产业领域的相关规则都还处于探索阶段。2023年2月14日,卡内基和平基金会专家马特·奥肖内西和马特·希汉为此发表了题为《全球两类人工智能治理实践的教训》的评论文章,文章分析了当前欧盟和中国在人工智能监管方面的实践,认为两种监管思路各有特色、各有利弊,政策制定者应当研究人工智能治理措施的成败经验,以指导他们的监管方法。

以下是该评论文章译文,供参考。

众所周知,由于人工智能无所不在且其发展方向仍不明朗,这使得它难以监管。但幸运的是,对于世界其他地区来说,目前人工智能治理设计方面的两项重大实践正在欧洲和中国展开。欧盟(EU)正在竞相通过其《人工智能法案》草案,这是一项旨在管理人工智能所有用途的全面立法。与此同时,中国正在推出一系列针对特定类型算法和人工智能能力的法规。对于启动人工智能治理计划的国家来说,从上述两项人工智能治理实践的成败中吸取教训至关重要。

在人工智能的严肃立法过程中,政策制定者面临的首要问题是采取更“横向(horizontal)”还是更“纵向(vertical)”的方法。在“横向”方法中,监管机构将创建一个全面的法规,涵盖了人工智能可能产生的许多影响。在“纵向”方法中,政策制定者采取“定制”的方法,针对不同应用或类型的人工智能制定不同的法规。

欧盟和中国都没有采取纯粹的横向或纵向方法来管理人工智能。但欧盟的人工智能法案是更偏向于横向监管方式,中国的算法法规则是偏向于纵向方法。通过深入研究这两项人工智能的治理实践,政策制定者可以从中为他们自己的监管方法总结经验。

欧盟的做法

欧盟对人工智能治理的方法以一项核心立法为中心。《人工智能法案》的核心是将人工智能应用的风险分为四类,每种风险都由一套预定义的监管工具来管理。其中,被认为构成“不可接受风险”的应用(如社会评分和某些类型的生物识别技术)被禁止;对安全或基本权利构成“高风险”威胁的应用(如执法或招聘程序)须遵守某些上市前和上市后要求;被视为“有限风险”的应用(例如情绪检测和聊天机器人)仅面临透明度要求;大多数人工智能的使用被归类为“最低风险”,只受制于自愿措施。

《人工智能法案》模糊地定义了每个风险等级的“基本要求”,对每个类别都有不同的限制。对于开发者来说,满足这些要求最简单的方法就是遵守欧洲标准制定机构制定的技术标准。这使得技术标准成为《人工智能法案》的关键部分:它们是将立法中描述的一般规定转化为人工智能系统精确要求的部分。一旦生效,法院、国家监管机构和技术标准机构的多年工作将准确阐明《人工智能法案》如何适用于不同的情况。

实际上,《人工智能法案》是通过单一的“横向”立法方式来确定人工智能应用的广泛监管范围。同时,允许法院、标准机构和开发商等领域和相关机构确定确切的标准和合规策略。为了进一步提高其以更具体方式行事的能力,欧盟还将《人工智能法案》中的要求与共同监管战略相结合,例如监管沙盒(regulatorysandboxes)、应对人工智能挑战的最新责任政策以及专注于数据、市场结构和在线平台的相关立法等。

该框架在提供可预测性和跟上人工智能发展的双重要求之间取得了平衡。其基于风险的方法允许监管机构随着人工智能用途的发展将新的应用领域纳入现有风险类别,从而在灵活性和监管确定性之间取得了平衡。同时,《人工智能法案》对基本要求相对灵活的定义也减轻了纯粹的横向框架所带来的有关精确性的关键挑战,使合规战略能够在不同的部门和技术发展中保持灵活性。

但欧盟这种倾向横向的做法面临几个风险,其他国家应该密切关注。负责执行监管要求的各个监管机构可能在解释或监管能力方面存在差异,从而破坏了横向方法的关键能力和协调效应。另一个因素是拟议的中央和横向欧洲人工智能办公室是否能有效补充国家和部门监管机构的能力。尽管将精确技术需求的创建委托给专家标准制定机构,可以将更多的技术专长和精度引入精确的需求中。但是,标准制定过程历来是由行业推动的,确保政府和公众在谈判桌上有一个有意义的席位将是一个挑战。

中国的做法

在过去的一年里,中国推出了世界上第一个针对算法和人工智能的具有全国约束力的法规。它采取了一种纵向方法:选择特定的算法应用程序并编写法规来解决它们在某些领域部署问题。该方向的前两项法规针对推荐算法和深度合成技术,也被称为生成AI。

推荐算法法规的重点是它在传播信息、定价和派遣工人方面的使用。它要求算法提供商“大力传播正能量”,避免价格歧视或对送货司机的工作量要求过高。第二项规定针对的是使用训练数据生成新内容的深度合成算法,比如深度伪造(deepfakes)[1]。该规定再次聚焦于对“有害信息”的关注,但它也要求提供商在图像或声音被该技术操纵时需获得个人的同意。这些特定应用程序的需求源于法规的垂直性质。这些要求在适用于另一组应用或适用于横向监管所涵盖的应用时,都没有意义。

但中国的法规确实包含一个横向要素:它们创造了某些监管工具,可以横向应用于几个不同的纵向法规。算法备案系统(字面意思是“算法归档系统”)就是一个典型的例子。算法备案系统由推荐算法法规创建,并由深度综合法规重申,这两项法规都要求开发者注册其算法。它是中国官员收集算法信息的中央数据库,例如其训练数据来源和潜在的安全风险。因此,该备案注册系统还可以作为监管机构深度了解人工智能如何构建和部署的工具,这是全球行业监管机构的一个关键目标。

展望未来,备案注册系统可能会继续作为一个横向工具,收集有关属于各种纵向算法法规的类似信息。它可以进行灵活调整,并根据算法的应用要求提供不同种类的信息,或者它可以简单地提供所有受监管的算法所需的统一信息基线(uniformbaseline)。

中国的做法使其能够更精确地对具体技术能力提出监管要求。在大部分情况下,这种方法可能会导致规则滞后于技术发展的速度。然而,在中国的人工智能监管中,由于一些监管要求的定义非常模糊,以至于它们实际上起到了将权力从技术公司转移到政府监管机构的作用,后者可以利用新获得的监管权力,迫使企业按照自己的意愿做出任何改变。中国的纵向监管最终也可能会成为更全面的人工智能治理机制的基石,这种模式在《网络安全法》出台之前就在中国的互联网治理中发挥作用。但在此之前,这种方法的主要风险是相关的监管法规是一个拼凑出来的法规,这些法规总体上考虑不周到且遵守的成本及其高昂。

经验之谈

各界人士对欧盟和中国的做法褒贬不一。商业团体认为,欧盟广泛的横向监管方法将扼杀创新,而分析人士则断定,中国的定向监管将被用来加强信息控制。但退一步看他们人工智能监管的基本方法,世界各国的政策制定者或监管机构都可以从中吸取教训。

一个核心教训是,这两种方法并不能完全独立地存在。纯粹横向监管的方法将无法为人工智能的所有应用制定有意义的具体要求。相反,针对每一个人工智能的新应用都创建一个独立的垂直法规,可能会造成监管机构和企业的合规混乱。

最有效的方法是同时包含横向和纵向两种要素。采取横向方法的监管者可以将制定具体合规要求的实质工作推给更垂直的组织,如部门监管者、标准机构,或在某些情况下的法院,进而从中受益。同样,采取纵向方法的政府可以创建横向监管的工具和资源,用于各种特定应用的法律,从而减轻监管机构的负担以及企业面临的不可预测性。

我们可以在欧盟和中国的监管方法中看到类似的版本。虽然欧盟《人工智能法案》创建了四个风险等级,并为每个风险等级列出了广泛的要求,但阐明具体合规门槛的重任将由欧洲的主要标准化机构完成。尽管中国针对推荐引擎和生成性人工智能发布了垂直监管规定,但为保持监管规定之间的一致性,它们也依赖于算法注册表等横向工具。

除了这种补充两种方法的总体需求外,横向和纵向监管制度各有优劣。选择哪种监管制度最有效,往往要取决于该政府的结构和文化。一个国家的立法机构灵活还是僵硬?其行业监管机构的权力与协调程度如何?这些问题的答案将告诉我们哪种方法最有效。

横向监管方法通过设置一组固定的治理工具,为开发人员和企业提供了可预测性。尽管人工智能应用五花八门,但它们带来的风险往往涉及透明度、稳健性和问责制等类似主题,横向战略可以帮助政府将有限的资源集中在这些重复的主题上。横向监管方法还可以在负担过重的特定行业监管机构缺乏人工智能等新技术研究能力时减少出现监管缺口的可能性。

但政府需要具备一些特点,才能获得横向监管方法的好处。即他们的立法机构有能力修改或增加其主要的横向法规,以跟上技术的步伐。对于一项快速发展的技术,静态的横向监管独立难支。此外,当横向监管法规将精确合规要求的设定委托给其他机构时,这些机构需要有能力抵抗行业捕获行为(industrycapture)。例如,如果行业主导的标准机构制定了薄弱的合规标准,那么监管本身就会变得薄弱。

纵向人工智能法规的好处是可以量身定制,以减轻不同人工智能应用所带来的具体危害。虽然最终的目标比较有限,但这些单独的法规可以解决现有的危害,而且无需增加额外负担就可以普遍适用于该技术的所有应用。随着监管者和立法者了解到那些被证明是成功的干预措施,他们可以在未来将这些工具或要求纳入到针对其他危害的立法中。如果这种零敲碎打的方法最终被证明是远远不够的,那么他们可以通过这些经验来塑造一个更加横向的监管制度。

但纵向监管方法则需要一定程度的立法和机构间协调,以最大限度地减少监管者和企业的成本。如果各机构间不协调建立通用的监管工具,每次有新部门负责监管人工智能的具体应用时,那么它们将会产生重复工作的问题。同样,如果纵向监管没有配备必要的技术和财政资源,行业监管机构将无法有效限制企业的人工智能应用。

美国的政治结构已经对人工智能监管进行了一系列杂乱无章的尝试。这些努力带来了横向和纵向元素的独特融合。过去两届政府都制定了自己政治导向的指导原则,其形式是前总统唐纳德·特朗普关于人工智能监管的指导和乔·拜登总统的人工智能权利法案蓝图。这些作为横向指导,旨在为行政部门的垂直部门监管机构提供信息。这两种基于原则的横向方法都试图协调人工智能监管的高级别方法,同时保持灵活性以适应特殊环境。如果没有资源和压力来实际执行这种特定部门的调整,这种方法很有可能只会产生没有意义的约束性法规。

此外,依赖联邦部门规则制定或规则解释的监管法规很有可能在下一届政府期间被推翻,就像特朗普和拜登政府之间用于信贷决策算法的解释要求一样。与此同时,国会中的两党多数已经为人工智能研究工作和最佳实践指南提供了资金,例如美国国家标准与技术研究所(NationalInstituteofStandardsandTechnology)最近发布的人工智能风险管理框架(RMF)。RMF在设计上是不具约束力的,但它确实与可用于支持未来垂直法规的水平工具有相似之处。

人工智能监管并没有一个可以适用于各国的单一公式,但欧盟和中国的人工智能监管中使用的横向和纵向元素的混合(为各国)提供了一系列政策选择。通过从这些初始监管方法中借鉴适用于其独特国情背景的经验,其他国家可以采取有意义的措施来减少人工智能系统产生的危害。

[1]深度伪造(deepfakes)是人工智能生成的任何人或名人的合成视频,它冒充真实的人,并让他们采取行动或说出他们从未做过的任何事情——编者注。

多个人工智能失败的例子及其带来的思考和经验

人工智能是开创性的,有时甚至还是令人震惊。我们不断地获得有关效率,自动化和智能预测的惊人故事。但是,人工智能并不是完美的。对于每一个成功的故事,还有一个混乱或错误的故事–这种情况没有按计划进行。

虽然我们是AI的忠实信徒,并且已经在自己的企业中看到了AI的强大功能,但有时还是看到硬币的另一面,并记住我们都在努力推动更大的发展和更好的东西。但是沿着这条道路,会有摩擦和扰。我们如何应对这些异常和缺陷,最终定义了我们从这里出发的方向。

AI失败的例子

我们不希望人工智能是完美的。至少还没有。AI仍然会经历失败并导致意想不到的后果这一事实令人耳目一新。但是即使对于那些濒错误也可以作为成长和改进的教训。如今,失败越多,增长和改进就会越多-最终将引领通往更完善和完整的行业的道路。

以下是过去几年AI失败的一些优秀示例:

MicrosoftAIChatbot学习了一些不受欢迎的语言

人工智能聊天机器人已经成为社交媒体和其他网站上的规范。Facebook在Messenger中内置了一个非常出色的工具,它被用作提供客户服务和与潜在客户进行快速对话的强大业务工具。但是AI聊天机器人并不完美,以Microsoft的AI聊天机器人为例,该聊天机器人曾短暂地称为“Tay”。

Tay于2016年3月发布并为Twitter用户部署,其编程方式是使用典型的千禧一代进行随意自然的交谈。但这只持续了24小时。发生了什么?好吧,该网站上针对了它的漏洞,并操纵Tay发表了非常性别歧视和种族主义的言论。

微软AI和研究副总裁PeterLee因未提前预见这种可能性而不得不公开道歉。

运动员还是重罪犯?

亚马逊有一个名为“识别”的项目。这是一种基于AI的面部识别软件,已出售给警察机构以用于调查。从本质上讲,它应该交叉分析图像并将执法人员定向到可能的嫌疑人。问题在于它不是很准确。

在美国公民自由联盟马萨诸塞州分会的一项研究中,通过该系统运行了数十名波士顿地区运动员的照片。这些运动员中至少有27名(或大约六分之一)被错误地与面部照相配。其中包括三届超级碗冠军新英格兰爱国者队的杜伦·哈蒙。

你能说不好看吗?

用户在Apple的FaceID中发现缺陷

苹果一直在提出优秀技术。他们已经在智能手机和移动设备行业树立了标准。在大多数情况下,他们会把事情做好。但是有时候他们在行销中可能会显得太勇敢。一个例子是iPhoneX的发布。在发布之前,苹果公司已经在其正面的面部识别系统上投入了大量时间和营销资源,以取代指纹读取器作为访问手机的主要方法。有人声称AI组件非常聪明,读者可以戴眼镜,化妆等,而不会影响功能。这本质上是对的。问题在于,苹果公司还明确表示,FaceID技术不能被面具或其他技术所欺骗。

一家位于越南的安全公司将其视为挑战。他们只用了200美元,就用石粉制成了一个面具,粘贴在一些打印的2D“眼睛”上,然后解锁了手机。这只是在提醒您,大胆的声明有时可能会再次引起人们的注意!

机器狗遇上致命的结局

谁不喜欢机器人小狗的主意?您会获得一台可爱的小机器,而无需吠叫,走路,大便,吃饭或昂贵的兽医账单。但是,如果您正在寻找生活伴侣,则可能不需要此机器人狗。

在2019年,波士顿机器人公司的机器人狗名叫Spot,而他在拉斯维加斯的一次会议上被公司CEO降职时遇上了戏剧性且不合时宜的舞台上的死亡。步行任务使他慢慢地跌跌撞撞,并最终跌倒在地,因为观众不舒服地喘着气并咯咯笑着。

IBM的Waston是一项了不起的技术。这款智能超级计算机在他的带领下取得了许多成就,包括在电视转播的危险游戏中击败了一些世界上最聪明的人。但是,就沃森所知,他还没有被当医生的信任。

在2018年,IBMWatson尝试启动医疗AI系统以提出治疗癌症患者的建议。IBM的目标无非是“消灭癌症”。但是,医院和肿瘤科医生很快就发现了重大缺陷。沃森(Watson)曾建议将出血过多的患者放到会导致更多出血的药物上,这可能会杀死患者!

IBM指责其工程师,称他们以假设和虚构案例为Watson编程,而不是依赖于实际的患者数据和历史病历。、

语音欺骗AI软件Cons首席执行官

伪造品正成为一个严重(且令人震惊)的问题。黑客发现了伪造声音,图片甚至视频的方法。在某些情况下,后果是灾难性的。

2019年3月,一家英国公司的首席执行官在德国母公司打了老板的电话。他被指示将相当于243000美元的款项转移给匈牙利供应商。该请求被标记为紧急请求,并要求首席执行官立即执行。该请求的唯一问题是,该行的另一端不是他的老板。这是一款基于AI的软件,用于模仿老板的声音。

当我们称其为AI失败时,现实是AI软件获胜。

我们可以清楚地看到,人工智能并非没有问题。就业务而言,人工智能的实施仍然面临一些挑战。它们包括:

处理能力有限。尽管AI和ML具有巨大的潜力,但它们利用了大量的处理能力。大多数计算根本没有那么先进。结果,很难在非常特定的环境之外充分利用这些技术。

知识有限。只有少数人真正足够了解AI,可以向市场进行解释。这使采用率无法达到应有的水平,并且正在减缓增长。

缺乏信任。人与计算机之间总是存在一定程度的不信任。尽管关系在过去几年中有所改善,但像本文中概述的那样的失败并没有太大帮助。

数据安全性。为了使AI应用程序正常工作,这些系统需要访问数百万个数据点。这为黑客创建了可能的弱点和漏洞,以使其成为目标并加以折衷。

尽管面临这些挑战,但AI的美丽在于其智能和光彩。不仅世界上许多最伟大的头脑都致力于改善和完善技术,而且将其与机器学习(ML)结合使用时,您将获得自我加油的增长周期,其中每一个问题和错误最终都为更大的发展铺平了道路。效率,准确性和机会。说到机会,以下是我看到的一些最重要的机会:

使大数据变得容易。企业对大数据的问题之一就是寻找方法来理解它。由于要整理的信息太多,因此很难发现如何解释和应用发现。人工智能可以简化这一过程,并导致更好,更有效的流程。

优越的分析。某些AI系统可用于监视,检测和分析各种设置中的更改。企业可以使用它来密切关注竞争对手并了解价格变化,公关活动,社会参与等内容。

更智能的搜索。互联网使世界运转。尤其是,搜索引擎可以确定趋势并控制信息流。诸如Google之类的搜索引擎公司正在使用AI和ML来改变行业,并为客户搜索提供更准确,及时的结果。

AI完美吗?如本文中的故事所示,这真是不可接受!但是它功能强大且不断改进吗?是的。因此,当我们展望未来的一,三年和五年时,请记住,人工智能是一项正在进行的工作。为了达到我们想要的目标,我们必须在过程中不断地解决一些摩擦。责编AJX

F 人工智能

机器学习---概率图-表示-有向图

普通网友:最近也在学习深度学习机器学习,看了您的文章感觉很不错,可以加您VX随时交流吗?感谢博主

推荐系统---数据工程---用户画像---解决方案

只想静静的:好文,关注+三连支持+五星评价了,期待大佬五星回评https://bbs.csdn.net/topics/603955500

推荐系统---工程

Maynor996:已投五⭐~这是我的投票链接:https://bbs.csdn.net/topics/603955366感谢回投~

D.知识图谱知识抽取与知识挖掘

micklongen:这个是当时他们竞赛的内容,具体是啥,没有去详查。不过这些所谓的关系,最基本的核心理论是本体论,具体的表现形式是OWL,你可以去网上查下关于这些理论的具体应用,网上也有关于知识图谱的分享,不过是电商的,美团、阿里都有相关的技术分享流出来

D.知识图谱知识抽取与知识挖掘

玲娜贝儿的妹妹呼伦贝儿:请问是否查找到五大类关系下的24种类型分别是什么?谢谢

人工智能失败的例子以及带来的思考和经验

人工智能是开创性的,有时甚至还是令人震惊。我们不断地获得有关效率,自动化和智能预测的惊人故事。但是,人工智能并不是完美的。对于每一个成功的故事,还有一个混乱或错误的故事–这种情况没有按计划进行。

虽然我们是AI的忠实信徒,并且已经在自己的企业中看到了AI的强大功能,但有时还是看到硬币的另一面,并记住我们都在努力推动更大的发展和更好的东西。但是沿着这条道路,会有摩擦和扰。我们如何应对这些异常和缺陷,最终定义了我们从这里出发的方向。

多个人工智能失败的例子及其带来的思考和经验

AI失败的例子

我们不希望人工智能B1100-13-F是完美的。至少还没有。AI仍然会经历失败并导致意想不到的后果这一事实令人耳目一新。但是即使对于那些濒错误也可以作为成长和改进的教训。如今,失败越多,增长和改进就会越多-最终将引领通往更完善和完整的行业的道路。

以下是过去几年AI失败的一些优秀示例:

MicrsoftAIChatbot学习了一些不受欢迎的语言

人工智能聊天机器人已经成为社交媒体和其他网站上的规范。Facebook在Messenger中内置了一个非常出色的工具,它被用作提供客户服务和与潜在客户进行快速对话的强大业务工具。但是AI聊天机器人并不完美,以Microsoft的AI聊天机器人为例,该聊天机器人曾短暂地称为“Tay。

Tay于2016年3月发布并为Twitter用户部署,其编程方式是使用典型的千禧一代进行随意自然的交谈。但这只持续了24小时。发生了什么?好吧,该网站上针对了它的漏洞,并操纵Tay发表了非常性别歧视和种族主义的言论。

亚马逊有一个名为“识别”的项目。这是一种基于AI的面部识别软件,已出售给警察机构以用于调查。从本质上讲,它应该交叉分析图像并将执法人员定向到可能的嫌疑人。问题在于它不是很准确。

在美国公民自由联盟马萨诸塞州分会的一项研究中,通过该系统运行了数十名波士顿地区运动员的照片。这些运动员中至少有27名(或大约六分之一)被错误地与面部照相配。其中包括三届超级碗冠军新英格兰爱国者队的杜伦·哈蒙。

你能说不好看吗?

用户在Apple的FaceID中发现缺陷

苹果一直在提出优秀技术。他们已经在智能手机和移动设备行业树立了标准。在大多数情况下,他们会把事情做好。但是有时候他们在行销中可能会显得太勇敢。一个例子是iPhoneX的发布。在发布之前,苹果公司已经在其正面的面部识别系统上投入了大量时间和营销资源,以取代指纹读取器作为访问手机的主要方法。有人声称AI组件非常聪明,读者可以戴眼镜,化妆等,而不会影响功能。这本质上是对的。问题在于,苹果公司还明确表示,FaceID技术不能被面具或其他技术所欺骗。

一家位于越南的安全公司将其视为挑战。他们只用了200美元,就用石粉制成了一个面具,粘贴在一些打印的2D“眼睛”上,然后解锁了手机。这只是在提醒您,大胆的声明有时可能会再次引起人们的注意!

机器狗遇上致命的结局

谁不喜欢机器人小狗的主意?您会获得一台可爱的小机器,而无需吠叫,走路,大便,吃饭或昂贵的兽医账单。但是,如果您正在寻找生活伴侣,则可能不需要此机器人狗。

在2019年,波士顿机器人公司的机器人狗名叫Spot,而他在拉斯维加斯的一次会议上被公司CEO降职时遇上了戏剧性且不合时宜的舞台上的死亡。步行任务使他慢慢地跌跌撞撞,并最终跌倒在地,因为观众不舒服地喘着气并咯咯笑着。

IBM的Waston是一项了不起的技术。这款智能超级计算机在他的带领下取得了许多成就,包括在电视转播的危险游戏中击败了一些世界上最聪明的人。但是,就沃森所知,他还没有被当医生的信任。

在2018年,IBMWatson尝试启动医疗AI系统以提出治疗癌症患者的建议。IBM的目标无非是“消灭癌症”。但是,医院和肿瘤科医生很快就发现了重大缺陷。沃森(Watson)曾建议将出血过多的患者放到会导致更多出血的药物上,这可能会杀死患者!

IBM指责其工程师,称他们以假设和虚构案例为Watson编程,而不是依赖于实际的患者数据和历史病历。、

语音欺骗AI软件Cons首席执行官

伪造品正成为一个严重(且令人震惊)的问题。黑客发现了伪造声音,图片甚至视频的方法。在某些情况下,后果是灾难性的。

2019年3月,一家英国公司的首席执行官在德国母公司打了老板的电话。他被指示将相当于243000美元的款项转移给匈牙利供应商。该请求被标记为紧急请求,并要求首席执行官立即执行。该请求的唯一问题是,该行的另一端不是他的老板。这是一款基于AI的软件,用于模仿老板的声音。

当我们称其为AI失败时,现实是AI软件获胜。

我们可以清楚地看到,人工智能并非没有问题。就业务而言,人工智能的实施仍然面临一些挑战。它们包括:

处理能力有限。尽管AI和ML具有巨大的潜力,但它们利用了大量的处理能力。大多数计算根本没有那么先进。结果,很难在非常特定的环境之外充分利用这些技术。

知识有限。只有少数人真正足够了解AI,可以向市场进行解释。这使采用率无法达到应有的水平,并且正在减缓增长。

缺乏信任。人与计算机之间总是存在一定程度的不信任。尽管关系在过去几年中有所改善,但像本文中概述的那样的失败并没有太大帮助。

数据安全性。为了使AI应用程序正常工作,这些系统需要访问数百万个数据点。这为黑客创建了可能的弱点和漏洞,以使其成为目标并加以折衷。

尽管面临这些挑战,但AI的美丽在于其智能和光彩。不仅世界上许多最伟大的头脑都致力于改善和完善技术,而且将其与机器学习(ML)结合使用时,您将获得自我加油的增长周期,其中每一个问题和错误最终都为更大的发展铺平了道路。效率,准确性和机会。说到机会,以下是我看到的一些最重要的机会:

使大数据变得容易。企业对大数据的问题之一就是寻找方法来理解它。由于要整理的信息太多,因此很难发现如何解释和应用发现。人工智能可以简化这一过程,并导致更好,更有效的流程。

优越的分析。某些AI系统可用于监视,检测和分析各种设置中的更改。企业可以使用它来密切关注竞争对手并了解价格变化,公关活动,社会参与等内容。

更智能的搜索。互联网使世界运转。尤其是,搜索引擎可以确定趋势并控制信息流。诸如Google之类的搜索引擎公司正在使用AI和ML来改变行业,并为客户搜索提供更准确,及时的结果。

AI完美吗?如本文中的故事所示,这真是不可接受!但是它功能强大且不断改进吗?是的。因此,当我们展望未来的一,三年和五年时,请记住,人工智能是一项正在进行的工作。为了达到我们想要的目标,我们必须在过程中不断地解决一些摩擦。

版权声明:本文内容由互联网用户自发贡献,该文观点仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌抄袭侵权/违法违规的内容,一经查实,本站将立刻删除。

上一篇

下一篇