博舍

人工智能的利弊好处和危害都有哪些 人工智能利大于弊的问题有哪些

人工智能的利弊好处和危害都有哪些

随着技术成为我们日常生活中的一部分,人工智能已经成为辩论和讨论的主题,先进的技术在各个领域都得到了广泛的应用,为改善人民生活水平作出了巨大贡献。尽管如此,仍不能确定人工智能的未来,让我们深入研究一下,看看人工智能的利弊?都有哪些好处和哪些危害!

人工智能的好处有哪些

1、减少出错机会

由于机器所做的决策是基于先前的数据记录和算法组合,因此出现错误的机会减少了。这是一项成就,因为解决了需要进行计算困难的复杂问题,可以在没有任何误差范围的情况下完成。

2、正确决策

机器完全没有情感会使它更有效率,它们能够在短时间内做出正确的决定。最好例子是它在医疗保健领域的应用。将人工智能工具整合到医疗保健领域,通过最大限度地降低错误诊断风险,提高治愈率。

3、在危险情境下实施人工智能

在某些人身安全易受伤害的情境下,可以使用装有预定算法的机器。如今,科学家们正在利用复杂的机器来研究海底,在那里人类生存很困难。

这是人工智能有助于克服的最大限制之一。

4、可以连续工作

与人类不同,机器不会累,即使它必须连续工作几小时。这对人类来说是一个重大好处,人类需要时间休息来提高效率。然而,就机器而言,它们的效率不受任何外部因素影响,也不会妨碍持续工作。

人工智能给我们带来的弊端

1、实施起来很昂贵

当将安装、维护和修理的成本结合起来时,人工智能是一个昂贵的提议,那些拥有巨额资金的人和企业可以实施。然而,没有资金的企业和行业会发现很难将人工智能技术应用到他们的流程或战略中。

2、对机器的依赖

随着人类对机器依赖程度的不断增加,我们正处在一个人类难以在没有机器帮助情况下工作的时代。我们过去用过它,毫无疑问,我们将来也会继续用到它,我们对机器的依赖只会增加。因此,人类的心理和思维能力会随着时间推移而降低。

3、取代低技能工作

到目前为止,这是技术专家们首要关注的问题。人工智能很可能会取代许多低技能工作。由于机器可以24*7不间断工作,因此与人类相比,企业更喜欢投资机器。随着我们走向自动化世界,几乎每一项任务都将由机器完成,有可能出现大规模失业。这方面的一个实际例子是无人驾驶汽车,如果无人驾驶汽车开始出现,未来数百万司机将会失业。

4、工作限制

人工智能机器被编程为根据它们所接受的训练和编程来完成某些任务。依靠机器来适应新环境,勇于创新,跳出框框思考将是一个巨大的错误。这是不可能的,因为它们的思维仅限于它们接受过训练的算法。

对待人工智能,我们应该以客观的角度去看待它,扬长避短,充分利用人工智能的优点。希望小编的理解能够帮助你们更进一步了解人工智能。

人工智能的利与弊

1、商业价值很高

一般认为,人工智能有三大商用方向:一是信息聚合;二是评估用户情绪反应;三是与用户建立关系,可以通过这三点建立与用户之间的社交纽带,让他们经常回访。怎么做?给用户反馈。第一步就是要收集用户数据,利用人工智能更好地了解用户,基于大数据的分析,为用户创造优质的、长期的个性化体验。企业就能够相应的赚取更多的商业价值;

2、带来更多新的工作机遇

就像曾经脱离了传统农业、传统手工业的大量劳动力,在现代工业生产和城市服务业中找到新的就业机会那样,人工智能的进步也将如此——由当前数据密集型机器学习、通过机器学习与人工智能会话的系统而延伸出的很多领域,将会在未来带来很多工作机遇;

3、人工智能让人类生活更美好

比如说,人工智能的医疗应用惠及大众。我们医生或许难以保持最新治疗方案和方法,也无法了解所有医学例案。人工智能可以在短时间内分析大量数据,精确判断病症,并找到最佳的治疗方案,为人们提供最好的治疗;

二、人工智能带给我们的弊端

1、大规模的失业

人工智能的发展,导致很多人失业。据人力资源和社会保障部2016年新闻发布会介绍,2016年末中国失业率达4.05%,机器人不会犯错,不会累,不需要休息,不需要工资。这完全可以代替很多职业,例如工人,司机等等不需要思想的工作。如此便会导致大批大批的人失业,大批大批的人整日无所事事;

2、对人类的一次大淘汰

人工智能时代的到来可能是对人类的一次大淘汰。机器人对人类的大淘汰,如果处理不好有可能引发核大战,那将是人类的灾难,人类可能因此而灭亡;

3、人才争夺战导致垄断、贫富分化加剧

人工智能时代的到来,必将引发空前的人才争夺战。谁拥有的各类一流人才数量多质量高,谁就能赢得最后胜利。同时这会导致巨头的垄断、贫富分化加剧;

对待人工智能,我们应该以客观的角度去看待它,扬长避短,充分利用人工智能的优点。希望我的理解能够帮助你们更进一步了解人工智能。

人工智能的利与弊有哪些

带来更多新的工作机遇

就像曾经脱离了传统农业、传统手工业的大量劳动力,在现代工业生产和城市服务业中找到新的就业机会那样,人工智能的进步也将如此——由当前数据密集型机器学习、通过机器学习与人工智能会话的系统而延伸出的很多领域,将会在未来带来很多工作机遇;

人工智能技术,其实就是机械化和自动化的升级产品,可能替代人类解决很多的问题。理论上讲,机械化、自动化和人工智能技术,都会提高生产效率。但是被人工智能技术替代下来的工人,如果找不到合适的工作,也会造成一定的就业压力。并不是所有的老板,都会愿意把生产效率提高之后,产生的高利润分享给工人。

人工智能让人类生活更美好

比如说,人工智能的医疗应用惠及大众。我们医生或许难以保持最新治疗方案和方法,也无法了解所有医学例案。人工智能可以在短时间内分析大量数据,精确判断病症,并找到最佳的治疗方案,为人们提供最好的治疗;

人工智能技术由于是电脑程序,所以非常适合一些精密、危险和持久的工作,这是普通人很难办到的。但是从编程出现的那一刻,程序就不是那么安全的,人工智能技术也是如此。虽然普通人感觉人工智能技术非常厉害,但是在顶级黑客眼中,人工智能技术可能漏洞百出。

人工智能带给我们的弊端

1、大规模的失业

人工智能的发展,导致很多人失业。据人力资源和社会保障部2016年新闻发布会介绍,2016年末中国失业率达4.05%,机器人不会犯错,不会累,不需要休息,不需要工资。这完全可以代替很多职业,例如工人,司机等等不需要思想的工作。如此便会导致大批大批的人失业,大批大批的人整日无所事事;

2、对人类的一次大淘汰

人工智能时代的到来可能是对人类的一次大淘汰。机器人对人类的大淘汰,如果处理不好有可能引发核大战,那将是人类的灾难,人类可能因此而灭亡;

3、人才争夺战导致垄断、贫富分化加剧

人工智能时代的到来,必将引发空前的人才争夺战。谁拥有的各类一流人才数量多质量高,谁就能赢得最后胜利。同时这会导致巨头的垄断、贫富分化加剧;

对待人工智能,我们应该以客观的角度去看待它,扬长避短,充分利用人工智能的优点。希望我的理解能够帮助你们更进一步了解人工智能。返回搜狐,查看更多

人工智能的弊大于利吗

2022/9/816:11人工智能的弊大于利吗?千家网 

人工智能的弊大于利吗?

让我们来了解一下人工智能的缺点,以了解错误是否会导致混乱或破坏。

人类的发展和成长很大程度上依赖于人工智能技术,这一点毋庸置疑。而关于人工智能术语,我们已经为最常用的人工智能术语创建了详细的人工智能术语表,并解释了人工智能的基础知识,以及人工智能对组织和其他人的风险和好处。因此,现在是时候探索人工智能的缺点了。这样当事情不顺利时,可以有所准备。

人工智能的缺点:详细介绍

随着人工智能在日常生活中越来越普遍,人工智能对社会和我们日常生活可能产生的影响是每个人都必须讨论的话题。除了社会影响,人工智能技术的使用也有各种挑战和缺点。如果我们把所有疯狂的想法也算在内,列表应该是这样的:

失业

高成本

人工智能偏见

让人懒惰

无情感

环境影响

法规

安全

人工智能恐怖主义

海量数据需求

超越人类的风险

经验没有改善

缺乏创造力

虚假信息

大型科技公司的统治

当今,我们倾向于认为技术具有超级力量,可以解决我们现在或将来面临的所有问题。或者,反过来说,拥有一些我们可以想象的最糟糕的问题。

尽管这样的预测还为时过早,而且计算机距离成为我们未来幸福的主要威胁还有很长的路要走,但重要的是要注意人工智能并非没有缺点。

人工智能比人类智能好吗?让我们探索一下。

●失业

除了创造就业机会,人工智能也可能导致一些工作岗位的流失。失业是人工智能最大的缺点之一。专家提出的计算机最终将在许多领域超越人类的理论是一个突出的理论。

事实是,这已经开始发生了。随着计算机在企业中变得司空见惯,包括金融机构、零售店、报纸和工厂。

虽然人工智能目前处理简单的日常工作,如管理装配线、分类和分析数据等,但预计不久其将处理更复杂和重要的程序,如设计。

●高成本

如果是客户,则很少需要购买AI工具。但若是想在业务中使用AI,则情况完全不同。这是严重影响企业的人工智能的缺点之一。

鉴于创建设备的工程复杂性,设置基于AI的设备、计算机等涉及巨大的成本。此外,高昂的成本还不止于此,因为维修和维护可能要花费数千美元。

知道Apple花了多少钱研发其虚拟个人助理SIRI吗?该软件的收购花费了惊人的2亿美元。

毫无疑问,每个组织都可以使用负担得起的AI解决方案。然而,开发或实现一些最复杂的系统或专门的机器学习模型可能非常昂贵。

●人工智能偏见

由于人类创造了人工智能算法,任何有意或无意在算法中插入偏见的人都可能这样做。

如果AI算法的开发存在偏差,或者用作算法训练集的数据存在偏差,则它们将产生有偏差的结果。这一现实可能会产生无法预料的影响,类似于歧视性招聘做法和微软的种族主义Twitter聊天机器人所带来的影响。企业必须在创建人工智能算法时适当地设计和训练它们。

●使人类懒惰

人工智能的应用程序使大多数工作自动化,导致人类变得懒惰。人类有沉迷于这些创作的倾向,这对后代来说可能是个问题。这是严重影响未来的人工智能的缺点之一。

●无情感

毫无疑问,机器比人类更有效地执行任务,但无法取代加强团队的人际关系。

与人建立联系的能力对于团队管理至关重要,这是机器无法复制的。

机器只能完成其已经开发或编程的任务;如果被要求完成其他任何事情,经常会失败或提供无用的结果,这可能会产生重大的负面影响。这就需要人情味。

●环境影响

尽管人工智能具有造福环境的潜力,例如,通过创建可以匹配能源需求的智能电网或智能低碳城市。但在当今,人工智能的缺点之一是,由于其高能耗,会严重危害环境。

根据一项研究,训练单个AI模型会产生300,000公斤的二氧化碳排放量,从纽约到北京往返125次航班的排放量,或者是典型(美国)汽车生命周期排放量的五倍。

●法规

虽然技术使地球变得比以往任何时候都小,但这也意味着,需要在各国之间就管理人工智能技术的新法律和法规达成一致,以允许安全和富有成效的跨境互动。

由于我们不再处于泡沫中,一个国家的人工智能政策很容易伤害他国。

●安全

人工智能加速了进步,在许多情况下,超越了人类的理解能力。

由于人工智能系统看待世界的方式,自动化使得人类更难发现诸如网络钓鱼、将病毒引入软件以及操纵人工智能系统以获取个人利益等邪恶行为。

●人工智能恐怖主义

可能会有新的人工智能形式的恐怖主义需要应对,例如自主无人机和机器人群的发展、远程攻击或纳米机器人的疾病传播。

●海量数据需求

人工智能的有效性取决于其数据的数量和口径。如果缺少足够的数据,手机的最新AI软件将给出低于标准的结果。

商业也是如此。许多企业在使用任何定制的AI模型或AI工具之前,都需要少量的数据。

此外,数据必须准确和纯粹。可能需要大量的努力和资金才能使内部数据为AI做好准备。

唯一的例外是使用外部数据集的AI程序。目前有很多这样的工具,或者使用专有算法从Web源收集数据,或者使用供应商拥有的专有数据集。

关键的第一步是弄清楚AI解决方案需要哪些数据。而弄清楚这一点并不总是简单或快速的。

●超越人类的风险

这样的情况激发了许多好莱坞作品的创作灵感。尽管认为计算机将与人类为敌过于戏剧化,但担心人类无法理解机器决策背后的动机的情况更有意义。

●经验没有改善

人工智能无法从经验中学习;如果再次给出相同的命令,其将完成相同的任务。随着时间的推移,可能会导致磨损。人工智能存储了大量数据,但无法以与人类智力相同的方式访问或利用。

●缺乏创造力

人类的创造力是机器无法比拟的。人工智能可以让从数据中学习变得更容易,但其不能让机器与人类的智能和能力完全匹配。根据创建者分析的复杂程度,人工智能驱动的机器输出的准确性会有所不同。

基于人工智能的机器的智能和创造力,取决于人类开发算法的智能和创造性程度,尽管人工智能可以与物联网、大数据、改进的传感器等其他技术结合使用,以提供最大的自动化。因此,人工智能受到规则和算法的约束,无法表现出人类水平的创造力。

●虚假信息

人工智能的另一个缺点是错误信息的激增。

未来有针对性的错误信息策略将越来越多地包含深度伪造,危及民主进程,使社会两极分化。在线机器人可以创建虚假文本,例如修改新闻故事,以推送欺骗性想法或推文,助长了这些错误信息的担忧。

●大型科技公司的统治

大型科技公司控制着人工智能。在全球范围内从事人工智能业务的公司是有风险的,因为其将极大地影响人工智能技术的发展方向。由于它们在搜索、社交媒体、在线购物和应用商店中的主导地位,这些企业几乎完全垄断了用户数据。

他们越来越多地成为其他市场人工智能的主要供应商。这种权力不平衡使民选政府面临被强大的科技公司统治的风险。

让我们看看一些行业,并确定人工智能的负面影响。

人工智能在医疗保健中的优缺点

 

人工智能在医疗保健中的优点  人工智能在医疗保健中的缺点 减少人为错误 实施成本 实时数据 失业 24×7全天候可用 需要人情味 降低培训和运营成本 没有情绪 数字协助 误诊 减轻医生压力 滥用导致威胁 节省时间和资源  缺乏开箱即用的思维 加快决策速度 

 

人工智能在教育中的优缺点

 

人工智能在教育中的优点   人工智能在教育中的缺点    有组织的信息 缺乏人情味 定制化教学 教师失业 沉浸式学习 实施成本 自适应学习 人工智能成瘾 智能节制 数据需求 虚拟现实学习 降低创造力 无偏见评分 维护问题 7/24助理  提高课程质量   更好的调度  减少人为错误 

 

人工智能在会计中的优缺点:

 

人工智能在会计中的优点    人工智能在会计中的缺点 更好的洞察力 寻找正确的算法 更快 会计师失业 降低对人类专家的要求 实施成本 消除欺诈 数据需求 处理大数据 隐私和道德 7/24助理   减少人为错误 

 

人工智能在商业中的优缺点:

人工智能在商业中的优点人工智能在商业中的缺点

减少人为错误实施成本

实时数据失业

24×7全天候可用依赖

降低成本缺乏创造力

业务流程自动化精度问题

提高数据安全性安全

节省时间和资源缺乏开箱即用的思维

改善客户体验

预测分析

人工智能的优缺点:

除了以上的缺点,下面来比较一下人工智能的优缺点:

 

人工智能的优点  人工智能的缺点    减少人为错误 实施成本 高精度工作 失业 24×7全天候可用 未来对人类的威胁 降低培训和运营成本 数据歧视 数字协助 不可持续 帮助重复性工作 滥用导致威胁 改善流程 使人类变得懒惰 加快决策速度 无情感 日常应用 缺乏开箱即用的思维 新发明 

 

总结

每一项新发现或新进步都有其利弊,但作为人类,我们有责任管理并利用发明的优势来改善世界。

我们必须记住,数字化转型需要权衡取舍,有些取舍是有益的,有些取舍有时可能会导致挫折。上述缺点不应阻止我们最大程度地利用人工智能。

人工智能让世界变得更美好的潜力是巨大的。确保AI不会被过度利用至关重要。人工智能有利有弊,但不可否认的是,其对全球经济产生了重大影响。

就像其他所有技术一样,人工智能也有自己的一系列问题。然而,如果认为所有这些问题——包括失业问题,可能会随着人类技能的提高而得到解决——将随着时间的推移而得到解决,也不用过于悲观。

与数据架构师、云计算、数据工程师和机器学习工程师一样,人工智能职业也很热门,且呈上升趋势。

给作者点赞0VS0写得不太好

人工智能的弊大于利吗?

免责声明:本文仅代表作者个人观点,与C114通信网无关。其原创性以及文中陈述文字和内容未经本站证实,对本文以及其中全部或者部分内容、文字的真实性、完整性、及时性本站不作任何保证或承诺,请读者仅作参考,并请自行核实相关内容。

人工智能可能有自主意识了吗

➤大模型、大数据的驱动让人工智能在对话的自然度、趣味性上有了很大突破,但距离具备自主意识还很远。换言之,即便人工智能可以对人类的语言、表情所传递的情绪作出判断,但这主要应用的是自然语言处理、计算机视觉等技术

➤不同于当前依赖数据学习的技术路线,新一代人工智能强调在没有经过数据学习的情况下,可以通过推理作出合理反应,从而与没有见过、没有学过的事物展开交互

➤当前人工智能治理面临的最大挑战,是我们没有一套比较成熟的体系来规制其潜在的风险。在发展科技的同时,必须同步发展我们的规制体系

➤“技术归根结底是由人类来发展和把控的。人类和人工智能的未来,是由人类选择的。”

今年6月,美国谷歌公司软件工程师布莱克·勒莫因称语言模型LaMDA出现自我意识。他认为,LaMDA拥有七八岁孩童的智力,并相信LaMDA正在争取自己作为一个人的权利。

LaMDA是谷歌去年发布的一款专门用于对话的语言模型,主要功能是可以与人类交谈。

为佐证观点,勒莫因把自己和LaMDA的聊天记录上传至互联网。随后,谷歌以违反保密协议为由对其停职。谷歌表示,没有任何证据支持勒莫因的观点。

事实上,“AI(人工智能)是否拥有自主意识”一直争议不休。此次谷歌工程师和LaMDA的故事,再次引发讨论。人们想知道:人工智能技术究竟发展到了怎样的阶段?是否真的具备自主意识?其判定依据是什么?未来我们又该以怎样的能力和心态与人工智能和谐共处?

人工智能自主意识之辨

勒莫因认为LaMDA具有意识的原因有三:一是LaMDA以前所未有的方式高效、创造性地使用语言;二是它以与人类相似的方式分享感觉;三是它会表达内省和想象,既会担忧未来,也会追忆过去。

受访专家告诉《瞭望》新闻周刊记者,上述现象仅仅是因为LaMDA所基于的Transformer架构能够联系上下文,进行高精度的人类对话模拟,故能应对人类开放、发散的交谈。

至于人工智能是否已经具备自主意识,判定标准如何,受访专家表示,对人类意识的探索目前仍属于科技前沿,尚未形成统一定义。

清华大学北京信息科学与技术国家研究中心助理研究员郭雨晨说:“我们说人有自主意识,是因为人知道自己在干什么。机器则不一样,你对它输入内容,它只是依照程序设定进行反馈。”

中国社会科学院科学技术哲学研究室主任段伟文认为,一般意义上,人的自我意识是指对自我具备觉知,但如何认识和理解人类意识更多还是一个哲学问题而不是科学问题,这也是很难明确定义人工智能是否具备意识的原因。

被誉为“计算机科学与人工智能之父”的艾伦·图灵,早在1950年就曾提出图灵测试——如果一台机器能够与人类展开对话而不能被辨别出其机器身份,那么可以称这台机器具有智能。

这一设想随后被具化为,如果有超过30%参与测试的人以为自己在和人说话而非计算机,就可以认为“机器会思考”。

当前随着技术的发展,已经有越来越多的机器能够通过图灵测试。

但清华大学人工智能国际治理研究院副院长梁正告诉《瞭望》新闻周刊记者,图灵测试只能证明机器在表象上可以做到让人无法分辨它与人类的不同,却不能证明机器能够思考,更不能证明机器具备自主意识。

段伟文表示,目前大体有两种方式判定人工智能是否具有自主意识,一种以人类意识为参照,另一种则试图对机器意识进行全新定义。

若以人类意识为参照,要观察机器能否像人一样整合信息。“比如你在阳光下,坐在河边的椅子上看书,有树影落在脸上,有风吹来,它们会带给你一种整体的愉悦感。而对机器来说,阳光、河流、椅子等,是分散的单一元素。”段伟文说。

不仅如此,段伟文说,还要观察机器能否像人一样将单一事件放在全局中思考,作出符合全局利益的决策。

若跳出人类构建自主意识的范式,对机器意识进行重新定义,则需要明白意识的本质是什么。

段伟文告诉记者,有理论认为如果机器与机器之间形成了灵活、独立的交互,则可以称机器具备意识。也有理论认为,可以不追究机器的内心,仅仅把机器当作行为体,从机器的行为表现判断它是否理解所做事情的意义。“比如机器人看到人类喝咖啡后很精神,下次当它观察到人类的疲惫,能不能想到要为人类煮一杯咖啡?”段伟文说。

但在段伟文看来,这些对机器意识进行重新定义的理论,其问题出在,即便能够证明机器可以交互对话、深度理解,但是否等同于具备自主意识尚未有定论。“以LaMDA为例,虽然能够生成在人类看来更具意义的对话,甚至人可以与机器在对话中产生共情,但其本质仍然是在数据采集、配对、筛选机制下形成的反馈,并不代表模型能够理解对话的意义。”

换言之,即便人工智能可以对人类的语言、表情所传递的情绪作出判断,但这主要应用的是自然语言处理、计算机视觉等技术。

郭雨晨直言,尽管在情感计算方面,通过深度学习的推动已经发展得比较好,但如果就此说人工智能具备意识还有些一厢情愿。“把‘意识’这个词换成‘功能’,我会觉得更加准确。”

技术换道

有专家提出,若要机器能思考,先要解决人工智能发展的换道问题。

据了解,目前基于深度学习、由数据驱动的人工智能在技术上已经触及天花板。一个突出例证是,阿尔法围棋(AlphaGo)在击败人类围棋世界冠军后,虽然财力和算力不断投入,但深度学习的回报率却没有相应增长。

一般认为,人工智能可被分为弱人工智能、通用人工智能和超级人工智能。弱人工智能也被称为狭义人工智能,专攻某一领域;通用人工智能也叫强人工智能,主要目标是制造出一台像人类一样拥有全面智能的计算机;超级人工智能类似于科幻作品中拥有超能力的智能机器人。

从产业发展角度看,人工智能在弱人工智能阶段停留了相当长时间,正在向通用人工智能阶段迈进。受访专家表示,目前尚未有成功创建通用人工智能的成熟案例,而具备自主意识,至少需要发展到通用人工智能阶段。

梁正说,大模型、大数据的驱动让人工智能在对话的自然度、趣味性上有了很大突破,但距离具备自主意识还很远。“如果你给这类语言模型喂养大量关于内省、想象等与意识有关的数据,它便更容易反馈与意识有关的回应。”

不仅如此,现阶段的人工智能在一个复杂、专门的领域可以做到极致,却很难完成一件在人类看来非常简单的事情。“比如人工智能可以成为围棋高手,却不具备三岁小孩对陌生环境的感知能力。”段伟文说。

谈及背后原因,受访专家表示,第一是当前人工智能主要与符号世界进行交互,在对物理世界的感知与反应上发展缓慢。第二是数据学习让机器只能对见过的内容有合理反馈,无法处理陌生内容。第三是在数据驱动技术路线下,人们通过不断调整、优化参数来强化机器反馈的精准度,但这种调适终究有限。

郭雨晨说,人类在特定任务的学习过程中接触的数据量并不大,却可以很快学习新技能、完成新任务,这是目前基于数据驱动的人工智能所不具备的能力。

梁正强调,不同于当前主要依赖大规模数据训练的技术路线,新一代人工智能强调在没有经过数据训练的情况下,可以通过推理作出合理反应,从而与没有见过、没有学过的事物展开交互。

相比人类意识的自由开放,以往人工智能更多处在封闭空间。尽管这个空间可能足够大,但若超出设定范畴便无法处理。而人类如果按照规则不能解决问题,就会修改规则,甚至发明新规则。

这意味着,如果人工智能能够超越现有学习模式,拥有对自身意识系统进行反思的能力,就会理解自身系统的基本性质,就有可能改造自身的意识系统,创造新规则,从而成为自己的主人。

“人工智能觉醒”背后

有关“人工智能觉醒”的讨论已不鲜见,但谷歌迅速否认的态度耐人寻味。

梁正表示:“如果不迅速驳斥指认,会给谷歌带来合规性方面的麻烦。”

据了解,关于人工智能是否有自主意识的争论并非单纯技术领域的学术探讨,而关乎企业合规性的基本坚守。一旦认定公司研发的人工智能系统出现自主意识,很可能会被认为违反第2版《人工智能设计的伦理准则》白皮书的相关规范。

这一由美国电气和电子工程师协会2017年发布的规范明确:“根据某些理论,当系统接近并超过通用人工智能时,无法预料的或无意的系统行为将变得越来越危险且难以纠正。并不是所有通用人工智能级别的系统都能够与人类利益保持一致,因此,当这些系统的能力越来越强大时,应当谨慎并确定不同系统的运行机制。”

梁正认为,为避免社会舆论可能的过度负面解读,担心大家认为它培育出了英国作家玛丽·雪莱笔下的弗兰肯斯坦式的科技怪物,以“不作恶”为企业口号的谷歌自然会予以否认。“不仅如此,尽管这一原则对企业没有强制约束力,但若被认为突破了底线,并对个体和社会造成实质性伤害,很有可能面临高额的惩罚性赔偿,因此企业在合规性方面会更为谨慎。”

我国也有类似管理规范。2019年,国家新一代人工智能治理专业委员会发布《新一代人工智能治理原则——发展负责任的人工智能》,提出人工智能治理的框架和行动指南。其中,“敏捷治理”原则主要针对技术可能带来的新社会风险展开治理,强调治理的适应性与灵活性。

中国信息化百人会成员、清华大学教授薛澜在接受媒体采访时表示,当前人工智能治理面临的最大挑战,是我们没有一套比较成熟的体系来规制其潜在的风险。特别是在第四次工业革命背景下,我国的人工智能技术和其他国家一样都处于发展期,没有现成的规制体系,这样就使得我们在发展科技的同时,必须同步发展我们的规制体系。“这可能是人工智能发展面临最大的挑战。”

在梁正看来,目前很难断言新兴人工智能技术具有绝对风险,但必须构造合理的熔断、叫停机制。在治理中既要具有一定的预见性,又不能扼杀创新的土壤,要在企业诉求和公共安全之间找到合适的平衡点。

毕竟,对人类来说,发展人工智能的目的不是把机器变成人,更不是把人变成机器,而是解决人类社会发展面临的问题。

从这个角度来说,我们需要的或许只是帮助人类而不是代替人类的人工智能。

为了人机友好的未来

确保通用人工智能技术有益于人类福祉,一直是人工智能伦理构建的前沿。

薛澜认为,在科技领域,很多技术都像硬币的两面,在带来正面效应的同时也会存在风险,人工智能就是其中一个比较突出的领域。如何在促进技术创新和规制潜在风险之间寻求平衡,是科技伦理必须关注的问题。

梁正提出,有时技术的发展会超越人们预想的框架,在不自觉的情况下出现与人类利益不一致甚至相悖的情况。著名的“曲别针制造机”假说,即描述了通用人工智能在目标和技术都无害的情况下,对人类造成威胁的情景。

“曲别针制造机”假说给定一种技术模型,假设某个人工智能机器的终极目标是制造曲别针,尽管看上去这一目的对人类无害,但最终它却使用人类无法比拟的能力,把世界上所有资源都做成了曲别针,进而对人类社会产生不可逆的伤害。

因此有观点认为,创造出法力高超又杀不死的孙悟空本身就是一种不顾后果的冒险行为。

与其对立的观点则认为,目前这一担忧为时尚早。

“我们对到底什么样的技术路线能够发展出具备自主意识的人工智能尚无共识,现在谈论‘禁止发展’,有种空中楼阁的意味。”梁正说。

商汤科技智能产业研究院院长田丰告诉《瞭望》新闻周刊,现实中人工智能技术伦理风险治理的关键,是产业能够在“预判防范-应用场景-用户反馈-产品改进”中形成市场反馈机制,促成伦理风险识别与敏捷治理。同时,企业内部也需建立完整的科技伦理自律机制,通过伦理委员会、伦理风控流程平台将伦理风险把控落实到产品全生命周期中。

郭雨晨说,人工智能技术发展到目前,仍始终处于人类可控状态,而科技发展的过程本来就伴随对衍生问题的预判、发现和解决。“在想象中的人工智能自主意识出现以前,人工智能技术脚踏实地的发展,已经造福人类社会很多年了。”

在梁正看来,人与人工智能在未来会是一种合作关系,各自具备对方无法达成的能力。“技术归根结底是由人类来发展和把控的。人类和人工智能的未来,是由人类选择的。”

编辑:李华山

2022年08月16日07:42:05

版权声明:本文内容由互联网用户自发贡献,该文观点仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌抄袭侵权/违法违规的内容,一经查实,本站将立刻删除。

上一篇

下一篇