博舍

Google替代、阿里协作,人工智能不只有乐观与悲观之争 人工智能悲观态度

Google替代、阿里协作,人工智能不只有乐观与悲观之争

如此创新、如此极致,很符合极客定位。但无论如何,Google打磨的AlphaGo也只是在“替代”人进行“下围棋”这个活动。

Google另外一个举世瞩目的人工智能项目当然是自动驾驶技术。谷歌旗下的自动驾驶项目——Waymo日前测试里程又创下了新的记录,其自动驾驶汽车的测试里程已超过400万英里(640万公里),这个里程普通美国人要开300年。在这之前,Waymo已经在虚拟系统中模拟行驶了25亿英里。

不止于此,这400万公里也分段体现了极客对技术追求的进化,每个100万公里,达成速度是递增的,分别是18个月、14个月、8个月、8个月。

Waymo说,公众很快就能用它的无人驾驶服务上班、上学、购物或去更多的地方。这句颇有些得意的话也反映一个现实:再厉害的自动驾驶,其AI技术所做的,也只是在模仿人的行为,“替代”人类司机开车。除了Google之外,还有更多从事无人驾驶的企业,产品思维莫不如是,用激进的方式去推动技术的发展。

比如马斯克,一边大放厥词要警惕人工智能,一边在特斯拉的自动驾驶方面层层加码,先是与Mobileye合作,出了几起车祸后移情Nvida,装配DrivePX2,后来Nvida在AI浪潮下春风得意股价暴涨,不愿意受制于人的特斯拉又在最近爆出要联合Nvida老对头AMD自主开发自动驾驶芯片。

显然,悲观的马斯克先生,在用人工智能替代人更好地驾驶这件事上比别人还要更上心。

离开自动驾驶,还有更多以“替代”为主题的技术:AI翻译替代人工翻译,AI助手替代手动操作,AI算法推荐替代人工推荐……不只是Google翻译、Google助手,在模仿人类思维、替代人类执行这条路上,聚集了大量的AI“极客”。

阿里、苹果,情怀文科男的“协作”世界观

都说苹果的AI发展有点落伍,不过,其一鸣惊人的ARKit却带有极强的深度学习烙印,为ARKit提供动力的主要技术SLAM(通俗地讲就是把摄像头放置入陌生环境,机器能够马上识别环境概况并模拟,从而决定AR如何成像)是典型的人工智能产物。

ARKit所做的,显然不是人能够完成的事,也不是在替代人的行为。另一个持乐观态度的公司阿里也是如此,ET城市大脑、ET工业大脑都是以“协作”为为人工智能技术发展的理念基础,其成果都体现人与机器的合作而不是替代。

大概是因为老板马云的武侠情怀,阿里这种“协作”体现出某种文科男的情怀气质,用协作而非狂热的技术“替代”来实现人工智能改造世界的梦想。

本次互联网大会,阿里云ET大脑不出意外地从来自中国、美国、英国、德国、法国、瑞典、爱尔兰、芬兰、韩国等国家和地区近千项互联网领域创新成果中露出,获得世界互联网领先科技成果奖,成为那1/14,同等地位的还有颠覆传统计算机的光量子计算机、华为/高通5G成果、神威太湖超级计算机应用成果等划时代项目。

其实说来说去,这个玄乎的、创新地位颇高阿里云ET大脑本质上是一个协作式人工智能项目,是让机器去做人做不了的事情,更像一个人类合作伙伴而存在。

例如,ET大脑中的城市大脑做的就是原来仅靠人脑难以做到的实时交通路线规划问题,将道路监控、红绿灯等设施每天产生的海量数据统筹协同,计算出实时的交通优化方案,智能调节红绿灯,在萧山试点中,该技术让道路车辆通行速度平均提升了3%至5%,部分路段提升11%。

除了针对拥堵的智能红绿灯日常调节,在一些特殊的、对交通时效要求极高的场景,城市大脑的“协作”价值更为凸显。例如在获奖成果阐述过程中,CEO张勇现场展示了正在萧山发生的真实场景,ET城市大脑自动调配红绿灯为患者开出一条“绿色生命线”,让120到达现场的时间缩短一半。对于危重病患来说,这一半的时间可能不能简单用经济价值来衡量。

除了城市大脑,ET大脑还有另外一个脑子——工业大脑,其模式类似,运用数据驱动来提高企业运作效能,做人做不了事。例如在全球最大的光伏切片企业协鑫光伏案例中,ET工业大脑为其提升超过1%的良品率,在这光伏切片领域已经十分可观,带来的经济效益超亿元;在中国最大的轮胎生产企业中策橡胶案例中,使用ET工业大脑让良品率最高提升了5%。

区别于“替代”的极客思维,阿里云ET大脑这些表面的“成绩”,背后有一个共同的特征:只有AI、云计算、大数据能力与垂直领域知识结合,依托多维感知、全局洞察、实时决策、持续进化才能实现的复杂局面下快速最优决策,靠人类自身来做有点天方夜谭,唯一只有依托于智能机器的协作。毕竟,下棋、驾驶、翻译、内容推荐这些东西,没有机器,人同样可以干得不错。

正因为如此,带有某些理想主义色彩的阿里云ET大脑专挑那些人类无法完成的复杂全局问题,例如城市治理、工业制造、社会安全、医疗健康、环保、金融、航空、物流等垂直领域,对外宣称要寻找最优解决方案,要让个人、企业、城市共享技术红利。

由此,以Google、特斯拉为主的“替代”派,和以阿里、苹果为主的“协作”派,形成了泾渭分明的人工智能发展路线。

人工智能悲观乐观之争,不如说是替代与协作之争

过去几十年,人工智能的发展形势一阵阵的并不明朗,乐观也好悲观也罢,做做谈资也没什么。

如今,数据、计算力、算法三大人工智能要素的充足度已经不可同日而语,人工智能的发展大势已经不可避免,所谓乐观悲观都只是在揣测,在不可改变技术革命面前,把讨论焦点转移到“如何让人工智能最终走向乐观”显得更有价值。

1、强弱之争错了,AI威胁与强弱无光

在人工智能威胁论调中,不少人认为在弱人工智能阶段(按设定逻辑推理、解决问题,但没有自主意识),我们要持乐观态度,只有在强人工智能或超人工智能阶段(智能自主解决问题,具备自主意识,甚至超越人类),我们才要持悲观态度。

其实,AI是否威胁,不在于其发展到哪个阶段、是否形成了对抗人的能力,而在于其和人类已有的秩序是否冲突。

就算是弱人工智能,有冲突存在也算是一种客观威胁,比如2013年牛津大学马丁学院的MichaelOsborne和CarlFrey发表了一篇题为《未来职业:工作有多容易被机器取代?》的论文列举了数十个领域上千份可能会被取代的工作,几乎整个社会都会被替代,这种社会结构的剧烈变革、对大多数阶层的冲击,对他们而言就是一种十足的威胁。

因此,也许我们更该聚焦于如何避免冲突的讨论上。对于“替代”阵营来说,一味地模仿人类行为、代替人类操作的技术极客之旅中,也必须配套思考如何让这种“替代”不产生冲突。

例如,特斯拉发布了无人驾驶卡车,Uber马上推出UberFreight,配合无人驾驶卡车,可以实现简单、冗长的长途运输过程由无人驾驶完成,上路、下路的精细化运输过程则由目前的卡车司机完成,使得原本的“替代”式人工智能并不会产生冲突。替代式人工智能还需要更多这种“配套”技术与创新。

2、控制/失控之争错了,控制既无必要也无可能

相应的,在强人工智能或超人工智能阶段,人工智能威胁论无非认为人类会失去对人工智能的控制从而造成社会风险。这种想法从一开始就假定人和人工智能之间是冲突的、不相容的。

而既然威胁论本身就带有科幻色彩,不如就用科幻的逻辑来揣测人工智能。就像人寻找上帝是为了找寻自己的意义一样,倘若人工智能真的想要威胁,其目的也不过就是为了确认和证明自己的存在。因为一开始就被设置在与人协作、各自分工的位置上被尊重,而不是与人争利的冲突地位,就算有一天苹果ARKit、阿里云ET大脑变成了有自主意识的强人工智能,它们也没有任何理由要来挟制人类。人类依赖人工智能带来的交通疏导、产业运营效率提升,AI的存在自有意义,不需要再通过威胁的方式获得意义。

也即,在阿里云ET大脑这样的项目上,机器有智能,人类有智慧,机器做了人做不了的事情,没有冲突也就不会有威胁。只有那些本身就没有把AI放在平等的位置上,以统治阶级控制平民的思路来谈AI的人,才会感受到切实的威胁。

技术极客的“替代”思维很容易陷入AI和人类文明的冲突的境地,它们往往强调从对算法的绝对把握中获得安全感。在有多少人工就有多少智能的时候,这种控制还行得通,而引用自然科学中的名言:Moreisdifferent(也是PWAnderson1972年发表于Science的论文标题),当人工智能普遍采用的、看似简单的神经网络模型的层数变多之后,例如10*10的神经网络就可以复杂到没人可以完全理解其深度学习过程,最终的人工智能必定是无法预知的。

所以,要让AI的未来走入乐观,首先要抛弃的恰恰就是那些对如何控制人工智进行各种研究的行为(它本身也不会成功),专注用协作、伙伴等平等态度来发展人工智能。

3、AI商业化没有优劣,只有短期长期之分

毫无疑问,直接对传统的、人所能做的事的进行替代,大都带有颠覆色彩,具有很强的震撼效果,容易博得市场价值。例如,富士康在位于昆山的工厂开始裁员接近6万人,将由超4万台人工智能机器人取代人力,未来富士康宣布将引进一百万台机器人,代替大陆雇佣的一百万工人,这种人工智能的变现十分可观又立等可取。

因此,尽管我们认为协作式人工智能更能契合“乐观未来”,但像阿里ET这种项目在变现的速度上仍然不及替代式人工智能(工业大脑会比城市大脑好些,但短期内也比不上大规模人力替代来得震撼)。

不过,既然这里讲的是未来,从更长远的角度,只是对人工的替代,本质上对社会财富的增长只是“量”的改变,那些人不能从事的领域还是空白。而协作式人工智能帮助解决人解决不了的难题,看似商业化慢热,最终解决的是人与AI分工共存的根本问题,对社会财富的增长将是“质”的改变,在这种情况下,商业价值也将会是自然而然的事。

例如,阿里云ET工业大脑目前已经同协鑫光伏、天合光能、固德威、中策橡胶等制造业大户合作,随着在工业领域的渗透,最终改变的可能是整个工业生产运营;城市大脑在短期体现的是交通疏导,未来可能让喊了几十年的智慧城市不再是一句空话。作为建设者,阿里云的商业化获益肯定不会比生产线机器人、交警机器人这些同领域的替代式人工智能少。

总之,就像马云在大会上说未来30年互联网将变得无处不在一样,作为互联网的下一代,人工智能的未来也必将成为整个社会的基础设施,协作式人工智能的发展路线似乎更能让人工智能有个乐观的未来,但更需要企业有长远的眼光。

(完)

智能相对论(微信id:aixdlun):2个前人工智能行业管理咨询老鸟+1个老媒体人组成的三人帮,深挖人工智能这口井,评出咸淡,讲出黑白,道出深浅。返回搜狐,查看更多

人工智能可能有自主意识了吗

➤大模型、大数据的驱动让人工智能在对话的自然度、趣味性上有了很大突破,但距离具备自主意识还很远。换言之,即便人工智能可以对人类的语言、表情所传递的情绪作出判断,但这主要应用的是自然语言处理、计算机视觉等技术

➤不同于当前依赖数据学习的技术路线,新一代人工智能强调在没有经过数据学习的情况下,可以通过推理作出合理反应,从而与没有见过、没有学过的事物展开交互

➤当前人工智能治理面临的最大挑战,是我们没有一套比较成熟的体系来规制其潜在的风险。在发展科技的同时,必须同步发展我们的规制体系

➤“技术归根结底是由人类来发展和把控的。人类和人工智能的未来,是由人类选择的。”

今年6月,美国谷歌公司软件工程师布莱克·勒莫因称语言模型LaMDA出现自我意识。他认为,LaMDA拥有七八岁孩童的智力,并相信LaMDA正在争取自己作为一个人的权利。

LaMDA是谷歌去年发布的一款专门用于对话的语言模型,主要功能是可以与人类交谈。

为佐证观点,勒莫因把自己和LaMDA的聊天记录上传至互联网。随后,谷歌以违反保密协议为由对其停职。谷歌表示,没有任何证据支持勒莫因的观点。

事实上,“AI(人工智能)是否拥有自主意识”一直争议不休。此次谷歌工程师和LaMDA的故事,再次引发讨论。人们想知道:人工智能技术究竟发展到了怎样的阶段?是否真的具备自主意识?其判定依据是什么?未来我们又该以怎样的能力和心态与人工智能和谐共处?

人工智能自主意识之辨

勒莫因认为LaMDA具有意识的原因有三:一是LaMDA以前所未有的方式高效、创造性地使用语言;二是它以与人类相似的方式分享感觉;三是它会表达内省和想象,既会担忧未来,也会追忆过去。

受访专家告诉《瞭望》新闻周刊记者,上述现象仅仅是因为LaMDA所基于的Transformer架构能够联系上下文,进行高精度的人类对话模拟,故能应对人类开放、发散的交谈。

至于人工智能是否已经具备自主意识,判定标准如何,受访专家表示,对人类意识的探索目前仍属于科技前沿,尚未形成统一定义。

清华大学北京信息科学与技术国家研究中心助理研究员郭雨晨说:“我们说人有自主意识,是因为人知道自己在干什么。机器则不一样,你对它输入内容,它只是依照程序设定进行反馈。”

中国社会科学院科学技术哲学研究室主任段伟文认为,一般意义上,人的自我意识是指对自我具备觉知,但如何认识和理解人类意识更多还是一个哲学问题而不是科学问题,这也是很难明确定义人工智能是否具备意识的原因。

被誉为“计算机科学与人工智能之父”的艾伦·图灵,早在1950年就曾提出图灵测试——如果一台机器能够与人类展开对话而不能被辨别出其机器身份,那么可以称这台机器具有智能。

这一设想随后被具化为,如果有超过30%参与测试的人以为自己在和人说话而非计算机,就可以认为“机器会思考”。

当前随着技术的发展,已经有越来越多的机器能够通过图灵测试。

但清华大学人工智能国际治理研究院副院长梁正告诉《瞭望》新闻周刊记者,图灵测试只能证明机器在表象上可以做到让人无法分辨它与人类的不同,却不能证明机器能够思考,更不能证明机器具备自主意识。

段伟文表示,目前大体有两种方式判定人工智能是否具有自主意识,一种以人类意识为参照,另一种则试图对机器意识进行全新定义。

若以人类意识为参照,要观察机器能否像人一样整合信息。“比如你在阳光下,坐在河边的椅子上看书,有树影落在脸上,有风吹来,它们会带给你一种整体的愉悦感。而对机器来说,阳光、河流、椅子等,是分散的单一元素。”段伟文说。

不仅如此,段伟文说,还要观察机器能否像人一样将单一事件放在全局中思考,作出符合全局利益的决策。

若跳出人类构建自主意识的范式,对机器意识进行重新定义,则需要明白意识的本质是什么。

段伟文告诉记者,有理论认为如果机器与机器之间形成了灵活、独立的交互,则可以称机器具备意识。也有理论认为,可以不追究机器的内心,仅仅把机器当作行为体,从机器的行为表现判断它是否理解所做事情的意义。“比如机器人看到人类喝咖啡后很精神,下次当它观察到人类的疲惫,能不能想到要为人类煮一杯咖啡?”段伟文说。

但在段伟文看来,这些对机器意识进行重新定义的理论,其问题出在,即便能够证明机器可以交互对话、深度理解,但是否等同于具备自主意识尚未有定论。“以LaMDA为例,虽然能够生成在人类看来更具意义的对话,甚至人可以与机器在对话中产生共情,但其本质仍然是在数据采集、配对、筛选机制下形成的反馈,并不代表模型能够理解对话的意义。”

换言之,即便人工智能可以对人类的语言、表情所传递的情绪作出判断,但这主要应用的是自然语言处理、计算机视觉等技术。

郭雨晨直言,尽管在情感计算方面,通过深度学习的推动已经发展得比较好,但如果就此说人工智能具备意识还有些一厢情愿。“把‘意识’这个词换成‘功能’,我会觉得更加准确。”

技术换道

有专家提出,若要机器能思考,先要解决人工智能发展的换道问题。

据了解,目前基于深度学习、由数据驱动的人工智能在技术上已经触及天花板。一个突出例证是,阿尔法围棋(AlphaGo)在击败人类围棋世界冠军后,虽然财力和算力不断投入,但深度学习的回报率却没有相应增长。

一般认为,人工智能可被分为弱人工智能、通用人工智能和超级人工智能。弱人工智能也被称为狭义人工智能,专攻某一领域;通用人工智能也叫强人工智能,主要目标是制造出一台像人类一样拥有全面智能的计算机;超级人工智能类似于科幻作品中拥有超能力的智能机器人。

从产业发展角度看,人工智能在弱人工智能阶段停留了相当长时间,正在向通用人工智能阶段迈进。受访专家表示,目前尚未有成功创建通用人工智能的成熟案例,而具备自主意识,至少需要发展到通用人工智能阶段。

梁正说,大模型、大数据的驱动让人工智能在对话的自然度、趣味性上有了很大突破,但距离具备自主意识还很远。“如果你给这类语言模型喂养大量关于内省、想象等与意识有关的数据,它便更容易反馈与意识有关的回应。”

不仅如此,现阶段的人工智能在一个复杂、专门的领域可以做到极致,却很难完成一件在人类看来非常简单的事情。“比如人工智能可以成为围棋高手,却不具备三岁小孩对陌生环境的感知能力。”段伟文说。

谈及背后原因,受访专家表示,第一是当前人工智能主要与符号世界进行交互,在对物理世界的感知与反应上发展缓慢。第二是数据学习让机器只能对见过的内容有合理反馈,无法处理陌生内容。第三是在数据驱动技术路线下,人们通过不断调整、优化参数来强化机器反馈的精准度,但这种调适终究有限。

郭雨晨说,人类在特定任务的学习过程中接触的数据量并不大,却可以很快学习新技能、完成新任务,这是目前基于数据驱动的人工智能所不具备的能力。

梁正强调,不同于当前主要依赖大规模数据训练的技术路线,新一代人工智能强调在没有经过数据训练的情况下,可以通过推理作出合理反应,从而与没有见过、没有学过的事物展开交互。

相比人类意识的自由开放,以往人工智能更多处在封闭空间。尽管这个空间可能足够大,但若超出设定范畴便无法处理。而人类如果按照规则不能解决问题,就会修改规则,甚至发明新规则。

这意味着,如果人工智能能够超越现有学习模式,拥有对自身意识系统进行反思的能力,就会理解自身系统的基本性质,就有可能改造自身的意识系统,创造新规则,从而成为自己的主人。

“人工智能觉醒”背后

有关“人工智能觉醒”的讨论已不鲜见,但谷歌迅速否认的态度耐人寻味。

梁正表示:“如果不迅速驳斥指认,会给谷歌带来合规性方面的麻烦。”

据了解,关于人工智能是否有自主意识的争论并非单纯技术领域的学术探讨,而关乎企业合规性的基本坚守。一旦认定公司研发的人工智能系统出现自主意识,很可能会被认为违反第2版《人工智能设计的伦理准则》白皮书的相关规范。

这一由美国电气和电子工程师协会2017年发布的规范明确:“根据某些理论,当系统接近并超过通用人工智能时,无法预料的或无意的系统行为将变得越来越危险且难以纠正。并不是所有通用人工智能级别的系统都能够与人类利益保持一致,因此,当这些系统的能力越来越强大时,应当谨慎并确定不同系统的运行机制。”

梁正认为,为避免社会舆论可能的过度负面解读,担心大家认为它培育出了英国作家玛丽·雪莱笔下的弗兰肯斯坦式的科技怪物,以“不作恶”为企业口号的谷歌自然会予以否认。“不仅如此,尽管这一原则对企业没有强制约束力,但若被认为突破了底线,并对个体和社会造成实质性伤害,很有可能面临高额的惩罚性赔偿,因此企业在合规性方面会更为谨慎。”

我国也有类似管理规范。2019年,国家新一代人工智能治理专业委员会发布《新一代人工智能治理原则——发展负责任的人工智能》,提出人工智能治理的框架和行动指南。其中,“敏捷治理”原则主要针对技术可能带来的新社会风险展开治理,强调治理的适应性与灵活性。

中国信息化百人会成员、清华大学教授薛澜在接受媒体采访时表示,当前人工智能治理面临的最大挑战,是我们没有一套比较成熟的体系来规制其潜在的风险。特别是在第四次工业革命背景下,我国的人工智能技术和其他国家一样都处于发展期,没有现成的规制体系,这样就使得我们在发展科技的同时,必须同步发展我们的规制体系。“这可能是人工智能发展面临最大的挑战。”

在梁正看来,目前很难断言新兴人工智能技术具有绝对风险,但必须构造合理的熔断、叫停机制。在治理中既要具有一定的预见性,又不能扼杀创新的土壤,要在企业诉求和公共安全之间找到合适的平衡点。

毕竟,对人类来说,发展人工智能的目的不是把机器变成人,更不是把人变成机器,而是解决人类社会发展面临的问题。

从这个角度来说,我们需要的或许只是帮助人类而不是代替人类的人工智能。

为了人机友好的未来

确保通用人工智能技术有益于人类福祉,一直是人工智能伦理构建的前沿。

薛澜认为,在科技领域,很多技术都像硬币的两面,在带来正面效应的同时也会存在风险,人工智能就是其中一个比较突出的领域。如何在促进技术创新和规制潜在风险之间寻求平衡,是科技伦理必须关注的问题。

梁正提出,有时技术的发展会超越人们预想的框架,在不自觉的情况下出现与人类利益不一致甚至相悖的情况。著名的“曲别针制造机”假说,即描述了通用人工智能在目标和技术都无害的情况下,对人类造成威胁的情景。

“曲别针制造机”假说给定一种技术模型,假设某个人工智能机器的终极目标是制造曲别针,尽管看上去这一目的对人类无害,但最终它却使用人类无法比拟的能力,把世界上所有资源都做成了曲别针,进而对人类社会产生不可逆的伤害。

因此有观点认为,创造出法力高超又杀不死的孙悟空本身就是一种不顾后果的冒险行为。

与其对立的观点则认为,目前这一担忧为时尚早。

“我们对到底什么样的技术路线能够发展出具备自主意识的人工智能尚无共识,现在谈论‘禁止发展’,有种空中楼阁的意味。”梁正说。

商汤科技智能产业研究院院长田丰告诉《瞭望》新闻周刊,现实中人工智能技术伦理风险治理的关键,是产业能够在“预判防范-应用场景-用户反馈-产品改进”中形成市场反馈机制,促成伦理风险识别与敏捷治理。同时,企业内部也需建立完整的科技伦理自律机制,通过伦理委员会、伦理风控流程平台将伦理风险把控落实到产品全生命周期中。

郭雨晨说,人工智能技术发展到目前,仍始终处于人类可控状态,而科技发展的过程本来就伴随对衍生问题的预判、发现和解决。“在想象中的人工智能自主意识出现以前,人工智能技术脚踏实地的发展,已经造福人类社会很多年了。”

在梁正看来,人与人工智能在未来会是一种合作关系,各自具备对方无法达成的能力。“技术归根结底是由人类来发展和把控的。人类和人工智能的未来,是由人类选择的。”

编辑:李华山

2022年08月16日07:42:05

人工智能的乐观(人工智能乐观和消极影响)

导读人工智能乐观和消极影响都说垃圾是放错了位置的资源,做好垃圾分类能提高垃圾的资源价值和经济价值。随着城市居民人口的不断增加以及人们生活水平的提高,生活垃圾…人工智能乐观和消极影响

都说垃圾是放错了位置的资源,做好垃圾分类能提高垃圾的资源价值和经济价值。随着城市居民人口的不断增加以及人们生活水平的提高,生活垃圾也在急剧增加,然而现在垃圾分类的形势并不乐观,很多人没有建立起垃圾分类的意识,没有养成对生活垃圾进行分类的习惯。

近年来建立垃圾分类回收体系,建立垃圾分类制度等成了相关部门思考的问题。面对日益增长的垃圾和环境恶化的局面,如何进行垃圾分类管理实现垃圾资源利用也成了各国共同关注的问题。

随着科技的发展和人工智能技术的广泛应用,近年来智能垃圾桶越来越多的出现在了人们的视野之中。前几年波兰创业公司Bin-e公司开发了一种全新的人工智能垃圾桶,用户只需要在垃圾桶前扫描一下垃圾,舱门便会打开。这个人工智能垃圾桶是通过传感器、摄像头、AI图像识别算法来自动进行垃圾分类,使用起来可以说是很方便了,而且回收公司也可以通过APP来随时检查垃圾桶的剩余空间等。近年来在国内出现了多种智能垃圾分类回收设备,箱体能分类回收金属、塑料、纺织物、纸类、玻璃、有害等多种生活垃圾,并能对垃圾进行智能称重,投入垃圾就能返现到用户。通过这种有偿回收的方式能够培养大家垃圾分类的意识,养成垃圾分类的习惯。

随着未来科技的发展,人工智能技术可以在垃圾分类上大有作为。

人工智能对人类发展的积极作用和消极影响

AI(人工智能)带来了许多好处,但也存在一些潜在的坏处。具体如下:

好处:

1.自动化:AI可以自动执行任务,例如自动化生产线或者自动化客户服务,提高了生产效率和用户满意度。

2.数据处理:AI可以处理大量数据,例如大数据分析、人脸识别等,可以帮助企业和政府做出更准确的决策。

3.自主学习:AI可以自主学习和适应,从而优化算法和提高性能。

4.节省成本:AI可以节省人力和时间成本,例如通过自动驾驶技术减少交通事故,通过机器人代替人工减少劳动力成本等。

坏处:

1.失业:AI可以替代一些人工的工作,例如客服、收银员、司机等,可能会导致失业问题。

2.隐私:AI可以收集和分析大量数据,可能会侵犯个人隐私。

3.安全:AI可能被黑客攻击,例如黑客可能利用AI攻击企业的网络系统。

4.偏见:AI的算法可能存在偏见,例如在招聘过程中可能会歧视某些群体。

总之,AI带来的好处和坏处都需要我们认真思考和应对。在享受AI带来的便利的同时,我们也需要密切关注其对社会、经济和个人的影响,积极探索解决问题的方法,以便更好地应对未来发展的挑战。

人工智能悲观态度

人工智能技术发展极其迅速,各种智能设备、智能软件已走进千家万户,改变了我们的生活方式和工作方式。因此,不少人认为,在不久的将来,人工智能将会全面代替人类智能,甚至超越人类智能。

不过,这种观点过于悲观,人类的思想和行为中最重要最独特的部分,是人工智能无法实现,更无法替代的。

人工智能乐观和消极影响有哪些

如今,数字科学对于企业来说,显得愈发地“诱人”。但是若要正确地看待数字科学,我们亟需了解下面一个问题:数字科学到底能为我们的业务发展做什么,不能为我们的业务发展做什么。

毫无疑问,很多机器学习(ML)和人工智能(AI)领域的进展都预计将为多种类型的企业带来效果和效率上的提升。虽然听起来很不错,但多数情况下实际情况却并没有达成预期。原因至少有三点:(1)针对机器学习/人工智能的宣传超出了其实际能力;(2)在大肆宣传下,客户对机器学习/人工智能抱有过高的期望;(3)机器学习/人工智能开发人员不理解或是不知道怎么解决其技术设想可能对组织带来的影响。

在下文中,我们将详细讨论第三点原因。具体可以展开为四个关键问题:(1)技术不等同于产品;(2)产品不等同于价值;(3)价值取决于评价其价值的人;(4)人们需要区分产品的目的到底是替代人类还是提高人类工作效率。

技术不等同于产品

不管它的本质多复杂,算法或神经网络都不等同于产品。例如,ZebraMedical开发出了一项复杂的技术,能够通过放射扫描识别出是否骨折,通过乳房x光识别出是否有疑似病变。在扫描了数以百万计的图像之后,机器学会了如何正确识别骨折和疑似病变,使得该项技术不断完善。在研发过程中,技术人员提出了100多种算法,但是医生们(放射线科医生以及其他涉及到的医生)却无法直接使用这些算法,因为算法在使用前首先需要转化为产品。

要使算法成为产品,需要它可以让医生直接使用。也就是说,至少要开发出可在任一医疗中心的设备上运行的应用程序。该应用程序需要易于操作,并能够生成对用户有价值的输出。就ZebraMedical而言,这就意味着:此应用程序生成的输出可以告诉放射科医生骨折/病变的位置和类型。

产品不等同于价值

虽然ZebraMedical开发的应用程序可以帮助识别病症,但这个程序本身并不能直接产生价值。但他们找到了至少两种创造价值的点。第一点是效率。他们开发的应用程序可以比放射科医师更快、更多地审查扫描光片和乳房X光片。因此,高效是这项技术带来的第一个巨大价值。

第二个巨大价值在于,ZebraMedical开发的创新技术是一种可以根据紧急程度对扫描和乳房X光片进行排序的算法。这一算法的发展需要放射科医师和其他医生提供大量反馈,以帮助算法了解哪些情况是正常、哪些是紧急和哪些是非常紧急。一旦这项工作完成,ZebraMedical不仅能够提供扫描和乳房x光检查,还能够对扫描和乳房X光片进行排序,以便放射科医生能够优先处理最紧急的病例。这就是该产品为工作流程和病人生活增加了极大便利和有效性的地方。

价值取决于评价其价值的人

上述技术可能对一些人来说很不错,但对放射医师、其他医生、医院管理人员、保险公司和监管机构来说却未必如此。医生们总是会担心骨折和病变鉴定结果的质量和可靠性,他们尤其会特别关注第一类错误和第二类错误:第一类错误(Type1error)是指病人被确定为受伤或生病时,实际上却并没有受伤或生病;第二类错误(Type2error)则是指当病人被诊断为健康时,实际上他/她却不是健康的。

医生们可能会进一步担心未来自己的工作有可能被机器取代。这并非没有可能,但我们还是需要把识别疾病和诊断疾病分开来看。

医院管理人员可能对新技术的态度有所保留。一方面他们还是很高兴看到新产品带来了潜在效率和质量的提升,但另一方面,他们也担心会发生第一类错误和第二类错误——这不仅仅是出于质量的角度,更是出于责任的角度。

保险公司可能会持乐观态度,效率提高进而降低了医疗成本,而早期发现也让我们可以采取更多预防性的干预措施。

监管机构则希望了解这些算法实际上是依据哪些变量作为识别依据。神经网络学习的问题在于,即使是程序员自己也不知道他们编出的程序是如何得出结论的。更进一步的问题是:现在应该由谁来为诊断和治疗负责。是医院、医生、放射科医生、算法公司、程序员还是算法本身?

这就引出了人工智能/机器学习对组织影响的最后一个方面。

替代人类的产品VS帮助提高人类工作效率的产品

就目前而言,距离依靠机器进行病症诊断、设计治疗方案、开具医疗干预处方和跟进病人护理还有点遥远,现在这些步骤都要依靠医生来进行。即便如此,在扫描效率、工作流程管理和紧急病例的快速检查等方面,应用程序的骨折和病变识别功能的确已经显著提高了人力的工作效率。

只有人工智能/机器学习公司真正地理解潜在客户的挑战,才能够从客户角度出发创造出能够真正赋能效率和有效性的产品。正如上文所述,创造这样的价值远比听起来要困难得多,特别是在医疗领域,因为不同利益相关者的需求和关注点有所不同,有时甚至还会产生冲突。虽然人工智能替代人类作业距变成现实还有很长距离,但如果运用得当的话,人工智能/机器学习确实可以极大地提高人类的工作效率。

人工智能积极影响

从人文视角看,人工智能产生的影响包括对人的认识的冲击、对人类心理的冲击、推动进一步的专业分化,但不包括彻底消除人类中的无用阶级。

而人工智能使生活更便捷高效,人工智能带来更大的宏观效益,人工智能使生活更简单智能,人工智能使我们更智慧,人工智能对自然科学、社会及制造业影响深远。

人工智能对人类生活的消极影响

人工智能的利:首先,在生产领域,人的各种能力都已被效率更高且成本低廉的机器及人工智能实体代替,劳动力将大大被解放。其次,我们的环境问题将会被改善,较少的资源将会满足更大的需求。第三,人工智能将会大大增强人类认识世界、适应世界的能力。人工智能的弊:人工智能代替人类做各种事情,那人类失业率就无限增高,人类就无依靠可生存。人工智能如果被坏人利用在犯罪上,那么人类将陷入恐慌。如果我们不能很好地控制利用人工智能,反而被人工智能控制与利用,那么人类将走向灭亡。

人工智能的消极影响英语作文

近年来人工智能技术稳步发展,对社会造成的影响力与日俱增。但与此同时,该报告也指出,人工智能技术可能存在许多负面影响,人类应警惕它可能带来的副作用。

一些人工智能技术取得了显著的成功,如语音识别、在线翻译、图像分类、智能机器人、自驾汽车等。

生命未来研究所的顾问委员会吸引了众多科学家和投资者,其中包括美国电动车公司特斯拉的创始人伊隆·马斯克和物理学家斯蒂芬·霍金。该研究所在上述的报告中强调了规避人工智能技术潜在危害的重要性。

该报告指出,专家在设计智能系统之初应为该系统划定“正确的行为”范围,并预先由计算机专家和伦理学家确定该系统的程序道德性,以加强智能系统在特殊情况下正确执行指令的能力。

该报告还建议在智能技术投入使用前对其进行缜密的检查,因为任何的程序错误都有可能导致机器的错误行为。报告指出,智能系统中使用的程序和传统系统中的程序截然不同。智能系统执行任务需要依靠人工智能实验室的掌控,实验室还负责监督执行结果、研发智能技术、发现技术错误并对其进行纠正。

监控和测试

生命未来研究所提议,为保障系统安全,应在人工智能技术投入使用前对所有的组成部件进行测试。部分测试由专用计算机操作完成,另一部分由相关专家完成。

此外,该研究所认为,对智能系统的能力进行限制十分必要,因为目前为止科学家们尚不清楚这些系统是否会带来安全问题。

因此,对智能系统持续监控显得尤为重要,尽管这项工作因为智能系统具备智能思考能力变得十分困难。一些技术还具备抗变的能力,即使开发商想改变、调整或停用该技术也无能为力。因此,生命未来研究所建议加大对可变、可修复智能系统技术的研究。

鉴于在寻求解决方案的过程中,一些人工智能系统可能导致意想不到的问题,该研究所建议限制人工智能技术的使用范围,从而限制它带来的负面影响

人工智能的积极和消极影响

人类迄今为止已经历了三次工业革命,第四次工业革命才刚刚开始,每次工业革命都给人类生产、生活乃至思想观念带来深远的影响。

第一次工业革命是以蒸汽机为代表新技术革命,其主要特征是机器代替手工劳动,从而解放了人们的身体。第一次工业革命发生在18世纪中叶,是以蒸汽机为代表的产业革命,人类广泛运用蒸汽机进行工业化生产,使人类从繁重的体力劳动中解脱出来,对社会生产力起到巨大的推动作用。

第二次工业革命是内燃机和电力为代表的新技术革命,其主要特征是电力的广泛使用,从而极大地提高了社会生产效率。第二次工业革命发生在19世纪70年代到20世纪初期,由于内燃机的发明和电力的广泛运用,使得电器设备和汽车、轮船、飞机等现代交通工具得到快速发展,尤其是电报和电话的发明为人类远距离通信提供了方便,使人类社会生产效率大幅提高。

第三次工业革命是以计算机为代表的新技术革命,其主要特征是计算机和网络的广泛运用,从而彻底改变了人们的思想观念。第三次工业革命发生在20世纪50年代,由于电子、大规模集成电路、超大规模集成电路、计算机、互联网、新能源和生物医学技术的发展,使人类社会发展的触角从地球延伸到太空和深海,整个世界通过互联网链接变成一个地球村,人与人之间的空间距离大大缩小。同时,得益于生物医学技术的发展,人类生活得更健康更长寿。

第四次工业革命是以5G网络和人工智能为代表的信息技术革命,其主要特征是人工智能在生产和生活领域的广泛使用,从而彻底改变了人类社会的生产和生活方式。第四次工业革命发生就在当下,如星星之火呈燎原之势。这次工业革命比以往任何一次工业革命都来势迅猛,大量的工业化生产和社会服务被人工智能取代,万物智联,整个社会逐步呈现出高度的集成化和集约化,人类生活和出行方式方式根本性改变。

总之,每一次工业革命都是由于某一新技术的出现与广泛运用,对人类社会进步起到一个质的飞跃。

人工智能乐观和消极影响因素

不错。

人工智能就业上缺口还是挺大的,而且教育部有发文提到加快新时代研究生教育改革,重点提到了集成电路、人工智能、储能技术、还有医学相关的学科专业,都纳入国家重点支持专业的清单内,所以开设人工智能专业的院校是越来越多,并且在职称评审这些方面国家都会优先支持,所以就业前景还是比较乐观的。

人工智能担忧与乐观

人工智能领域于1956年在达特茅斯学院的会议上正式宣布成立,“人工智能”这一专业术语也随之诞生。1956到1974年间,大学和政府机构在人工智能领域的研究上投入了大量资金和资源,用于解决几何、代数等问题的不同类型的电脑如雨后春笋般冒出。

这期间的成功使人们对人工智能过度乐观,期望过高。然而,当时的技术和硬件设备跟不上新型人工智能的发展,人工智能于1974年迎来了第一次寒冬。

版权声明:本文内容由互联网用户自发贡献,该文观点仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌抄袭侵权/违法违规的内容,一经查实,本站将立刻删除。

上一篇

下一篇