博舍

人工智能与大数据的区别 人与人工智能的不同之处

人工智能与大数据的区别

人工智能和大数据是人们耳熟能详的流行术语,但也可能会有一些混淆。人工智能和大数据有什么相似之处和不同之处?它们有什么共同点吗?它们是否相似?能进行有效的比较吗? 

[[232102]]

有人认为将人工智能与大数据结合在一起是一个很自然的错误,其部分原因是两者实际上是一致的。但它们是完成相同任务的不同工具。但首先要做的事是先弄清二者的定义。很多人并不知道这些。

人工智能与大数据一个主要的区别是大数据是需要在数据变得有用之前进行清理、结构化和集成的原始输入,而人工智能则是输出,即处理数据产生的智能。这使得两者有着本质上的不同。

人工智能是一种计算形式,它允许机器执行认知功能,例如对输入起作用或作出反应,类似于人类的做法。传统的计算应用程序也会对数据做出反应,但反应和响应都必须采用人工编码。如果出现任何类型的差错,就像意外的结果一样,应用程序无法做出反应。而人工智能系统不断改变它们的行为,以适应调查结果的变化并修改它们的反应。

支持人工智能的机器旨在分析和解释数据,然后根据这些解释解决问题。通过机器学习,计算机会学习一次如何对某个结果采取行动或做出反应,并在未来知道采取相同的行动。

大数据是一种传统计算。它不会根据结果采取行动,而只是寻找结果。它定义了非常大的数据集,但也可以是极其多样的数据。在大数据集中,可以存在结构化数据,如关系数据库中的事务数据,以及结构化或非结构化数据,例如图像、电子邮件数据、传感器数据等。

它们在使用上也有差异。大数据主要是为了获得洞察力,例如Netflix网站可以根据人们观看的内容了解电影或电视节目,并向观众推荐哪些内容。因为它考虑了客户的习惯以及他们喜欢的内容,推断出客户可能会有同样的感觉。

人工智能是关于决策和学习做出更好的决定。无论是自我调整软件、自动驾驶汽车还是检查医学样本,人工智能都会在人类之前完成相同的任务,但速度更快,错误更少。

虽然它们有很大的区别,但人工智能和大数据仍然能够很好地协同工作。这是因为人工智能需要数据来建立其智能,特别是机器学习。例如,机器学习图像识别应用程序可以查看数以万计的飞机图像,以了解飞机的构成,以便将来能够识别出它们。

人工智能实现***的飞跃是大规模并行处理器的出现,特别是GPU,它是具有数千个内核的大规模并行处理单元,而不是CPU中的几十个并行处理单元。这大大加快了现有的人工智能算法的速度,现在已经使它们可行。

大数据可以采用这些处理器,机器学习算法可以学习如何重现某种行为,包括收集数据以加速机器。人工智能不会像人类那样推断出结论。它通过试验和错误学习,这需要大量的数据来教授和培训人工智能。

人工智能应用的数据越多,其获得的结果就越准确。在过去,人工智能由于处理器速度慢、数据量小而不能很好地工作。也没有像当今先进的传感器,并且当时互联网还没有广泛使用,所以很难提供实时数据。人们拥有所需要的一切:快速的处理器、输入设备、网络和大量的数据集。毫无疑问,没有大数据就没有人工智能。

聊天机器人ChatGPT风靡全球,它与其他人工智能有何不同

聊天机器人ChatGPT引爆社交网络,自11月30日上线至今已有超过100万用户。有人预言它将彻底改变内容生产、软件制作、数字助理和搜索引擎。但也有人认为,新的聊天机器人并非真正的智能,只是一个复杂的机器学习系统,可以将事实和虚构融为一体,未来可能被用于制造和传播假新闻。而在被推上风口浪尖的ChatGPT背后,是由马斯克创建的人工智能实验室OpenAI。

ChatGPT,新一代聊天机器人

名叫ChatGPT的聊天机器人是当下社交媒体的最新明星。《纽约》杂志的编辑们要求它写一个关于美国前总统特朗普和纽约前市长白思豪(BilldeBlasio)在2024年总统选举辩论上的可能情况,随后得到了一篇令他们“膜拜”的小作文:“你曾在竞选(纽约市长)时承诺要禁止它们(纽约中央公园马车),但你一当选就违背了这个承诺。人们无法相信你会信守诺言,比起一个不能信任的领导人,美国人民应该值得更好的。”这是ChatGPT“笔下”特朗普对白思豪的攻讦。

其他用户则让ChatGPT写了一篇关于民族主义理论的扎实学术论文、一段关于俄亥俄-印第安纳的悲剧但虚构的历史、一些笑话……甚至它还讲述了一个名叫“助手”的人工智能程序,最初为回答问题而设,却很快引领了新的世界秩序,带领人类进入“和平与繁荣的新时代”的故事。此外,ChatGPT还可以帮助编写程序,自动完成一个人类程序员通常需要数小时才能完成的挑战。从结果来看,ChatGPT似乎无所不能。

▲网友晒出的ChatGPT小作文。

从11月30日上线至今,已经有超过100万人使用ChatGPT,这个由美国人工智能实验室OpenAI最新发布的聊天机器人。它可以用简洁的句子提供信息,而不是塞满蓝色链接的长列表;用人们能理解的方式解释概念、传递事实;也可以从零开始制定商业计划、学期论文主题和其他新想法。“你现在拥有了一台能够以人类的方式回答任何问题的计算机。它可以从不同语境中推断、获取想法,再将它们重新融合在一起。”硅谷公司BOX的首席执行官艾伦·莱维(AaronLevie)说。他致力于探索聊天机器人如何能够掀起新的世界性革命。

和莱维类似,许多科技人士都相信,以ChatGPT为代表的新一代聊天机器人有望重塑甚至取代谷歌、Bing等互联网搜索引擎。“有关人工智能的许多被承诺的好处似乎永远在等待下一个五年。但ChatGPT标志了一个全新的时刻:人们听说过的技术最终成为了现实。”《纽约时报》科技专栏作家凯文·鲁斯(KevinRoose)这样说。

没那么革新,却可能更危险

另一些计算机科学家认为,这些对ChatGPT的赞美可能是过分乐观了,在他们看来,ChatGPT只不过是一个复杂的机器学习系统,它可能非常擅长模式识别和复制,但丝毫没有表现出智能。它甚至称不上是新技术,仅仅是OpenAI在2020年发布的超大规模语言生成模型GPT-3的调整版本,针对与人类指导的对话进行了优化,并向更多用户开放。

《金融时报》编辑约翰·索恩西尔(JohnThornhill)表示,当他要求ChatGPT审视自己的缺点时,它列出的回答是:对上下文理解有限、缺乏常识、训练数据有偏见,以及存在被滥用的可能性,例如通过传播错误信息来操纵金融市场。“虽然ChatGPT是一项强大且令人印象深刻的技术,但它并非没有局限性和潜在缺陷。”它这样自陈。

来自加拿大麦吉尔大学的一个研究团队此前展示过聊天机器人大规模解释和生成内容的方式。他们使用ChatGPT的前代模型GPT-2来阅读加拿大广播公司制作的5000篇有关新冠大流行的文章,并要求其生成关于这场危机的“反事实新闻”。结果,与最初人类记者的新闻报道中更侧重于个体和地缘政治的“假新闻”不同,GPT-2更加强调大流行在生物学和医学方面的“假新闻”。“我们正在使用人工智能来突出人类的偏见,用模拟程序来了解现实。”领导该团队的安德鲁·派珀(AndrewPiper)说。

OpenAI也意识到了潜在的问题,它警告那些使用ChatGPT的用户,它“可能偶尔会生成不正确的信息”,“产生有害指令或有偏见的内容”。据了解,OpenAI正在持续改进该项技术,包括在ChatGPT中添加护栏,防止生成有毒或危险的内容。例如,ChatGPT会拒绝告诉用户如何制造核弹。

“这样的护栏对于防止基础模型被滥用至关重要,但问题是谁来决定这些保护措施的设计和运作方式?”斯坦福大学基础模型研究中心主任珀西·梁(PercyLiang)提问。他认为,这些模型对于科学和医学研究,以及自动执行繁琐任务非常有用,“但它们也可能破坏信息生态系统”。

幕后实验室OpenAI

ChatGPT全网爆火,也让它背后的公司——人工智能实验室OpenAI再次走到媒体聚光灯下。作为谷歌旗下人工智能实验室DeepMind的竞争对手,OpenAI成立于2015年,由特斯拉首席执行官埃隆·马斯克与科技投资人山姆·阿尔特曼(SamAltman)主要发起,并联合其他硅谷大亨如彼得·泰尔(PeterThiel)和领英创始人里德·霍夫曼(ReidHoffman)等,共同认捐10亿美元。

▲马斯克与阿尔特曼。

2015年12月11日,OpenAI在官网上发布声明,宣布它的研究领域为人工智能领域,既定目标是“以最有可能造福全人类的方式”促进和开发友好的人工智能。“很难想象人类水平的AI能给社会带来多大的好处,同样难以想象,如果构建或使用不当,会对社会造成多大的损害。”声明中也写到了这样一句话。

2016年4月,OpenAI推出首款产品,强化学习研究平台Gym。这是一个允许研究人员开发和比较强化学习系统的平台,AI通过这些系统来学习如何做出具有最佳累积回报的决策。同年晚些时候,OpenAI又发布Universe,一个用于跨网站和游戏平台训练智能代理的工具包。

2018年,马斯克宣布辞去OpenAI董事会席位,理由是它与特斯拉自动驾驶汽车AI开发存在潜在的未来冲突,但仍会向OpenAI提供捐助。

2019年,微软宣布向OpenAI注资10亿美元,后者随后表示将向微软独家授权其技术。在当时的一篇博文中,微软写道:“通过GPT-3模型可以释放的商业和创意潜力的范围是深远的,具有真正新颖的功能——其中大部分我们甚至还没有想象到。”“在写作、描述和总结大块长格式数据(包括代码)、将自然语言转换为另一种语言等方面,直接帮助人类的创造力和独创性——(OpenAI产品的)可能性仅受我们自身想法和场景的限制。”

而尽管ChatGPT正在风靡全网,但它可能仅仅是OpenAI的一个过渡性产品,据了解,它的产品代码是GPT-3.5,有传言称,OpenAI很有可能将在明年发布完整的GPT-4。

新闻及图片来源:Insider、金融时报、纽约时报,部分图片来自网络

iWeekly周末画报独家稿件,未经许可,请勿转载

人工智能可能有自主意识了吗

➤大模型、大数据的驱动让人工智能在对话的自然度、趣味性上有了很大突破,但距离具备自主意识还很远。换言之,即便人工智能可以对人类的语言、表情所传递的情绪作出判断,但这主要应用的是自然语言处理、计算机视觉等技术

➤不同于当前依赖数据学习的技术路线,新一代人工智能强调在没有经过数据学习的情况下,可以通过推理作出合理反应,从而与没有见过、没有学过的事物展开交互

➤当前人工智能治理面临的最大挑战,是我们没有一套比较成熟的体系来规制其潜在的风险。在发展科技的同时,必须同步发展我们的规制体系

➤“技术归根结底是由人类来发展和把控的。人类和人工智能的未来,是由人类选择的。”

今年6月,美国谷歌公司软件工程师布莱克·勒莫因称语言模型LaMDA出现自我意识。他认为,LaMDA拥有七八岁孩童的智力,并相信LaMDA正在争取自己作为一个人的权利。

LaMDA是谷歌去年发布的一款专门用于对话的语言模型,主要功能是可以与人类交谈。

为佐证观点,勒莫因把自己和LaMDA的聊天记录上传至互联网。随后,谷歌以违反保密协议为由对其停职。谷歌表示,没有任何证据支持勒莫因的观点。

事实上,“AI(人工智能)是否拥有自主意识”一直争议不休。此次谷歌工程师和LaMDA的故事,再次引发讨论。人们想知道:人工智能技术究竟发展到了怎样的阶段?是否真的具备自主意识?其判定依据是什么?未来我们又该以怎样的能力和心态与人工智能和谐共处?

人工智能自主意识之辨

勒莫因认为LaMDA具有意识的原因有三:一是LaMDA以前所未有的方式高效、创造性地使用语言;二是它以与人类相似的方式分享感觉;三是它会表达内省和想象,既会担忧未来,也会追忆过去。

受访专家告诉《瞭望》新闻周刊记者,上述现象仅仅是因为LaMDA所基于的Transformer架构能够联系上下文,进行高精度的人类对话模拟,故能应对人类开放、发散的交谈。

至于人工智能是否已经具备自主意识,判定标准如何,受访专家表示,对人类意识的探索目前仍属于科技前沿,尚未形成统一定义。

清华大学北京信息科学与技术国家研究中心助理研究员郭雨晨说:“我们说人有自主意识,是因为人知道自己在干什么。机器则不一样,你对它输入内容,它只是依照程序设定进行反馈。”

中国社会科学院科学技术哲学研究室主任段伟文认为,一般意义上,人的自我意识是指对自我具备觉知,但如何认识和理解人类意识更多还是一个哲学问题而不是科学问题,这也是很难明确定义人工智能是否具备意识的原因。

被誉为“计算机科学与人工智能之父”的艾伦·图灵,早在1950年就曾提出图灵测试——如果一台机器能够与人类展开对话而不能被辨别出其机器身份,那么可以称这台机器具有智能。

这一设想随后被具化为,如果有超过30%参与测试的人以为自己在和人说话而非计算机,就可以认为“机器会思考”。

当前随着技术的发展,已经有越来越多的机器能够通过图灵测试。

但清华大学人工智能国际治理研究院副院长梁正告诉《瞭望》新闻周刊记者,图灵测试只能证明机器在表象上可以做到让人无法分辨它与人类的不同,却不能证明机器能够思考,更不能证明机器具备自主意识。

段伟文表示,目前大体有两种方式判定人工智能是否具有自主意识,一种以人类意识为参照,另一种则试图对机器意识进行全新定义。

若以人类意识为参照,要观察机器能否像人一样整合信息。“比如你在阳光下,坐在河边的椅子上看书,有树影落在脸上,有风吹来,它们会带给你一种整体的愉悦感。而对机器来说,阳光、河流、椅子等,是分散的单一元素。”段伟文说。

不仅如此,段伟文说,还要观察机器能否像人一样将单一事件放在全局中思考,作出符合全局利益的决策。

若跳出人类构建自主意识的范式,对机器意识进行重新定义,则需要明白意识的本质是什么。

段伟文告诉记者,有理论认为如果机器与机器之间形成了灵活、独立的交互,则可以称机器具备意识。也有理论认为,可以不追究机器的内心,仅仅把机器当作行为体,从机器的行为表现判断它是否理解所做事情的意义。“比如机器人看到人类喝咖啡后很精神,下次当它观察到人类的疲惫,能不能想到要为人类煮一杯咖啡?”段伟文说。

但在段伟文看来,这些对机器意识进行重新定义的理论,其问题出在,即便能够证明机器可以交互对话、深度理解,但是否等同于具备自主意识尚未有定论。“以LaMDA为例,虽然能够生成在人类看来更具意义的对话,甚至人可以与机器在对话中产生共情,但其本质仍然是在数据采集、配对、筛选机制下形成的反馈,并不代表模型能够理解对话的意义。”

换言之,即便人工智能可以对人类的语言、表情所传递的情绪作出判断,但这主要应用的是自然语言处理、计算机视觉等技术。

郭雨晨直言,尽管在情感计算方面,通过深度学习的推动已经发展得比较好,但如果就此说人工智能具备意识还有些一厢情愿。“把‘意识’这个词换成‘功能’,我会觉得更加准确。”

技术换道

有专家提出,若要机器能思考,先要解决人工智能发展的换道问题。

据了解,目前基于深度学习、由数据驱动的人工智能在技术上已经触及天花板。一个突出例证是,阿尔法围棋(AlphaGo)在击败人类围棋世界冠军后,虽然财力和算力不断投入,但深度学习的回报率却没有相应增长。

一般认为,人工智能可被分为弱人工智能、通用人工智能和超级人工智能。弱人工智能也被称为狭义人工智能,专攻某一领域;通用人工智能也叫强人工智能,主要目标是制造出一台像人类一样拥有全面智能的计算机;超级人工智能类似于科幻作品中拥有超能力的智能机器人。

从产业发展角度看,人工智能在弱人工智能阶段停留了相当长时间,正在向通用人工智能阶段迈进。受访专家表示,目前尚未有成功创建通用人工智能的成熟案例,而具备自主意识,至少需要发展到通用人工智能阶段。

梁正说,大模型、大数据的驱动让人工智能在对话的自然度、趣味性上有了很大突破,但距离具备自主意识还很远。“如果你给这类语言模型喂养大量关于内省、想象等与意识有关的数据,它便更容易反馈与意识有关的回应。”

不仅如此,现阶段的人工智能在一个复杂、专门的领域可以做到极致,却很难完成一件在人类看来非常简单的事情。“比如人工智能可以成为围棋高手,却不具备三岁小孩对陌生环境的感知能力。”段伟文说。

谈及背后原因,受访专家表示,第一是当前人工智能主要与符号世界进行交互,在对物理世界的感知与反应上发展缓慢。第二是数据学习让机器只能对见过的内容有合理反馈,无法处理陌生内容。第三是在数据驱动技术路线下,人们通过不断调整、优化参数来强化机器反馈的精准度,但这种调适终究有限。

郭雨晨说,人类在特定任务的学习过程中接触的数据量并不大,却可以很快学习新技能、完成新任务,这是目前基于数据驱动的人工智能所不具备的能力。

梁正强调,不同于当前主要依赖大规模数据训练的技术路线,新一代人工智能强调在没有经过数据训练的情况下,可以通过推理作出合理反应,从而与没有见过、没有学过的事物展开交互。

相比人类意识的自由开放,以往人工智能更多处在封闭空间。尽管这个空间可能足够大,但若超出设定范畴便无法处理。而人类如果按照规则不能解决问题,就会修改规则,甚至发明新规则。

这意味着,如果人工智能能够超越现有学习模式,拥有对自身意识系统进行反思的能力,就会理解自身系统的基本性质,就有可能改造自身的意识系统,创造新规则,从而成为自己的主人。

“人工智能觉醒”背后

有关“人工智能觉醒”的讨论已不鲜见,但谷歌迅速否认的态度耐人寻味。

梁正表示:“如果不迅速驳斥指认,会给谷歌带来合规性方面的麻烦。”

据了解,关于人工智能是否有自主意识的争论并非单纯技术领域的学术探讨,而关乎企业合规性的基本坚守。一旦认定公司研发的人工智能系统出现自主意识,很可能会被认为违反第2版《人工智能设计的伦理准则》白皮书的相关规范。

这一由美国电气和电子工程师协会2017年发布的规范明确:“根据某些理论,当系统接近并超过通用人工智能时,无法预料的或无意的系统行为将变得越来越危险且难以纠正。并不是所有通用人工智能级别的系统都能够与人类利益保持一致,因此,当这些系统的能力越来越强大时,应当谨慎并确定不同系统的运行机制。”

梁正认为,为避免社会舆论可能的过度负面解读,担心大家认为它培育出了英国作家玛丽·雪莱笔下的弗兰肯斯坦式的科技怪物,以“不作恶”为企业口号的谷歌自然会予以否认。“不仅如此,尽管这一原则对企业没有强制约束力,但若被认为突破了底线,并对个体和社会造成实质性伤害,很有可能面临高额的惩罚性赔偿,因此企业在合规性方面会更为谨慎。”

我国也有类似管理规范。2019年,国家新一代人工智能治理专业委员会发布《新一代人工智能治理原则——发展负责任的人工智能》,提出人工智能治理的框架和行动指南。其中,“敏捷治理”原则主要针对技术可能带来的新社会风险展开治理,强调治理的适应性与灵活性。

中国信息化百人会成员、清华大学教授薛澜在接受媒体采访时表示,当前人工智能治理面临的最大挑战,是我们没有一套比较成熟的体系来规制其潜在的风险。特别是在第四次工业革命背景下,我国的人工智能技术和其他国家一样都处于发展期,没有现成的规制体系,这样就使得我们在发展科技的同时,必须同步发展我们的规制体系。“这可能是人工智能发展面临最大的挑战。”

在梁正看来,目前很难断言新兴人工智能技术具有绝对风险,但必须构造合理的熔断、叫停机制。在治理中既要具有一定的预见性,又不能扼杀创新的土壤,要在企业诉求和公共安全之间找到合适的平衡点。

毕竟,对人类来说,发展人工智能的目的不是把机器变成人,更不是把人变成机器,而是解决人类社会发展面临的问题。

从这个角度来说,我们需要的或许只是帮助人类而不是代替人类的人工智能。

为了人机友好的未来

确保通用人工智能技术有益于人类福祉,一直是人工智能伦理构建的前沿。

薛澜认为,在科技领域,很多技术都像硬币的两面,在带来正面效应的同时也会存在风险,人工智能就是其中一个比较突出的领域。如何在促进技术创新和规制潜在风险之间寻求平衡,是科技伦理必须关注的问题。

梁正提出,有时技术的发展会超越人们预想的框架,在不自觉的情况下出现与人类利益不一致甚至相悖的情况。著名的“曲别针制造机”假说,即描述了通用人工智能在目标和技术都无害的情况下,对人类造成威胁的情景。

“曲别针制造机”假说给定一种技术模型,假设某个人工智能机器的终极目标是制造曲别针,尽管看上去这一目的对人类无害,但最终它却使用人类无法比拟的能力,把世界上所有资源都做成了曲别针,进而对人类社会产生不可逆的伤害。

因此有观点认为,创造出法力高超又杀不死的孙悟空本身就是一种不顾后果的冒险行为。

与其对立的观点则认为,目前这一担忧为时尚早。

“我们对到底什么样的技术路线能够发展出具备自主意识的人工智能尚无共识,现在谈论‘禁止发展’,有种空中楼阁的意味。”梁正说。

商汤科技智能产业研究院院长田丰告诉《瞭望》新闻周刊,现实中人工智能技术伦理风险治理的关键,是产业能够在“预判防范-应用场景-用户反馈-产品改进”中形成市场反馈机制,促成伦理风险识别与敏捷治理。同时,企业内部也需建立完整的科技伦理自律机制,通过伦理委员会、伦理风控流程平台将伦理风险把控落实到产品全生命周期中。

郭雨晨说,人工智能技术发展到目前,仍始终处于人类可控状态,而科技发展的过程本来就伴随对衍生问题的预判、发现和解决。“在想象中的人工智能自主意识出现以前,人工智能技术脚踏实地的发展,已经造福人类社会很多年了。”

在梁正看来,人与人工智能在未来会是一种合作关系,各自具备对方无法达成的能力。“技术归根结底是由人类来发展和把控的。人类和人工智能的未来,是由人类选择的。”

编辑:李华山

2022年08月16日07:42:05

版权声明:本文内容由互联网用户自发贡献,该文观点仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌抄袭侵权/违法违规的内容,一经查实,本站将立刻删除。

上一篇

下一篇