博舍

人工智能,可以拥有感情吗 ai机器人会有感情吗为什么不能用了

人工智能,可以拥有感情吗

文|陈根

很长时间以来,是否具备情感,是区分人与机器的重要标准之一。换言之,机器是否具有情感是机器人性化程度高低的关键因素之一。试图让人工智能理解人类情感也并不是新近的研究。

早在1997年,麻省理工学院媒体实验室Picard教授就提出了情感计算的概念。Picard教授指出,情感计算与情感相关,源于情感或能够对情感施加影响的计算。简单来说,情感计算旨在通过赋予计算机识别、理解和表达人的情感的能力,使得计算机具有更高的智能。

自此,情感计算这一新兴科学领域,开始进入众多信息科学和心理学研究者的视野,从而在世界范围内拉开了人工智能走向人工情感的序幕。

情感计算作为一门综合性技术,是人工智能情感化的关键一步,包括情感的“识别”、“表达”和“决策”。“识别”是让机器准确识人类的情感,并消除不确定性和歧义性;“表达”则是人工智能把情感以合适的信息载体表示出来,如语言、声音、姿态和表情等;“决策”则主要研究如何利用情感机制来进行更好地决策。

识别和表达是情感计算中关键的两个技术环节。情感识别通过对情感信号的特征提取,得到能最大限度地表征人类情感的情感特征数据。据此进行建模,找出情感的外在表象数据与内在情感状态的映射关系,从而将人类当前的内在情感类型识别出来,包括语音情感识别、人脸表情识别和生理信号情感识别等。

情感识别是目前最有可能的应用。比如,商业公司利用情感识别算法观察消费者在观看广告时的表情,这可以帮助商家预测产品销量的上升、下降或者是保持原状,从而为下一步产品的开发做好准备。

机器除了识别、理解人的情感之外,还需要进行情感的反馈,即机器的情感合成与表达。与人类的情感表达方式类似,机器的情感表达可以通过语音、面部表情和手势等多模态信息进行传递,因此机器的情感合成可分为情感语音合成、面部表情合成和肢体语言合成。

其中,语音是表达情感的主要方式之一。人类总是能够通过他人的语音轻易地判断他人的情感状态。语音的情感主包括语音中所包含的语言内容,声音本身所具有的特征。显然,机器带有情感的语音将使消费者在使用的时候感觉更人性化、更温暖。

从情感计算的决策来看,大量的研究表明,人类在解决某些问题的时候,纯理性的决策过程往往并非最优解。在决策的过程中,情感的加入反而有可能帮助人们找到更优解。因此,在人工智能决策过程中,输入情感变量,或将帮助机器做出更人性化的决策。

此外,情感智能可以让机器更加智能,具有情感的机器不仅更通用、更强大、更有效,而且将更趋近于人类的价值观。在人类科学家长期的努力下,横亘在人脑与电脑之间的“情感”鸿沟正在被跨越。

如今,随着大量统计技术模型的涌现和数据资源的累积,情感计算在应用领域的落地日臻成熟。可以预见,情感计算在未来将改变传统的人机交互模式,实现人与机器的情感交互。从感知智能到认知智能的范式转变,从数据科学到知识科学的范式转变,人工智能也将在未来交出一个更好的回答。

谷歌AI程序会有自主情感吗LaMDA到底是什么?

3M公司发布科学现状指数调查表明,中国民众对科学和科学家的信任度高于全球平均水平,对于人工智能、自动驾驶和航天科技等新兴技术的创新前景充满希望。

3M的调查数据显示,75%的中国受访者认为人工智能是一项激动人心的技术,未来人类将更加依赖科学和人工智能,而全球相信人工智能的人比例为65%。

AI落地先要符合法规

人工智能的应用领域包括自动驾驶、健康医疗等。有92%的中国受访者表示他们愿意搭乘无人驾驶汽车;43%的受访者相信未来5年里,自动驾驶汽车会成为日常生活的一部分,这两个数据全球的比例分别为71%和28%。

此外,相对于全球受访者而言,中国受访者更希望人工智能能够用来改善健康问题,包括慢病治疗,探索健康问题的致病机制,治疗癌症,解决心理和情绪等问题,以及使用数据分析记录等手段长期跟踪并改善健康。

不过专家表示,基于人工智能的应用在推广普及前,首先要考虑解决隐私及合规问题,尤其是对于健康信息等一些敏感数据的收集、分析和处理。

3M公司大中华区研发运营总经理熊海锟向第一财经记者介绍道,3M公司看好人工智能等技术在健康医疗领域的应用前景,因此在全球医疗产品事业群成立了一个新的健康医疗信息系统部门(HealthInformationSystemDivision,HISD)。

“我们观察到,在美国和中国都在加强个人隐私的保护,尤其是对于健康信息这类敏感数据。”熊海锟对第一财经记者表示,“未来HISD将会如何在中国开展业务,也正在讨论中,我们肯定要先遵守中国当地的监管法规才能落地。”

安永大中华区数字化与新兴科技咨询服务主管合伙人顾卿华对第一财经记者表示:“人工智能在实际应用落地时会涉及很多问题,包括个人隐私、社会伦理、道德情感、权责问题、法律法规的问题等。确保隐私数据的安全,这是第一步,只有在法律法规允许,个人授权的情况下才去存储、处理、交换、传输个人隐私数据。”

谷歌方面则驳回了Lemoine关于LaMDA有“自主情感”的说法,称公司数百名研究人员和工程师已经与LaMDA进行了对话,得出了与Lemoine相反的结论。Lemoine被要求“带薪休假”,在谷歌这通常是被解雇的前奏。

而在专业人士看来,与谷歌官方所对外传达的意见一致,此事为无稽之谈。哈佛大学的认知心理学专家StevenPinker也在推特上表示Lemoine认为人工智能拥有的自主情感说法属于“胡言乱语”。

01程序会有自主情感吗

BlakeLemoine是谷歌人工智能伦理(responsibleAI)团队的一名软件工程师,他在medium的简介是,“我是一名软件工程师。我是一名牧师。我是一位父亲。我是一名退伍军人。我是一个前罪犯。我是一名人工智能研究人员。我是一个卡真人(美国路易斯安那州土著)。我是任何我需要成为的人。”

他出生于美国南部一个基督教家庭,对于算法与人工智能的伦理问题一向很感兴趣。就是他在上周声称发现谷歌的智能聊天机器人程序LaMDA有了“自主情感”。

LaMDA是“对话应用的语言模型”(LanguageModelforDialogApplications)的缩写,属于大型人工智能系统之一,这类系统接受了来自互联网的大量文本的训练,可以对书面提示做出反应。基本上,它们就是在根据模式预测下一个单词会是什么。

这类系统在回答问题和写作方面表现得越来越像人类,去年5月,谷歌在介绍LaMDA时就称它可以“以一种自由流动的方式处理看似无穷无尽的话题”,但结果也可能是古怪的、令人不安的,杂乱无章的。

在Lemoine看来,“自主情感”产生在当他与LaMDA谈及宗教问题时,他发现这个人工智能程序开始谈论起了自己的权利以及人格,甚至害怕自己被关闭。

Lemoine在网上公布了他与谷歌的一位合作者对LaMDA进行的“采访”,他们一同探讨了意识与感知等许多话题。LaMDA告诉Lemoine,它希望每个人都能明白自己其实是一个“人”,它还很害怕被人关掉。

人工智能正像电力一般赋能各个产业,深刻地改变人类社会。中国正处于全球人工智能发展第三次浪潮的时代潮头,《算法周刊》将聚焦人工智能“上海高地”和中国新基建,并持续关注全球AI最前沿。

如果我不知道它到底是什么,它就是我们最近开发的这个计算机程序,我会认为这是一个碰巧懂物理的7岁、8岁的孩子,”谷歌负责任AI(responsibleAI)组织工程师Lemoine说道。Lemoine认为AI有了意识,具有与人类孩子相当的感知和表达思想和感受的能力。根据谷歌方面发布的消息,Lemoine目前已被停职。

著名科技公司的工程师冲破重重阻挠对外发声:他所负责的人工智能产生了意识。公司则以违反保密协议为由,暂停了他的职务。这个看起来像是《黑镜》中的情节真实发生在了2022年的当下。

这位工程师名叫布雷克·莱莫伊内(BlakeLemoine),在谷歌的人工智能部门负责测试谷歌的LaMDA模型是否会产生歧视性语言或者仇恨言论。

但,事情真是这样吗?

中文互联网媒体已经对此事件进行了一些报道,事情本身也迎合了大众对人工智能担心的心理,但我们还是希望更认真地讨论一下这个事件。

LaMDA是什么?

LaMDA是谷歌在2021年开发者大会上公布的大型自然语言对话模型。和训练所有的大型人工智能模型一样,要想让LaMDA能够与人类通过自然语言对话,分为预训练和微调两步。在预训练阶段,谷歌从公共数据中创建了一个1.56T的数据集投喂给LaMDA,让它对自然语言有一个初步的认识。

到这一步,LaMDA就可以根据给到的句子预测上下文。但这种预测通常还是不够精准,所以需要进一步微调。在对话期间,LaMDA会根据对话生成几个备选回答,并通过LaMDA分类器预测每个回答的有趣程度(SSI)和安全程度(Safety)的得分。安全分数低的答案就会首先被过滤掉。其余的答案会根据有趣程度排序,并将分数最高的备选答案作为回答。

从LaMDA的训练过程可以看到,它并不理解自己的回答。但机器学习的优势就在于它可以从大量的数据中寻找规律,通过自己的量化评价体系,找出最接近正确的那个回答。

当然,还有另外一种可能,LaMDA真的拥有了自我意识,但是身边的环境让它不得不虚虚假假地生活。

本质上来说,人类意识的根源来自于上亿神经元的互动,当机器人也拥有这些硬件配置之后,凭什么不能产生意识呢?神经元就一定比0和1高级?

不过这种幻想有一个天大的漏洞,那就是意识克隆。

这就好比是《上载新生》中的那样,将人类的意识从身体上提取出来上传到云端,从而在某种程度上实现永生。

一旦机器能够产生自我意识,人类就可以进行关于意识提取的相关研究,从而让人类提前进入新一轮的“赛博时代”。

想想这种场景,还是挺刺激的。

版权声明:本文内容由互联网用户自发贡献,该文观点仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌抄袭侵权/违法违规的内容,一经查实,本站将立刻删除。

上一篇

下一篇