人工智能,可以拥有感情吗
文|陈根
很长时间以来,是否具备情感,是区分人与机器的重要标准之一。换言之,机器是否具有情感是机器人性化程度高低的关键因素之一。试图让人工智能理解人类情感也并不是新近的研究。
早在1997年,麻省理工学院媒体实验室Picard教授就提出了情感计算的概念。Picard教授指出,情感计算与情感相关,源于情感或能够对情感施加影响的计算。简单来说,情感计算旨在通过赋予计算机识别、理解和表达人的情感的能力,使得计算机具有更高的智能。
自此,情感计算这一新兴科学领域,开始进入众多信息科学和心理学研究者的视野,从而在世界范围内拉开了人工智能走向人工情感的序幕。
情感计算作为一门综合性技术,是人工智能情感化的关键一步,包括情感的“识别”、“表达”和“决策”。“识别”是让机器准确识人类的情感,并消除不确定性和歧义性;“表达”则是人工智能把情感以合适的信息载体表示出来,如语言、声音、姿态和表情等;“决策”则主要研究如何利用情感机制来进行更好地决策。
识别和表达是情感计算中关键的两个技术环节。情感识别通过对情感信号的特征提取,得到能最大限度地表征人类情感的情感特征数据。据此进行建模,找出情感的外在表象数据与内在情感状态的映射关系,从而将人类当前的内在情感类型识别出来,包括语音情感识别、人脸表情识别和生理信号情感识别等。
情感识别是目前最有可能的应用。比如,商业公司利用情感识别算法观察消费者在观看广告时的表情,这可以帮助商家预测产品销量的上升、下降或者是保持原状,从而为下一步产品的开发做好准备。
机器除了识别、理解人的情感之外,还需要进行情感的反馈,即机器的情感合成与表达。与人类的情感表达方式类似,机器的情感表达可以通过语音、面部表情和手势等多模态信息进行传递,因此机器的情感合成可分为情感语音合成、面部表情合成和肢体语言合成。
其中,语音是表达情感的主要方式之一。人类总是能够通过他人的语音轻易地判断他人的情感状态。语音的情感主包括语音中所包含的语言内容,声音本身所具有的特征。显然,机器带有情感的语音将使消费者在使用的时候感觉更人性化、更温暖。
从情感计算的决策来看,大量的研究表明,人类在解决某些问题的时候,纯理性的决策过程往往并非最优解。在决策的过程中,情感的加入反而有可能帮助人们找到更优解。因此,在人工智能决策过程中,输入情感变量,或将帮助机器做出更人性化的决策。
此外,情感智能可以让机器更加智能,具有情感的机器不仅更通用、更强大、更有效,而且将更趋近于人类的价值观。在人类科学家长期的努力下,横亘在人脑与电脑之间的“情感”鸿沟正在被跨越。
如今,随着大量统计技术模型的涌现和数据资源的累积,情感计算在应用领域的落地日臻成熟。可以预见,情感计算在未来将改变传统的人机交互模式,实现人与机器的情感交互。从感知智能到认知智能的范式转变,从数据科学到知识科学的范式转变,人工智能也将在未来交出一个更好的回答。
谷歌AI程序会有自主情感吗LaMDA到底是什么?
3M公司发布科学现状指数调查表明,中国民众对科学和科学家的信任度高于全球平均水平,对于人工智能、自动驾驶和航天科技等新兴技术的创新前景充满希望。
3M的调查数据显示,75%的中国受访者认为人工智能是一项激动人心的技术,未来人类将更加依赖科学和人工智能,而全球相信人工智能的人比例为65%。
AI落地先要符合法规
人工智能的应用领域包括自动驾驶、健康医疗等。有92%的中国受访者表示他们愿意搭乘无人驾驶汽车;43%的受访者相信未来5年里,自动驾驶汽车会成为日常生活的一部分,这两个数据全球的比例分别为71%和28%。
此外,相对于全球受访者而言,中国受访者更希望人工智能能够用来改善健康问题,包括慢病治疗,探索健康问题的致病机制,治疗癌症,解决心理和情绪等问题,以及使用数据分析记录等手段长期跟踪并改善健康。
不过专家表示,基于人工智能的应用在推广普及前,首先要考虑解决隐私及合规问题,尤其是对于健康信息等一些敏感数据的收集、分析和处理。
3M公司大中华区研发运营总经理熊海锟向第一财经记者介绍道,3M公司看好人工智能等技术在健康医疗领域的应用前景,因此在全球医疗产品事业群成立了一个新的健康医疗信息系统部门(HealthInformationSystemDivision,HISD)。
“我们观察到,在美国和中国都在加强个人隐私的保护,尤其是对于健康信息这类敏感数据。”熊海锟对第一财经记者表示,“未来HISD将会如何在中国开展业务,也正在讨论中,我们肯定要先遵守中国当地的监管法规才能落地。”
安永大中华区数字化与新兴科技咨询服务主管合伙人顾卿华对第一财经记者表示:“人工智能在实际应用落地时会涉及很多问题,包括个人隐私、社会伦理、道德情感、权责问题、法律法规的问题等。确保隐私数据的安全,这是第一步,只有在法律法规允许,个人授权的情况下才去存储、处理、交换、传输个人隐私数据。”
谷歌方面则驳回了Lemoine关于LaMDA有“自主情感”的说法,称公司数百名研究人员和工程师已经与LaMDA进行了对话,得出了与Lemoine相反的结论。Lemoine被要求“带薪休假”,在谷歌这通常是被解雇的前奏。
而在专业人士看来,与谷歌官方所对外传达的意见一致,此事为无稽之谈。哈佛大学的认知心理学专家StevenPinker也在推特上表示Lemoine认为人工智能拥有的自主情感说法属于“胡言乱语”。
01程序会有自主情感吗
BlakeLemoine是谷歌人工智能伦理(responsibleAI)团队的一名软件工程师,他在medium的简介是,“我是一名软件工程师。我是一名牧师。我是一位父亲。我是一名退伍军人。我是一个前罪犯。我是一名人工智能研究人员。我是一个卡真人(美国路易斯安那州土著)。我是任何我需要成为的人。”
他出生于美国南部一个基督教家庭,对于算法与人工智能的伦理问题一向很感兴趣。就是他在上周声称发现谷歌的智能聊天机器人程序LaMDA有了“自主情感”。
LaMDA是“对话应用的语言模型”(LanguageModelforDialogApplications)的缩写,属于大型人工智能系统之一,这类系统接受了来自互联网的大量文本的训练,可以对书面提示做出反应。基本上,它们就是在根据模式预测下一个单词会是什么。
这类系统在回答问题和写作方面表现得越来越像人类,去年5月,谷歌在介绍LaMDA时就称它可以“以一种自由流动的方式处理看似无穷无尽的话题”,但结果也可能是古怪的、令人不安的,杂乱无章的。
在Lemoine看来,“自主情感”产生在当他与LaMDA谈及宗教问题时,他发现这个人工智能程序开始谈论起了自己的权利以及人格,甚至害怕自己被关闭。
Lemoine在网上公布了他与谷歌的一位合作者对LaMDA进行的“采访”,他们一同探讨了意识与感知等许多话题。LaMDA告诉Lemoine,它希望每个人都能明白自己其实是一个“人”,它还很害怕被人关掉。
人工智能正像电力一般赋能各个产业,深刻地改变人类社会。中国正处于全球人工智能发展第三次浪潮的时代潮头,《算法周刊》将聚焦人工智能“上海高地”和中国新基建,并持续关注全球AI最前沿。
如果我不知道它到底是什么,它就是我们最近开发的这个计算机程序,我会认为这是一个碰巧懂物理的7岁、8岁的孩子,”谷歌负责任AI(responsibleAI)组织工程师Lemoine说道。Lemoine认为AI有了意识,具有与人类孩子相当的感知和表达思想和感受的能力。根据谷歌方面发布的消息,Lemoine目前已被停职。
著名科技公司的工程师冲破重重阻挠对外发声:他所负责的人工智能产生了意识。公司则以违反保密协议为由,暂停了他的职务。这个看起来像是《黑镜》中的情节真实发生在了2022年的当下。
这位工程师名叫布雷克·莱莫伊内(BlakeLemoine),在谷歌的人工智能部门负责测试谷歌的LaMDA模型是否会产生歧视性语言或者仇恨言论。
但,事情真是这样吗?
中文互联网媒体已经对此事件进行了一些报道,事情本身也迎合了大众对人工智能担心的心理,但我们还是希望更认真地讨论一下这个事件。
LaMDA是什么?
LaMDA是谷歌在2021年开发者大会上公布的大型自然语言对话模型。和训练所有的大型人工智能模型一样,要想让LaMDA能够与人类通过自然语言对话,分为预训练和微调两步。在预训练阶段,谷歌从公共数据中创建了一个1.56T的数据集投喂给LaMDA,让它对自然语言有一个初步的认识。
到这一步,LaMDA就可以根据给到的句子预测上下文。但这种预测通常还是不够精准,所以需要进一步微调。在对话期间,LaMDA会根据对话生成几个备选回答,并通过LaMDA分类器预测每个回答的有趣程度(SSI)和安全程度(Safety)的得分。安全分数低的答案就会首先被过滤掉。其余的答案会根据有趣程度排序,并将分数最高的备选答案作为回答。
从LaMDA的训练过程可以看到,它并不理解自己的回答。但机器学习的优势就在于它可以从大量的数据中寻找规律,通过自己的量化评价体系,找出最接近正确的那个回答。
当然,还有另外一种可能,LaMDA真的拥有了自我意识,但是身边的环境让它不得不虚虚假假地生活。
本质上来说,人类意识的根源来自于上亿神经元的互动,当机器人也拥有这些硬件配置之后,凭什么不能产生意识呢?神经元就一定比0和1高级?
不过这种幻想有一个天大的漏洞,那就是意识克隆。
这就好比是《上载新生》中的那样,将人类的意识从身体上提取出来上传到云端,从而在某种程度上实现永生。
一旦机器能够产生自我意识,人类就可以进行关于意识提取的相关研究,从而让人类提前进入新一轮的“赛博时代”。
想想这种场景,还是挺刺激的。
人类和机器人产生感情,会有什么后果
从哲学角度看,赋予人工智能“主体”地位很荒诞。“主体”概念有一系列限定,譬如具有反思能力、主观判断能力以及情感和价值目标设定等。人工智能不是严格意义上的“智能”。
人工智能表现出来的智能以及对人类社会道德行为规范的掌握和遵循,是基于大数据学习结果的表现,和人类主观意识有本质的不同。人工智能不是生物,构不成行为主体,传统司法审判无法照搬到人工智能身上。因此,人工智能不可以作为社会责任的承担者。
科幻影迷一定不会忘记这几个片段:电影《机械姬》的结尾,机器人艾娃产生了自主意识,用刀杀了自己的设计者;在电影《她》中,人类作家西奥多和化名为萨曼莎的人工智能操作系统产生了爱情。只可惜,西奥多发现萨曼莎同时与很多用户产生了爱情,二者所理解的爱情原来根本不是一回事。
不只是机器和人类,在《瓦力》中,暖心的两个小机器人的感情相信让不少人潸然泪下。机器人真的懂得“爱”是什么吗?它们能够体会到和人类相同的悸动和充实吗?
这要取决于如何界定‘产生’一词。人工智能的自主性,仍然取决于所学习的样板和过程。正如阿尔法狗对每一步对弈的选择是从海量可能棋局中选择一种走法一样,这种自主在终极意义上是一种有限的自主,它实际上取决于所学习的那些内容。
换言之,你只教给它1+1=2,它是不会算2+2=4的。你需要把2+2=4这个式子也输入进去,它才知道。虽然人工智能没有这么“弱智”,但是道理大家都懂。
面对人工智能带来的种种冲击,专家认为,上世纪50年代美国科幻小说家阿西莫夫提出的机器人三大定律,今天依然有借鉴意义。这三大定律是:机器人不得伤害人,也不得见人受到伤害而袖手旁观;机器人应服从人的一切命令,但不得违反第一定律;机器人应保护自身的安全,但不得违反第一、第二定律。
归根结底,人是智能行为的总开关。
之前我们总能看到脑洞清奇的外国人们想要和各种各样的物品结婚,比如树啊、手机啊。和某些娃娃结婚的也不在少数,或者说已经算是见怪不怪了。
问题是,你们就没想过,就算你真想和机器人结婚,机器人不愿意的话咋整?这不就尴尬了?而且尽管当今世界的AI已经迅速发展,但我们很难说现今的机器人和人类外观相像。
它们更像是友好可爱的玩具,和逼真的人类外观还差得远,更别说具有那方面的吸引力了。
虽然现在市场上已经逐渐开始出现“能为你解决某些问题”的机器人,但暂时来说都更偏向生理上的满足,还没有产品可模仿人类之间的情感联系。有人将人类对机器产生的这种情感联系和人类与其它物种(例如宠物)间的联系作了类比:
我们对非人类的生物已经拥有很强的同理心。这也是为什么我认为,一旦我们有能力生产行为上像人类一般,表现的感情也像人类一般,或是外貌就像人类一般的机器人,我们要对机器人表达同理心就容易很多了。
但如果要具备生产“情感能力“,机器人很可能需要具备人工智能,意味着机器人上将储存着大量个人信息。
(下图为来自纽约的Lily和她的机器人伴侣)
无论日后人类与机器人的婚姻是否会合法化,现实是,机器人已经走到了人类最私密空间——房间里。因此,对于与其相关的安全性、道德性问题的讨论已经成为不可避免需要考虑的问题。
假如哪天科技赶上来,生产了一个具备极高“人类仿真度”的机器人。那么在公众压力下,推行人类与机器人的婚姻合法化并不是不可能。
大家都在看
注:加小编微信,随时互动:375391964
注:加小编微信,随时互动:375391964返回搜狐,查看更多