博舍

人工智能说谎,人类如何抵抗 人工智能说谎

人工智能说谎,人类如何抵抗

只要有足够的语料进行支撑,AI模仿出一个声音已并非难事;单从语义和文本上看,AI生成的点评也已经无法区分。而且,随着技术的日渐成熟,AI创造假的语音、视频和图片的门槛只会日渐降低,届时,我们怎么办? 

1950年,计算机科学和密码学先驱艾伦·麦席森·图灵在一篇论文中,提出了著名的图灵测试(TheTuringtest),测试者与被测试者(一个人和一台机器)在被隔开的情况下,通过一些装置(如键盘)向被测试者随意提问,看测试者是否能确定出被测试者是人还是机器。图灵在论文中预测,到20世纪末,可能会有30%的时候都能骗过正常人的厉害机器出现。 

而后60多年,技术一直在为人工智能会否通过图灵测试所努力。一系列迹象正在开启这个新的时代: 

AI水军——《在线点评系统中的自动众包攻击和防御》是赵燕斌等芝加哥大学研究人员发布的一篇论文。他们的研究说明,人工智能可以被用来生成复杂的点评信息。这些虚假的点评不仅机器无法检测出来,就连人类读者也分辨不出来。 

AI修图——机器学习大神GidiShperber利用机器学习,训练出一个用户“背景分离”的模型。一开始,他们的目标是开发出一个可以自动识别前景(foreground)和背景的通用背景移除模型;但发现还是某一系列图像更合适,因此决定专攻自拍和人类肖像。 

AI造景——斯坦福大学和英特尔共同研发了一项技术。在向他们的人工智能系统输入5000张德国街道照片后,该技术可在人类的辅助下,让系统构建出一些模拟的虚构场景。该系统在创建一个虚拟场景之前,需要人类先告知其起点与终点的位置以及在场景中相应位置放入树木、车辆、建筑等。此后,系统会根据输入的不同数据绘制出不同的场景。 

只要有足够的语料进行支撑,AI模仿出一个声音已并非难事;单从语义和文本上看,AI生成的点评也已经无法区分,反抄袭软件也很难奏效,毕竟是逐字逐句生成的假点评。而且随着技术的日渐成熟,可以肯定的是,AI创造假的语音、视频和图片的门槛只会日渐降低,产品日渐真实。 

在内容分发的领域,算法也正在大规模替代成功。除了部分政治性内容需要人工推荐外,我们在新闻聚合类客户端上看到的所有内容,几乎都是算法来推荐的。算法能判别基本的真假吗?不见得。 

我们当然可以从技术上采取措施。监测发点评的用户账号、登陆IP,对语义进行分析;利用区块链技术,保障一些关键性的数据或最原始的记录不被篡改;通过重新制定法律法规,对相关案件中的语音、视频证据收集和鉴定标准提高。但这无疑都会增加对抗的成本。 

届时,我们怎么办? 

(来源:新华社   2017年9月18日) 

未来人工智能会说谎吗它们也会感到疼痛吗

未来机器人会说谎吗?

一般情况下,我们会认为机器人总是冷冰冰地进行分析,富于理性,总是说真话。但是,如果要机器人融合到社会中,它们就可能必须学会说

谎,或至少有策略地保留自己的意见。

在生活中,我们一天会遇到好几次必须说善意谎言的情况。如果别人问我们,他们长得怎么样,我们一般不敢说实话。善意的谎言就像润滑剂一样,能够使社会的运转更平滑。如果要我们突然完全说真话(就像《大话王》中金•凯利的角色),很可能会造成混乱,并伤害别人。如果你告诉别人他们的真实模样,或者你的真切感受,他们会觉得受到冒犯,老板会炒你的鱿鱼,情人会抛弃你,朋友会离你而去,陌生人会给你一巴掌。一些想法最好还是藏在心里。

同样,机器人可能也需要学习说谎或隐瞒事实,不然它们就会冒犯人类,被主人解雇。如果机器人在聚会上说实话,这可能让主人十分难堪,造成混乱。所以,如果有人询问它的意见,它应该学会闪烁其词,学会外交辞令和策略性语言。它要么回避问题,改换话题,说些陈词滥调,用问题回答问题,要么就说善意的谎言(这些都是现在的聊天机器人所擅长的)。这说明,机器人的程序中已经有了一张如何做出逃避性回应的清单,必须从中选择一种使事情最为简化的回应。

需要机器人完全说真话的少数场合之一是对主人的直接提问进行回答,主人可以理解这个答案可能真实而残酷。或许仅有的另外一个需要机器人说真话的场合是警察办案的时候,这时需要完全的真相。除此之外,机器人可以自由地说谎,或者隐瞒事实。这样,社会的车轮才会顺利转动。

换句话说,机器人必须社会化,就像十几岁的青少年一样。

机器人能感觉到疼痛吗?

我们一般会给机器人安排枯燥、肮脏或危险的工作。机器人没有理由不做无休止的重复或肮脏的工作,因为我们不会给它们编入感觉到枯燥或厌恶的程序。真正会产生问题的是当机器人面对危险工作的时候。这种情况下,我们会希望对机器人编程使它能够感觉到疼痛。

我们进化出痛感,是因为它能帮助我们在危险环境中存活。儿童如果生下来就没有感觉疼痛的能力,这是一种基因缺陷,称为先天性无痛症。表面看来,这似乎是一种福分,因为儿童在经历伤害时不会感到疼痛,但事实上这更是一种诅咒。患这种病的儿童会遇到严重的问题,比如咬掉自己的舌头,皮肤严重烧伤,割伤自己,有时会导致手指截肢。疼痛使我们对危险保持警觉,告诉我们什么时候从燃烧的炉子上把手拿开,什么时候停止带着扭伤的脚跑步。

某些时候,机器人的程序设计也应该使它感觉到疼痛,不然它们将不会知道什么时候躲避危险。它们必须具有的第一种疼痛感是饥饿(即渴望得到电能)。当电池用尽时,它们会变得绝望、着急,意识到不久自己的电路就会关闭,自己的所有工作会陷入一团糟。它们越是接近没电,就越发焦虑。

同样,不管它们有多么强壮,机器人也会偶然遇到所搬运的物体太重,可能把肢体弄断的情况。或者,它们在钢铁厂的工作会接触到熔化的金属,或者进人燃烧的大楼去帮助消防员时可能会遭遇过热。温度和压力传感器会警告它们自己的设计规定已经被突破了。

但是,一旦在它们的情感清单中加入疼痛感,就会立即出现道德问题。很多人认为我们不应该给动物施加不必要的疼痛,对机器人,人们也可能有相同的感情。这就引出了机器人的权利问题。我们可能会颁布法律限制机器人要面对的疼痛和危险值。如果机器人做的是枯燥或肮脏的工作,人们并不会在意,但如果它们在从事危险工作时感到疼痛,人们可能就会开始提议立法保护机器人。这甚至会引起法律冲突,机器人的主人和制造商要求提高机器人能够忍受的痛感,而道德人士要求降低这种痛感。

这还可能会引发有关机器人其他权利的道德辩论。机器人可以拥有财产吗?如果机器人偶然伤害到人会怎么样?能够对机器人进行诉讼,对它们进行惩罚吗?在诉讼中由谁承担责任?机器人可以拥有另外一个机器人吗?这种讨论引出了另外一个棘手的问题:应该给机器人道德感吗?这些问题现在还不好推论!

版权声明:本文内容由互联网用户自发贡献,该文观点仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌抄袭侵权/违法违规的内容,一经查实,本站将立刻删除。

上一篇

下一篇