博舍

Podcast听闻|周轶君:当人工智能对撞资本主义 人工智能摧毁资本主义的例子

Podcast听闻|周轶君:当人工智能对撞资本主义

OpenAI创始人SamAltman最近接受《福布斯》采访,语出惊人:他的公司将成为“摧毁资本主义的一部分”(willbeapartofdestroyingcapitalism)。后来他又替自己圆回去:“我认为资本主义了不起。我爱资本主义。”并学着丘吉尔谈论“民主制度”的句式说:“在世界上所有的坏制度中,资本主义是最好的那个,或者是我们目前为止能够找到的最不坏的那个。我希望我们能够找到更好的。”

一个生于1985年、在资本主义制度中长大并获得巨大成功的人,竟然说自己的目标是“摧毁资本主义”,多少有点匪夷所思。联想起最近火爆的上野千鹤子著作中,也有专门论述《父权制与资本主义》,这样的反思似乎一直具有强大的生命力。在以效率和结果为导向的社会中,“主义”本身已经不大被深究,但在世界大部分地区,有关资本主义制度的讨论从未止息,在年轻人中曾经掀起一波又一波的浪潮。反思的原动力是“公平分配”,如何摆脱一味追求利润、实现更公平的社会。比如2016年美国总统选举,候选人之一桑德斯,就被贴上“社会主义”的标签,吸引了大批年轻选民。

那么,SamAltman眼中资本主义制度的弊端是什么呢?在这篇访问中并没有透露多少。而当记者问道,OpenAI是一个以“研究”为导向的企业,但随着ChatGPT的里程碑式登场,大批投资者希望能够注资,这之间的矛盾如何解决?拿钱,还是坚持独立研究呢?Sam在回答这个问题时,谈到了“资本主义制度”。单纯“盈利”,一定不是他的目标,Sam的真正野心,访谈中提到了,也是写入公司章程的:AGI,全称为ArtificialGeneralIntelligence,通用人工智能,是一种能够像人一样综合思考、学习、执行多种任务的人工智能系统,有别于“特定领域人工智能”,比如ChatGPT,是语言领域的人工智能,而不是无所不能。

OpenAI的官网上,就宣告了他们的使命是确保“通用人工智能”AGI,在绝大多数创造经济价值的工作中,比人类表现更好,但最终让全人类受益。Sam认为,如果通用人工智能可以实现,就可以想象“所有打破资本主义的路径”了。可不可以这样理解:在他看来,资本主义的本质是榨取人的剩余劳动价值,那么如果AGI真的可以大包大揽所有以体力劳动、机械重复劳动换取工资的工作,岂不是把人类从资本主义压榨中解放了出来?

AGI这个提法,最早可以追溯到2003年瑞典哲学家NickBostrom发表的论文。他讨论了超级智能的能力与道德,这种智能具有自我提升(self-improving)的能力,会大大超越人的智能,达到一种“智能爆炸”的水平。

换句话说,依靠人类的智慧,已经难以挣脱资本主义崇拜金钱、追逐利润的封闭循环,需要寻找比我们更厉害的头脑去寻找通往公平社会的道路。

实现公平社会的最终理想要靠外援——人工通用智能。如果AGI不但为我们劳动,还能替我们思考社会制度的设计,OpenAI官网的预言还能成真吗?“AGI是安全的、有利于人类的。”应该只有AGI可以回答这个问题了,我注定无法跳出人类的思维方式去思考。

iWeekly周末画报独家稿件,未经许可,请勿转载

人工智能未来可能会摧毁人类的真正原因

人工智能未来可能会摧毁人类的真正原因2019年10月31日图像来源,GettyImages

图像加注文字,

专家说,即使友善机器人也会倒戈

从英国著名理论物理学家史蒂芬·霍金(StephenHawking)到特斯拉创始人伊隆·马斯克(ElonMusk)等世界顶尖人工智能(AI)专家,都曾表示过人工智能对人类生存的威胁。

真有一天,人类会成为自己发明的机器人的受害者吗?

加州大学伯克利分校(UniversityofCalifornia,Berkeley)的斯图尔特·罗素教授(StuartRussell)是该领域的专家。

人工智能:永远铁面无私的入境边检员我们能用大脑意识控制电脑和机器吗?人工智能帮助写电子邮件是好事还是坏事他在刚出版的《人类相容:人工智能与控制问题》(HumanCompatible:AIandtheProblemofControl)一书中指出,这种威胁并非来自机器人开始有了自我意识,并起来反抗人类主人。

而是因为这些机器人能力变得超强,最后有可能是因为人类的疏忽,为机器人设置了错误的目标,让他们无意中把我们都消灭了。

罗素教授表示,这才是我们应该担心的,而不是像好莱坞大片中所描绘的那样,人工智能开始有自主意识,并向人类倒戈,最后把我们都杀光。

罗素教授强调:我们应该担忧的不是意识,而是它们的能力(competence)。

“超强能力”图像来源,GettyImages

图像加注文字,

机器人对人类交给他们的任务越来越胜任。

罗素教授在接受BBC的采访时表示,假设我们发明了一个可以用于控制气候变化的强大人工智能系统,并且能将大气中的二氧化碳水平恢复到工业革命前的水平。

该人工智能系统经过分析后认为,最容易的方式就是消灭人类,因为人类活动是产生二氧化碳的最主要来源。

当然人类可能会对机器人说,你做什么都可以但就是不能把人类全灭绝。人工智能系统然后可能会说服人类少生孩子,直到最后没有人生孩子,人类慢慢灭绝为止。

这个例子是想强调与人工智能有关的风险,这些风险都是人类在创造人工智能前并没有想明白的。

关于人类灭亡的几大末世猜想机器人如何“抢走2000万工人的饭碗”AI的前世今生:神话、科幻和现实超级智能英国剑桥大学存在风险研究中心(CentrefortheStudyofExistentialRisk,CambridgeUniversity)表示,当前大多数AI系统都是相对“狭窄”的应用程序,专门用于解决某一领域中的特定问题。

但1997年,超级电脑深蓝(DeepBlue)打败了国际象棋世界卫冕冠军加里·卡斯帕罗夫(GarryKasparov),成为人工智能史上里程碑。

图像来源,GettyImages

图像加注文字,

深蓝的胜利是人工智能发展史上的一个重要时刻。

然而,虽然深蓝击败了世界象棋卫冕冠军,但深蓝却可能连一场简单的跳棋游戏都赢不了。因为深蓝的设计者是专门让它下象棋的。

但这才仅仅是开始,随着人工智能的发展和进步,阿尔法围棋的最新版AlphaGoZero在经过短短3天跟自己练习之后,已经达到了超人水平。

AlphaGoZero通过深度学习,已经不太需要太多的人工程序。它成为围棋、国际象棋以及将棋(又称日本将棋)的高手。

这里,最让人感到震惊的是,AlphaGoZero完全是自学成才。

剑桥大学存在风险研究中心表示,随着人工智能逐渐强大,它可能会成为超级智能。它会在许多,或是几乎所有领域都超越人类。

罗素教授说,这就是为什么人类需要收回控制权。

如何收回控制权图像来源,GettyImages

图像加注文字,

罗素教授说,人类需要收回控制权,否则就晚了。

罗素说,赋予人工智能更明确的目标并不是解决这一难题的方法,因为人类自己都无法确定这些目标是什么。

罗素表示,人们应该彻底改变建立人工智能系统的整体基础,例如,不再给机器人一个固定目标,而是让人工智能系统必须明白,它不知道目标是什么。

一旦人工智能系统以这种方式运作的话,它就会听从于人类的指挥。在执行任务之前,它会寻求人类的许可,因为它不确定这是不是你想要的。

罗素教授表示,最至关重要的是,它们(AI)会乐意接受被随时关闭的选择,因为它们也希望避免做那些你不喜欢的事情。

神灯中的精灵图像来源,GettyImages

图像加注文字,

科幻片《2001:太空漫游》中,机器人电脑拒绝被关闭。

罗素说,我们现在发明的AI系统有点像传说中的神灯中的精灵一样,你轻拍神灯,灯里的精灵出来了。你对精灵说:“你给我做这件事吧。”

“如果AI系统足够强大,它就会完全按照你的要求去做,你也会得到你所要求的一抹一样的结果。”

但罗素表示,问题是跟神灯中的精灵故事那样,第三个愿望总是要求精灵“取消前面的那两个愿望”,因为我们无法确定自己到底想要什么。

其结果就可能造成,那个试图完成错误指令的机器人实际上变成了人类的敌人,一个比我们强大得多的敌人。

到那时,一切就太晚了。

版权声明:本文内容由互联网用户自发贡献,该文观点仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌抄袭侵权/违法违规的内容,一经查实,本站将立刻删除。

上一篇

下一篇