马斯克谈人工智能安全和发展:我是 OpenAI 存在的原因
站长之家(ChinaZ.com)5月17日消息:马斯克当在地时间周二的股东大会后接受CNBCDavidFaber的采访时称,他是「OpenAI存在的原因」,并引用了他过去对该公司的投资,以及微软对该人工智能公司的控制权,这一说法遭到微软首席执行官萨提亚·纳德拉的强烈否认。
马斯克告诉DavidFaber说:「是我想出了这个名字。」他还表示,他在招募该公司的关键科学家和工程师方面发挥了重要作用。
马斯克此前多次声称微软控制着OpenAI,并对OpenAI的有限利润模式表示质疑。据报道,马斯克是这家人工智能初创公司的早期支持者,据称在对OpenAI的发展速度产生分歧后承诺了10亿美元的支持,但后来退出了投资,最终他大约投资了5000万美元左右。
他还表示OpenAI没有足够强调安全的人工智能发展。马斯克曾是三月份一封呼吁在建立安全保障措施之前暂停先进人工智能发展的公开信的签署人之一,但他告诉Faber他知道这封信不太可能起作用。
尽管签署了这封信,马斯克仍然在四月份创办了一家竞争对手人工智能公司X.AI。但马斯克补充说,签署警告人工智能危险的信是他想要「为了记录」而做的事情。
OpenAI的发言人没有对此立即发表评论。
此外,马斯克告诉Faber,他曾与谷歌联合创始人拉里·佩奇关系密切,两人曾就人工智能的本质进行长时间的对话。
马斯克声称佩奇对人工智能持有「相当轻率」的态度。马斯克指控佩奇「似乎对人工智能的安全性不太关心」,并表示:「导致我绝交的最后一根稻草是拉里因我支持人类意识而非机器意识而称我为『物种主义者』。」
拉里·佩奇没有立即发表评论。
(举报)
“钢铁侠” 马斯克与人工智能的中场战事
多年以后,当伊隆·马斯克(ElonMusk)带着幸存的人类搭上SpaceX逃到火星,地球已经失守,人类终究还是败给了人工智能。站在荒凉的异星,马斯克想起了那个遥远的午后,他驾驶着搭配Autopilot8.1自动驾驶系统的ModelS赶往加州阿西洛马的会场,与霍金等人谋划如何防止人工智能失控。
前几天马斯克研究脑机连接技术的新公司Neuralink再次成为了科技圈的热点,从移动支付公司PayPal、太空探索科技公司SpaceX到电动汽车厂商特斯拉,马斯克每一次创业都似乎要颠覆一些行业。
那这次马斯克要改变什么?可能真的是我们想太多了,马斯克所做的这一切可能只是为了对抗人工智能。马斯克在今年2月在迪拜举行的“世界政府峰会”(WGS)上就曾表示:
人类需要与机器相结合,成为一种“半机器人”,从而避免被人工智能淘汰。
实际上,马斯克与人工智能的战役早就开始了。
向人工智能宣战马斯克凭借SpaceX和特斯拉项目一跃成为硅谷备受瞩目的偶像人物,同时也被认为是最接近钢铁侠原型的人。现实中这位硅谷钢铁侠似乎真的想像超级英雄一样拯救人类,但不同的是,他不会像电影中的钢铁侠一样和自己的人工智能管家贾维斯并肩作战,反而认为硅谷对人工智能的追逐会最终引发灾难。
(图自:reddit)
2014年,马斯克在麻省理工大学的演讲中第一次提出人工智能威胁论,称人工智能是人类面对的“最大生存威胁”,并可能会因此召唤出一个恶魔。此后便一发不可收拾,在去年的CodeConference大会,马斯克的人工智能威胁语录又增加了一句:
人类将沦为人工智能的宠物。
其实马斯克对人工智能的提防可能要比想象的早得多,在最近名利场的一篇文章《ElonMusk’sBillion-dollarCrusadetoStoptheA.I.Apocalypse》中,就探讨了马斯克对人工智能的恐惧,其中提到SpaceX的火星移民计划可能也是马斯克对抗人工智能的一部分,马斯克称如果人工智能崛起,火星可以成为人类最后的避难所。马斯克甚至直言:
人类是第一个拥有自我毁灭能力的物种。
(图自:UniverseToday)
马斯克对抗人工智能的手段当然不止是逃离地球,他决定以牙还牙,2015年马斯克和几位好友共同出资10亿美元创立了一家非盈利性质的人工智能公司OpenAI,决定开发有利于人类的人工智能,OpenAI所取得的所有专利也将向公众开放。
马斯克在接受《名利场》采访时表示他其实并不反对AI发展,但他认为应该把相关技术向全世界公开,而不是集中在少数在科技与政府精英手中。此外马斯克还向生命未来研究所(FLI)赞助了1000万美元,进行人工智能安全研究。
(图自:新浪科技)
不过硅谷有不少人都对马斯克的人工智能威胁论嗤之以鼻,不少人工智能工程师时常调侃道,“走,我们去召唤恶魔吧。”甚至有人认为马斯克把自己塑造成一个对抗邪恶的正义形象,其实是为了帮自己招揽更多人才。马斯克也表示由于对人工智能观点的分歧,一度影响了他与Google创始人拉里·佩奇的的关系。
不过马斯克不是一个人在战斗,对抗人工智能的阵营正在不断壮大。在今年1月初举行的“BeneficialAI”会议上马斯克、霍金等全球2000多人,包括844名人工智能和机器人领域的专家联合签署了“阿西洛马人工智能原则”,向全世界呼吁在发展人工智能的同时严格遵守这23条原则,共同保障人类未来的利益和安全。马斯克在会议上发言时说:
我们正走向超级智能,亦或是人类文明的结束。
(BeneficialAI”会议会场)
而在去年9月,美国五大科技巨头(Google、Facebook、亚马逊、IBM、微软)也携手成立了人工智能合作组织(PartnershiponAI),旨在为人工智能的研究制定和提供范例。
牛津哲学家,知名人工智能思想家NickBostrom在其著作《超级智能》的开头曾提到一个寓言,麻雀妈妈希望收养一只猫头鹰来帮助麻雀们筑巢和担当保镖,但是老麻雀却认为应该先学会驯服猫头鹰。
如今人工智能的浪潮再一次袭来,这个寓言似乎正在成为现实,或者说是一种警告。
第三次人工智能浪潮在AlphaGo战胜李世石之前,人们对于人工智能的印象大部分来源于各种科幻电影。人工智能似乎一直以来都是一个带着科幻色彩的词汇,这让人们产生了人工智能从未被实现的错觉,而实际上人工智能的诞生比互联网还要早。
学习或者智能的任何其他特性的每一个方面都应能被精确地加以描述,使得机器可以对其进行模拟。
在1956年的达特茅斯会议上,人工智能”第一次被正式命名,人工智能由此诞生。
(第一届达特茅斯会议部分与会者,图自:中华网文化频道)
这让不少科学家开始起航,趋之若鹜地奔向人工智能领域,世界迎来了第一个人工智能大潮。在过去的60多年来,人工智能已经经历了两次大起大落,从80年代末到90年代初,由于经费削减和备受质疑,研究者们还经历了艰难的“AI之冬”。
但就像《海贼王》里所说的,世代传承的意志,时代的变迁,人们的梦,只要人们继续追求答案,这一切的一切都将永不停止。
从1997年IBM的下棋程序“深蓝”击败了卡斯帕罗夫到AlphaGo战胜围棋选手李世石,今天,我们正处在第三次人工智能大潮之中。
(图自:Novinky)
而Google无疑是其中的佼佼者,近几年Google把不少出色人工智能公司收入囊中,其中就包括以6.5亿美元买下发明AlphaGo的DeepMind,还组建了GoogleBrain团队专攻人工智能技术的研究,并以此向智能家居和无人车等领域拓展。李开复在题为《人工智能的黄金时代》的演讲中这样评价Google在人工智能上的前景:
对于Google,我们千万不要低估了它的能力,因为这家公司可能是未来推动人工智能平台化的最大力量。
在国内,百度已经把人工智能当做自己未来的核心战略方向,不少公司也纷纷跟进,有投资人称人工智能或成为新的风口。而在前几天的2017年人工智能电脑视觉产业创新大会上,工信部也明确指出把人工智作为重大国家战略来策略部署,还要从四个方面推动人工智能发展。
(图自:第一财经)
随着人工智能迎来前所未有的热潮,对人工智能的争论也达到新的高潮,毕竟在风口至上,相比起投资人工智能的资金,对人工智能安全研究的投入显得微不足道。
那么马斯克们对人工智能的担忧到底是先见之明还是杞人忧天呢?
人工智能带给人类的,是永生还是灭绝?在《名利场》那篇文章中,马斯克举了一个人工智能可能占领地球的例子:一开始人类可能只是创造了一个人工智能来摘草莓,但随着这个人工智能越干越好,它会为了更好地完成摘草莓可能会把全世界都变成草莓园,并把阻碍它完成目标的障碍(包括人类)一一消除。
这个观点并不是第一次被提出,WaitButWhy网站的创始人TimUrban在一篇论述人工智能的文章中,也举了类似的一个例子,一个被设定为模仿人类写字的人工智能系统为了更好地写字最终杀光了人类。
(图自:Taringa)
这看起来好像只是脑洞大开,实际上如果上述例子要成为现实,至少也要达到强人工智能的程度,而目前大部分人工智都处在弱人工智能的阶段。目前主流的观点认为人工智能可以分为三个阶段:
弱人工智能(ArtificialNarrowIntelligence):弱人工智能拥有强大的计算能力,但只在某方面强于人类,比如Siri和AlphaGo。强人工智能(ArtificialGeneralIntelligence):强人工智能在各方面都能达到人类的水平,包括能以批判性思维和抽象思维思考问题,但目前还没有人工智能可以做到。超级人工智能(ArtificialSuperIntelligence):按照NickBostrom的说法,超级人工智在几乎所有领域都比最聪明的人类大脑都聪明很多,包括科学创新、通识和社交技能。(图自:TheNextTech)
被称为”人工智能之父“的图灵,曾经提出一个关于判断机器是否能够思考的著名试验,并创立了一个勒布纳人工智能奖(Loebnerprize),旨在奖励能通过图灵测试的程序,由于目前为止还没有谁能获得最高奖项,只能把奖项颁给最接近的程序,如聊天机器人Mitsuku。
马斯克等持人工智能威胁论者真正担心的其实是超级人工智能,但在人工智能连图灵测试都无法通过的今天,担心遥不可及的超级人工智能是不是太早了?
但未来学家RayKurzweil曾经提出一个加速回报定律(LawofAcceleratingReturns),试图证明这一天的到来会比我们想象中要快得多。
根据这个理论,技术改良以过去的成就为基础,每十年革新的步调会加倍。按照加速回报定律,Kurzweil认为人类科技水平在21世纪的进步将是20世纪的1000倍。
(加速回报定律示意图,图自:wordpress)
而对于人工智能,也有人提出过一个类似的概念——递归的自我提升。这个理论认为人工智能具有自我提升的机制,每一次提升都会比上一更次容易,最终达到指数级的提升,超级人工智能将会出现,达到人类也再也无法理解的技术奇点。
在今年2月马斯克、霍金等科学家推进的阿西洛马人工智能原则中,就包括了“人工智能这种快速自我提升的的方式必须受制于严格的安全和控制标准”。
但无论是加速回报定律,还是递归的自我提升,这些观点在学界和业界都备受争议,正如人们对人工智能的争论。
人工智能思想家NickBostrom曾在2013年对数百位科学家做了问卷调查,问卷的内容是“你预测人类级别的强人工智能什么时候会实现”,有一半科学家认为强人工智能出现的中位年份是2040年,而75%的科学家认为在达到强人工智能后30年内就会出现超级人工智能。
(《西部世界》中的机器人,图自:Giphy)
NickBostrom希望证明人类试图理解超级人工智能终究的徒劳无功的,当人工智能发展到比人类智力水平高出几个量级,人类对抗人工智能就好像一只老鼠试图阻止人类发明捕鼠器一样。
这里要说明的是,传说中的超级人工智能可能不会像《终结者》和《西部世界》中的机器人一样“有血有肉”有情感,而是一个完全依赖算法的冷血物种,甚至不会有实体形态。正如马斯克所说:
人工智能的可怕之处不是它会化身机器人杀死人类,机器人本身只是一个终端传感器和执行器,人工智能形成算法在网络的无限扩散才是不可阻挡的。
NickBostrom也曾提出过人工智能将核心代码上传到云服务器从而在世界范围内制造纳米机器人,然后不知不觉释放毒气来灭绝人类的设想。
(图自:TEDIdeas)
人类不是没考虑过应对的方案,去年6月人工智能公司DeepMind就发表了一篇论文,为预防超级人工智能的反叛设计了一个方案,称只要人工智能一失控,人类只要按下一个“大红按钮”就能阻止人工智能。但如果超级人工智能真的如众多研究者所说的那么厉害,要破解人类这种伎俩也是轻而易举了。
关于人工智能,也有人认为有可能让人类摆脱肉体的限制,把自己的思维上传云端,通过人造的躯体达到永生,马斯克研究脑机连接的新公司就被认为有这种可能。这和众多人工智能威胁论形成两个极端,人工智能带给人类的,是永生还是灭绝?这或许是个无法证伪的命题。
题图来自:《名利场》
为什么马斯克有关人工智能的警告可能是正确的
TechWeb8月27日报道文/小狐狸
特斯拉和SpaceX首席执行官埃隆·马斯克(ElonMusk)曾经就人工智能(AI)发出新的警告,称这种技术对人类的威胁比朝鲜核武器还要大,而且他曾一再表示,随着越来越多地使用人工智能(AI),社会需要更加关心其安全问题。
马斯克最近在推特上表示:“如果你之前不担心AI的安全,那么现在你应该担心了。”
SAP软件解决方案公司的首席学习官珍妮·迪尔伯恩(JennyDearborn)对此观点表示赞同。事实上,她说,教育好人工智能知识和如何最好地利用它是至关重要的。
她告诉CNBC:“人工智能将无处不在,这将是我们社会最普遍的一个现象,这种现象不会被明显看到,但它会隐藏在一切的背后。”
迪尔伯恩认为人工智能会影响我们所做的一切
迪尔伯恩表示,它会影响我们所做的一切,包括扫描徽章,滚动网页,使用应用程序和家庭传感器系统以及许多其他日常生活方面。因此,人工智能将会不断地收集数据和个人信息。企业可以利用这些信息和应用算法来了解你的行为。
她还表示:“我们需要使用人工智能来使人类更加强大,而不是取代人类。我们需要更多的人就如何使用人工智能发表他们的看法,这样我们才不会被人工智能所利用。”
但谁会利用我们,我们为什么要小心呢?迪尔伯恩说,有三家人工智能前沿公司:谷歌、Facebook和亚马逊。她说,如果人类被人工智能利用,这三家公司将获益最多。人们需要深入了解人工智能的渗透程度,这样他们才不会在某天醒来说“我一直就是一颗棋子”。
迪尔伯恩认为这是一个极端但似乎合理的情形。她问:“谁来做这个决定?”她说,如果我们不参与人工智能的讨论,那么这些大公司将会拥有所有的话语权。
迪尔伯恩担心,为方便起见,人们乐意泄露隐私。她表示:“他们说‘我接受’,但是,如果一家公司越过红线怎么办呢?”
迪尔伯恩说:“现在大多数公司都持有比政府更大的权力。”今后会有大量关于隐私,个人自由和红线的讨论。因此,教育是关键。
迪尔伯恩表示,我们应该决定我们希望新经济是怎样的,并理解我们在其中扮演的角色,参与讨论,做一个有知情权的公民。这样,关于人工智能如何被设计和以何为导向,社会大体上可以做出明智的决定。
马斯克认为人工智能对人类文明的存在构成了根本性的风险
马斯克表示赞同,他说:“人工智能对人类文明的存在构成了根本性的风险,这与汽车事故、飞机相撞、药物错配、食品安全的影响方式不同,后者只会对社会局部造成损害,不会对整个社会造成威胁。”
迪尔伯恩的解决方案如下:“我们应该训练年轻人对我们要去往哪里持批评态度。”她说,她支持年轻人进入科技行业,事实上,对我们生活产生最大影响的重大决策经常来自于科技行业,而不是政府。如果你想从事卫生保健行业,就选择以医疗保健为重点的科技类专业;如果你想成为一名神经系统的科学家,那就选择以神经系统为重点的科技类专业。”
迪尔伯恩补充说,我们最大的社会责任是弄清楚社会如何使用人工智能。她举了这样一个例子:谷歌一直在尝试自动驾驶汽车。但是,如果一辆无人驾驶汽车即将发生碰撞,它必须在拯救驾驶员和撞向人群,或避开人群但让载有驾驶员的汽车发生碰撞之间做出一个数学决策,那该怎么办?
尽管她承认这是一个极端的例子,但迪尔伯恩说,人们很快就必须回答这类型的问题。因此,让更多不同的人群参与到有关人工智能开发和应用方式的讨论很重要。
她说:“这就像创建一个政府结构和社会秩序。你需要确保建立这些系统的人有平等的代表权,多样性和包容性。现在的科技领域以白人男性为主,他们对我们的道德和社会原则制定了规则。对此,我们不能采取自由放任的方式。这些都是道德准则和红线,不能让一个营利性公司自己做出这些决定。”
标签:人工智能马斯克迪尔伯恩
更多好物在等你新浪众测·免费送推荐阅读聚焦应用中心新浪公益新浪游戏新浪视频新浪科技带领皇室家族赢得胜利靠反应力还不如背赛道动脑筋喂小怪物吃饼干轻松延长手机续航时间练就梦寐以求的好身材帮助保持健康生活方式随心所欲打造完美效果银河系最全新番齐放送复杂世界里一个就够了进入机器梦境寻找真相疯狂逃离恐怖的压碎机冰锋暗影古色庙殿狂奔斗巫师夺回被偷的糖果屯兵练兵出征攻占堡垒伪装胖猪混敌营救伙伴国内最专业的手机地图帮你一起保护你的颈椎随时随地轻松订火车票沈阳遭遇六级重度雾霾2万大妈齐跳小苹果禁烟范冰冰传递社会正能量未富先老养老金吃紧益调查:慈善需立法么反虐待动物法制化呼声高涨如何看待广州拟奖拾金不昧环保部即将解决红顶中介明星婚礼上的“善”姿“百名春蕾之星”评选舞剧《画皮》关注孤独症女孩患尿毒症自筹药费互联网发展基金会成立林青霞为慈善参加节目全面实施城乡大病保险儿童安全座椅强制认证办养老院真的是机会么志愿者慰问抗战老兵战舰世界海神节礼包乱斗西游2新浪独家卡倩女幽魂2夏日特权卡功夫熊猫新手高级礼包新倩女幽魂新浪特权卡灵魂战神不删档测试码我是大主宰新浪荣耀卡大话西游2免费版礼包西楚霸王新浪荣耀礼包镇魔曲神兵觉醒尊享卡完美国际2一生有你卡新天龙八部新手特权卡问道经典十年至尊礼包大战神新浪独家礼包热血传奇新区独享礼包剑网3萌宠浪浪大礼包创世2封测激活码问道手游媒体礼包极限Girl美与野性结合让萌宠当一天司机亲千万不要手贱啊超级屌的视觉错觉运动地球上最美丽的天堂鸟新一代武林最萌小道士神奇的PS造钱术大开眼界的泡面新吃法让宝宝嘴馋的菠萝炒饭经典电影镜头神级剪辑亲手教你范爷经典妆容盘点全球最糟糕山寨品恶搞:当一骷髅在开车健身是把整容刀三分钟看尽十年成长和TFBOYS一起过暑假不用去医院的牙美白术一分钟识别面试潜台词Windows10升级秘籍净水器的水有多深?识趣毕业季户外特辑用户关注手机哪些功能有曰:国内外展会吐槽三十年经典Moto手机ChinaJoy2015大看点东芝虚增利润财务丑闻紫光集团收购美光科技诺基亚为未来电影造球全球APP开发创意大赛享说第四期主持人李晨猎豹靠近捕食熟睡疣猪非洲血腥动物标本加工相机拍泡腾片遇水冒泡冰岛令人窒息美景懒惰青蛙蜗牛背搭便车美摄影师拍奇怪毛毛虫「我怀疑伊隆·马斯克是人工智能」
人工智能已经成为我们生活的这个时代里最强大的力量之一。
人脸识别植入我们的手机同时也走进了社区和街道,语音识别让我们能和机器对话,实时翻译使跨语言交流变得比以往更轻松,机器诊断、自动驾驶……人工智能几乎渗透到了人类社会的方方面面。
然而另一方面,人们却对人工智能和人类共同相处的未来生活充满未知、疑惑和担忧。人工智慧究竟是人类的帮手还是对手?它会威胁到人类的生存吗?越来越强大的人工智能会剥夺人类的工作权并让我们存在的意义变得越来越弱吗?
带着这些问题,爱范儿专访了世界十大AI科学家之一特伦斯·谢诺夫斯基(TerrenceSejnowski)。
关于特伦斯·谢诺夫斯基世界十大AI科学家之一、美国在世仅三位的「四院院士」之一、全球AI专业会议NIPS基金会主席。特伦斯·谢诺夫斯基是深度学习的先驱和奠基者,曾于1985年和图灵奖得主杰弗里·辛顿共同发明玻尔兹曼机,将神经网络算法和机器学习带入一个新的发展时期。
谢诺夫斯基的「金句」有些人的目标是创造像人一样的人工智能,但是何必呢?要创造和人一样的智能,我们生孩子就好了。AI会让你更聪明。全人类都有偏见,AI只是反映了我们的偏见。创建一个没有偏见的AI是不可能的。我怀疑伊龙·马斯克自己就是个AI。如果继续沿着这个方向前进,终有一天我们会搞明白我们是谁。人类可以残酷对待彼此,AI为什么不能?
以下是此次专访的文字记录(整理后):
爱范儿:有人认为AI只是一种工具,本质上和一把锤子没有区别;也有人认为AI可以和人类比肩,甚至会自我进化为另一种智慧,对此你怎么看?
谢诺夫斯基:AI现在是工具,但它是一种特别的工具。打个比方,一把锤子能翻译吗?现在我们可以用AI这个特别的工具解决很多问题,比如语言、视觉、语音等等。事实上,我们用AI所做的事情非同寻常。有些人的目标是创造像人一样的人工智能,但是何必呢?要创造和人一样的智能,我们生孩子就好了。我们的目标应当完全不一样,也就是创造和人类兼容的人工智能,让人类更聪明。我们在努力增强人类智慧,让它更强大。因为人类会犯很多错误,比如发动巨大的战争,让很多人丧命。让我们创造AI来阻止未来战争吧,它可以帮我们彼此互动以创造一个更好的世界。
爱范儿:你认为人工智能的下一个革命性的突破会是什么?
谢诺夫斯基:我认为我们还处在AI革命的开始。在思考下一次革命之前,得先完成这一个。我们面临的另一个难题是,未来很难预测。
爱范儿:有哪些人类的技能是您认为AI无法做到的?
谢诺夫斯基:这个问题是关于未来的推论,但是我们并不知道AI会把我们带到哪里去,没人能预测这一点。不过,没有什么法则限制我们创造一个AI来解决目前只有人类能解决的那些问题。既然没有这样一个法则限制,那么这些都是可能发生的。比方说,人无法做到超越光速,那是因为有物理法则限制。但是据我所知,目前没有发现针对智能的物理法则限制。
爱范儿:通用人工智能会出现吗?
谢诺夫斯基:并没有什么自然法则限制通用人工智能的诞生,只要有可能,它就会发生。我们有证据表明通用人工智能会出现,只是不知道什么时候会。
爱范儿:AlphaGo和柯洁对局时,曾经下出一些人类棋手们从未见过甚至无法理解的招数,当人工智能以一种完全不同于人类的方式解决问题时,我们是不是无法真正理解他们所做的事?
谢诺夫斯基:一般智力(注:认知心理学概念,被认为是人类智力中一种普遍而概括的能力,来自先天遗传)最大的特征之一是创造力。人类的创造力是一个天赋,它让我们能够发现并解决特殊问题,这是人类拥有的比其他物种优越的特殊财富。AlphaGo不仅击败了柯洁,还让他感到震惊。AlphaGo创造了人类棋手从未想象到的新招数。围棋是一代又一代人玩了几千年的游戏,但是现在AlphaGo超越了人类,创造了全新的玩法。从2017年以来,发生了一些有趣的事情:人类棋手们观摩AlphaGo的对局,然后从中吸收新的招数,他们的棋艺变得越来越好。AlphaGo提高了人类的围棋水平。所以,其实AI会让你更聪明。
▲柯洁和AlphaGo对弈。图片来自:DeepMind
爱范儿:现在,像希尔顿、联合利华和高盛这样的世界500强公司,在使用AI来分析求职者的面部动作、声音,给求职者的面试打分。这套系统中包含了对求职者情感和意图的评估,人工智能真的已经具备这种能力了吗?如何确保它公正呢?
谢诺夫斯基:你看,iPhone的FaceID可以帮我解锁屏幕,其实它可以做得更多,比如用深度学习算法来识别你是快乐还是悲伤。我之所以知道这个,因为三年前苹果从我的实验室购买了一家初创公司,这家公司用深度学习来识别面部表情,可以比人类更好地分析你的情绪是高兴、悲伤、愤怒、惊讶或者恶心。再说公正,哲学家永远无法搞清楚他们的话到底是什么意思。在不同的文化里,公正意味着不同的东西。因此,创建一个公平的AI是不可能的。谈到偏见,全人类都有偏见,AI只是反映了我们的偏见。创建一个没有偏见的AI是不可能的。
爱范儿:越来越多的工作都交给AI去做,并且事实总是证明AI做得比人类更好,人类对这个世界还有什么用呢?
谢诺夫斯基:工厂里已经有了机器人,活干得比人更好,这只是第一步。下一步是创造能解决重要问题的机器人,比如诊断疾病,而这只是我们创造AI进程的开始。另外,人类从上帝那里继承了地球,而人工智能将继承整个宇宙。我们在地球上进化,也就呆在地球上,但是我们会把人工智能送出去,送去别的星球、别的星系。
爱范儿:有了人工智能,是否意味着人类的使命已经完成了?
谢诺夫斯基:我们并不知道我们为什么存在,这是个哲学问题。也许有一天,AI会问出相同的问题来。
爱范儿:伊隆·马斯克、霍金都担忧人工智能会威胁人类的生存,而你却一直很乐观,他们的担心是多余的吗?
谢诺夫斯基:我觉得他们的担心没什么根据,他们也不是AI方面的专家,我不会把他们的担忧当回事。他们是有自己的观点,但是你真的认为他们的观点比AI专家们的更好吗?再说了,我怀疑伊隆·马斯克自己就是个AI。
▲伊隆·马斯克。图片来自:CNBC
爱范儿:在人工智能越来越强大的时代,普通人应该做些什么以便更好地生活?
谢诺夫斯基:AI是一种工具,就像显微镜一样,我们看不到那些极其微小的东西,但是我们发明了显微镜来帮我们看到一个细胞内部的景象。回到1996年,有一个叫「深蓝」的电脑程序击败了国际象棋冠军卡斯帕罗夫。当时所有人都说这是国际象棋的终结,但是人类放弃下国际象棋了吗?今天的国际象棋冠军马格努斯·卡尔森(MagnusCarlson)出生在挪威的一个小村庄。要想成为一个国际象棋大师,你必须和高手对决,这往往意味着要在一个大城市里的象棋俱乐部里。但是马格努斯·卡尔森在一个小村庄长大,他和那些比人类大师更厉害的机器下棋。AI给了他机会,如果没有AI,即便他再有天赋,他也没有机会和比他厉害的「人」下棋,也就没办法进步。这件事说明,在21世纪,无论你出生在何处,只要有电脑,你就能和最厉害的「人」下棋。是AI让他更聪明,并且给任何一个想在某个领域成为专家的人开放了机会。
爱范儿:如果要更好生活需要学习AI的知识吗?
谢诺夫斯基:小孩可以不费力地学会任何他们能接触到的东西,他们不需要学就知道怎么用智能手机。如果你足够年轻,你也行。
爱范儿:你曾经说当下大部分人工智能是基于60年代对大脑的理解,目前这个领域里的基础研究在做什么?
谢诺夫斯基:奥巴马在2013年发起了一个重大的科研项目,叫「大脑计划」(注:TheBRAINInitiative,该计划旨在创造新的神经技术、加速对大脑功能和障碍的理解,谢诺夫斯基是该项目发起者之一)。在过去几年里,我们对大脑如何工作的了解,比以往任何时候都多。这些知识都会应用在AI上,就像80年代杨立坤(注:YannLecun杨立坤,人工智能领域三位奠基人之一、Facebook首席AI科学家、纽约大学终身教授)在卷积神经网络里把关于视觉系统的知识用在AI上一样。
爱范儿:在《深度学习》这本书的最后,你写道:「我们仍在寻找暴露智能最高形态秘密的核心概念。」如果真的做到了,接下来会发生什么?
谢诺夫斯基:我们一直尝试理解大脑是如何运作的,一旦搞清楚这一点,我们也就知道我们是谁了。科学尝试找出藏在我们的希望、志向、情感背后的东西,这些都属于「我们是谁」这个问题的一部分。如果我们继续沿着这个方向前进,最终有一天我们会搞明白我们是谁。
(注:《深度学习》是特伦斯·谢诺夫斯基作为亲历者对深度学习发展史的全景式解读,该书中文版已由中信出版集团出版发行。)
爱范儿:你认为智慧是关于量子层面的吗?
谢诺夫斯基:深度学习应用得最多的领域是科学,我们还可以将之应用在更深刻复杂的领域。如果我们加快科学研究,未来会有更多更好的技术。深度学习可应用在量子引力领域,这是一个很特殊的领域,比爱因斯坦的研究更进一步。深度学习还可以改善生物成像,给我们提供分辨率更高的图像。也可以应用在天文学,帮我们探索其他星球的资源,探究黑洞崩塌时产生的引力波的本质。我们可以利用工具在很多领域取得快速的发展,不只是商业领域,也在科学领域。我们用此来理解我们对于这个世界的复杂性。目前我们还不清楚关于人类思考原理的基本知识,这就是最终极的问题,了解我们自己,了解我们是谁。
▲高更《我们从哪里来,我们是谁,我们往哪里去》。图片来自:维基百科
爱范儿:如果某一天我们完全搞清楚了大脑是如何运作的,那么,像「直觉」、「信仰」、「意志」、「爱」和「同情」,这些词语还是不是原来的意思?
谢诺夫斯基:首先你要对这些词语有所理解,它们的含义在不同文化里是不一样的。这是语言的本质,模棱两可,而且含义一直在变化。在描述事情的方式上,在不同的文化里也不一样。
爱范儿:AI会同情人类吗?
谢诺夫斯基:当你说到同情,人类是否彼此同情?人类可以残酷对待彼此,AI为什么不能?
爱范儿:完全弄清楚大脑的运作之后,我们是否会对爱情之类的概念有新的理解?
谢诺夫斯基:浪漫主义的爱情是中世纪的一项创造,是一种文化产物。在它被创造之前,我们其实没有这种体验。因为在此前的数十万年里,人类都忙于为生存而搏斗。母子之间有爱,家庭成员之间有亲情,但是你会随机爱上一个陌生人这种经历,在(中世纪之前的)历史上是没有的。你真正要问的是AI是否会拥有一种类似于人类的文化,那将是AI文化。