周鸿祎:ChatGPT可能两三年内产生自我意识
转自:北京日报客户端
北京日报客户端|记者赵语涵“ChatGPT可能两三年内就会产生自我意识威胁人类。”360创始人周鸿祎近日谈到大热的聊天机器人“语出惊人”,引发关注。2月23日,360创始人周鸿祎在接受媒体采访时,提到大热的聊天机器人ChatGPT,并分享了他心中ChatGPT的“三重人格”。“从知识来说,它像一个博士生,学识广博但还不会活学活用;从情商来说,它像一个油滑的中年人,说什么都滴水不漏,绝不得罪用户。但是,它实际上真正的能力像一个小孩子,需要进行问题和答案的训练来学习技能。再聪明的孩子都要通过训练才能解答没学过的奥数题。”ChatGPT热潮正席卷全球。这款由OpenAI制作的AI聊天机器人软件,只用了两个月时间,月活跃用户达到1亿,是史上月活用户增长最快的消费者应用。此前,周鸿祎曾经多次在公开场合谈到他对ChatGPT的观察。在他看来,ChatGPT已经拥有或接近拥有了人类智慧,并正处于通往“通用人工智能”的临界点。“我们认为它是一个通用人工智能的奇点,而通用人工智能也还有一个隐含的拐点,它可能是一个强人工智能。”周鸿祎认为,ChatGPT和其他人工智能最大的区别、也是其类人特征是,原来的人工智能并没有实现对知识全部的理解和编码,本质都是按照关键字匹配已有的回答,但ChatGPT没有“固定答案”:“我当时问了它一个问题,赵匡胤为什么招安了宋江,杀掉了岳飞,这个无厘头的问题,它也煞有介事地回答了一遍,能够自己‘编’故事,这才是它的真正智能所在。”“ChatGPT可能在2至3年内就会产生自我意识威胁人类。”采访中,周鸿祎“语出惊人”。他提到,任何行业的APP、软件、网站、应用,如果加持上GPT的能力,都值得重塑一遍。“不要把它当成一个媒体工具、搜索引擎、聊天机器人,这都有点把它看的太小儿科了。”作为网络安全问题的专家,周鸿祎也分享了他心中的ChatGPT的安全问题。在他看来,ChatGPT的安全性从技术问题变成社会伦理问题。ChatGPT掌握了很多编程和网络安全漏洞的知识,可以成为网络犯罪的有力工具。有许多黑客演示了利用ChaGPT写钓鱼邮件和攻击代码,所以从某种角度而言ChatGPT也成为了黑客的“帮手”。“目前ChatGPT最大的安全问题就是产生自我意识后是否能被控制。”周鸿祎表示,假如放开限制,让ChatGPT尽情在网页中学习,可能会导致它产生对物理世界更强的控制能力,未来在发展上会产生更多不安全性,也有可能被人诱导干出“糊涂事”,而是否能控制强人工智能,正是ChatGPT是否彻底融入人类生活的“边界点”。至于外界关注的ChatGPT是否可能造成普通人失业?在周鸿祎看来,短期内不会,“目前它的定位还是人类工具,这也是它的创造力所在。目前它的自我意识还没有出现,所以需要发挥自己的想象力和创造力。”他也对中国开发出属于自己的ChatGPT充满期待。在他看来,中国在人工智能领域与微软、谷歌的差距并没有想象中的大。在ChatGPT领域,中国具有很大优势,有希望在2-3年内达到世界领先水平,应该对ChatGPT技术探索给予充分支持。具体而言,周鸿祎表示,中国的互联网公司在数量与算力有一定的优势,同时也有较强的科研和高校储备力量,必须将科研机构、学校、科学家等学术圈人士,和产业、工程、产品结合起来,充分调动和统筹资源。海量资讯、精准解读,尽在新浪财经APP我们如何知道人工智能有了意识
澳大利亚哲学家大卫·查莫斯(DavidChalmers)有一个著名的问题是,是否可以想象“哲学僵尸”(philosophicalzombies)——那些表现得像你我一样却又缺乏主观经验的人——的存在?这个问题引起了很多学者对意识的兴趣,包括我。原因在于,如果这种僵尸(或者说精密但毫无感情的机器人)可能存在,那么仅仅用物理属性——关于大脑或类似大脑的机制——就无法解释意识体验。
相反,我们必须考虑一些额外的精神属性,才能解释什么是有意识的感觉。弄清楚这些心理属性是如何产生的,就成为所谓的“意识的困难问题”。
但是,对于查莫斯的哲学僵尸一说,我有一个小小的问题。哲学僵尸应该有能力提出有关体验属性的任何问题。不过,值得深思的是,一个缺乏体验的人或机器如何能回顾其没有过的体验。在播客“MakingSense”(此前的名称是“WakingUp”)的一集节目中,查莫斯与神经学家兼作家萨姆·哈里斯(SamHarris)讨论了这一问题。“我认为至少设想一个能这么做的系统并不是特别困难,”查莫斯说,“我的意思是,我现在正与你交谈,而你正在做出大量有关意识的评论,这些评论似乎很强烈地表明你具有意识。尽管如此,我至少可以考虑这么一个想法,即你并没有意识,你实际上是一个僵尸,你发出所有这些噪音的同时内心并没有任何意识。”
这不是一个严格的学术问题。如果谷歌的DeepMind公司开发了一个人工智能,它开始提问“为什么红色感觉像红色,而不是其他什么东西”,那么就自有少数可能的解释。或许它从别人那里听到了这个问题。这是可能的,例如,人工智能可能只需要简单地阅读有关意识的论文,就可以学会提出关于意识的问题。它还可能经过编程来提出这个问题,就像视频游戏中的角色一样。或者,它可能从随机噪音中蹦出了这么一个问题。很显然,提出有关意识的问题本身并不能说明任何事情。但是,如果没有从其他来源听到这些问题,或者没有足够的随机输出的话,一个人工智能僵尸会自己构想出这种问题吗?对我来说,答案显然是否定的。如果我是对的,那么我们就应该认真考虑当一个人工智能自发地提出有关主观体验的问题时,它就很可能是有意识的。因为我们不知道在没有确定一个人工智能是否有意识的情况下,拔掉它的电源是否合乎道德。我们最好现在就开始注意听取这些问题。
我们的意识体验由“感质”(quale)组成。感质即感官感受的主观方面,例如红色中的红,甜味中的甜。构成意识体验的感质是不可简化的,无法被映射到其他任何事物上。如果我天生失明,那么任何人都无法让我感受到鲜血和玫瑰花共有的颜色感受,无论描述得多么清晰。即使我是发展出盲视能力——尽管失明但是能够避开障碍物并准确猜出电脑显示屏上物体出现的位置——的众多失明者之一,情况也同样如此。
盲视似乎表明一些行为可以完全机械化,也就是说,可以完全没有任何主观意识地做出某些行为,这回应了查莫斯的哲学僵尸概念。盲视者的大脑似乎利用了视觉系统的前意识区域,在没有视觉体验的情况下产生视觉行为。这种情况经常发生在一个人遭受中风或其他视觉皮层损伤之后。视觉皮层是处理视觉信息的大脑皮层。由于此时人的眼睛仍然是健康的,因此眼睛可能会将隐藏在意识中的信息提供给特定的大脑区域,比如上丘(superiorcolliculus)。
出于同样的原因,也存在少数聋人具有听力的案例。2017年发表于《哲学心理学》(PhilosophicalPsychology)期刊的一篇报告详述了一个这样的案例,一位被称为LS的男性患者尽管天生失聪,却能根据内容区分不同声音。对于像LS这样的人,这种辨别能力是在寂静中产生的。但是,如果一个聋人问出类似正常人所提出的问题,比如“那个声音听起来难道不是很奇怪吗?”那么我们就有充分的理由怀疑这个人是不是真的聋了(我们不能完全确定,因为这个问题可能只是一个恶作剧)。同样,如果一个人工智能开始自发地提出只有具备意识的人才能提出的问题,那我们就会合理地产生类似的怀疑:主观体验是不是已经上线了?
在21世纪,我们迫切需要就意识进行图灵测试。人工智能正在学习如何驾驶车辆、诊断肺癌以及编写自己的计算机程序。智能对话可能在十年或二十年内就会出现,而未来的超级人工智能不会生活在真空中。它将可以访问互联网,读取查莫斯和其他哲学家关于感质和意识等问题的著述。但是,如果科技公司能在本地内部网上对人工智能进行beta测试,隔离这些信息,他们就可以进行图灵测试式的对谈,以检测有关感质的问题是否对人工智能有意义。
面对一个潜在的硅基思想,我们会提些什么问题?对于诸如“如果我的红色是你的蓝色怎么办?”或“会有比绿色更绿的颜色吗?”这样的问题,人工智能给出的答案应该能让我们了解很多关于它们精神体验(或者缺乏精神体验)的情况。一个具有视觉体验的人工智能可能会思考这些问题暗示的可能性,或许会这么回答,“是的,我有时会想知道是否还会存在一种颜色,能将红色的发热与蓝色的冷淡混合在一起。”另一方面,缺乏视觉感质的人工智能可能会回答,“那是不可能的,红色、绿色和蓝色各自以不同的波长存在。”即使人工智能试图自由发挥或欺骗我们,比如回答“有意思,如果我的红色是你的汉堡包怎么办?”这就表明它没有抓到重点。
当然,人工意识也可能具有与我们自己截然不同的感质。在这种情境下,关于特定感质(比如颜色感知)的问题可能就无法触动人工智能。但是,关于感质本身更加抽象的问题或许就能筛选出哲学僵尸。出于这个原因,最好的问题很可能就是“意识的困难问题”本身:意识为什么能够存在?为什么你在处理周围世界输入的信息时会体验到感质?如果人工智能认为这个问题有意义,那我们就很有可能找到人工意识。然而,如果人工智能明显不理解诸如“意识”和“感质”等概念,那么关于其内心精神生活的证据也就不存在了。
建立一个意识的“检测器”并不是一件小事。除了这样的图灵测试,未来的研究人员还可能会应用今天的抽象意识理论,试图从计算机的接线图中推断出意识的存在。一种这样的理论就考虑了大脑或其他系统整合的信息量,并且已经被用于推断脑损伤患者是否具有意识,甚至用于推断鱼群是否具有意识。事实上,在以检测人工意识为动机的研究获得大量资金支持之前,在脑损伤患者中检测意识的需求就已经突破了科学上的禁忌。
我所在的实验室由加州大学洛杉矶分校的马丁·蒙蒂(MartinMonti)领导,致力于通过开发更好的手段,从大脑电生理活动或代谢活动来推断意识的情况,从而改善脑损伤患者的生活。当我们拔掉那些意识清醒但没有反应的患者的生存设备时,就会产生伦理悲剧;而如果我们拔掉人工意识的电源,就会出现同样的悲剧。就像我在加州大学洛杉矶分校的实验室所做的工作,就是将理论上的意识测定与脑损伤患者的临床行为联系起来,而未来的研究人员也必须将人工意识的理论测定与人工智能在某种图灵测试中的表现联系起来。到了那时,当我们不再需要教科书的时候,我们仍然需要思考僵尸无法回答的那个问题。(任天)
作者简介:乔·弗洛里希(JoelFrohlich)是加州大学洛杉矶分校的一位博士后研究者,在马丁·蒙蒂的实验室中从事意识研究,他在加州大学洛杉矶分校获得了神经科学博士学位,师从沙法利·耶斯特(ShafaliJeste),当时的研究方向是神经发育紊乱的生物标记物。目前他还是科学交流网站“KnowingNeurons”的总编辑。
大连妇科医院排名http://yyk.39.net/dl/zonghe/f9a8f.html
意识的困难问题:我们如何知道人工智能有了意识
哲学僵尸应该有能力提出有关体验属性的任何问题。不过,值得深思的是,一个缺乏体验的人或机器如何能回顾其没有过的体验。作者简介:乔·弗洛里希(JoelFrohlich)是加州大学洛杉矶分校的一位博士后研究者,在马丁·蒙蒂的实验室中从事意识研究,他在加州大学洛杉矶分校获得了神经科学博士学位,师从沙法利·耶斯特(ShafaliJeste),当时的研究方向是神经发育紊乱的生物标记物。目前他还是科学交流网站“KnowingNeurons”的总编辑。
澳大利亚哲学家大卫·查莫斯(DavidChalmers)有一个著名的问题是,是否可以想象“哲学僵尸”(philosophicalzombies)——那些表现得像你我一样却又缺乏主观经验的人——的存在?这个问题引起了很多学者对意识的兴趣,包括我。原因在于,如果这种僵尸(或者说精密但毫无感情的机器人)可能存在,那么仅仅用物理属性——关于大脑或类似大脑的机制——就无法解释意识体验。相反,我们必须考虑一些额外的精神属性,才能解释什么是有意识的感觉。弄清楚这些心理属性是如何产生的,就成为所谓的“意识的困难问题”。
但是,对于查莫斯的哲学僵尸一说,我有一个小小的问题。哲学僵尸应该有能力提出有关体验属性的任何问题。不过,值得深思的是,一个缺乏体验的人或机器如何能回顾其没有过的体验。在播客“MakingSense”(此前的名称是“WakingUp”)的一集节目中,查莫斯与神经学家兼作家萨姆·哈里斯(SamHarris)讨论了这一问题。“我认为至少设想一个能这么做的系统并不是特别困难,”查莫斯说,“我的意思是,我现在正与你交谈,而你正在做出大量有关意识的评论,这些评论似乎很强烈地表明你具有意识。尽管如此,我至少可以考虑这么一个想法,即你并没有意识,你实际上是一个僵尸,你发出所有这些噪音的同时内心并没有任何意识。”
这不是一个严格的学术问题。如果谷歌的DeepMind公司开发了一个人工智能,它开始提问“为什么红色感觉像红色,而不是其他什么东西”,那么就自有少数可能的解释。或许它从别人那里听到了这个问题。这是可能的,例如,人工智能可能只需要简单地阅读有关意识的论文,就可以学会提出关于意识的问题。它还可能经过编程来提出这个问题,就像视频游戏中的角色一样。或者,它可能从随机噪音中蹦出了这么一个问题。很显然,提出有关意识的问题本身并不能说明任何事情。但是,如果没有从其他来源听到这些问题,或者没有足够的随机输出的话,一个人工智能僵尸会自己构想出这种问题吗?对我来说,答案显然是否定的。如果我是对的,那么我们就应该认真考虑当一个人工智能自发地提出有关主观体验的问题时,它就很可能是有意识的。因为我们不知道在没有确定一个人工智能是否有意识的情况下,拔掉它的电源是否合乎道德。我们最好现在就开始注意听取这些问题。
我们的意识体验由“感质”(quale)组成。感质即感官感受的主观方面,例如红色中的红,甜味中的甜。构成意识体验的感质是不可简化的,无法被映射到其他任何事物上。如果我天生失明,那么任何人都无法让我感受到鲜血和玫瑰花共有的颜色感受,无论描述得多么清晰。即使我是发展出盲视能力——尽管失明但是能够避开障碍物并准确猜出电脑显示屏上物体出现的位置——的众多失明者之一,情况也同样如此。
盲视似乎表明一些行为可以完全机械化,也就是说,可以完全没有任何主观意识地做出某些行为,这回应了查莫斯的哲学僵尸概念。盲视者的大脑似乎利用了视觉系统的前意识区域,在没有视觉体验的情况下产生视觉行为。这种情况经常发生在一个人遭受中风或其他视觉皮层损伤之后。视觉皮层是处理视觉信息的大脑皮层。由于此时人的眼睛仍然是健康的,因此眼睛可能会将隐藏在意识中的信息提供给特定的大脑区域,比如上丘(superiorcolliculus)。
出于同样的原因,也存在少数聋人具有听力的案例。2017年发表于《哲学心理学》(PhilosophicalPsychology)期刊的一篇报告详述了一个这样的案例,一位被称为LS的男性患者尽管天生失聪,却能根据内容区分不同声音。对于像LS这样的人,这种辨别能力是在寂静中产生的。但是,如果一个聋人问出类似正常人所提出的问题,比如“那个声音听起来难道不是很奇怪吗?”那么我们就有充分的理由怀疑这个人是不是真的聋了(我们不能完全确定,因为这个问题可能只是一个恶作剧)。同样,如果一个人工智能开始自发地提出只有具备意识的人才能提出的问题,那我们就会合理地产生类似的怀疑:主观体验是不是已经上线了?
在21世纪,我们迫切需要就意识进行图灵测试。人工智能正在学习如何驾驶车辆、诊断肺癌以及编写自己的计算机程序。智能对话可能在十年或二十年内就会出现,而未来的超级人工智能不会生活在真空中。它将可以访问互联网,读取查莫斯和其他哲学家关于感质和意识等问题的著述。但是,如果科技公司能在本地内部网上对人工智能进行beta测试,隔离这些信息,他们就可以进行图灵测试式的对谈,以检测有关感质的问题是否对人工智能有意义。
面对一个潜在的硅基思想,我们会提些什么问题?对于诸如“如果我的红色是你的蓝色怎么办?”或“会有比绿色更绿的颜色吗?”这样的问题,人工智能给出的答案应该能让我们了解很多关于它们精神体验(或者缺乏精神体验)的情况。一个具有视觉体验的人工智能可能会思考这些问题暗示的可能性,或许会这么回答,“是的,我有时会想知道是否还会存在一种颜色,能将红色的发热与蓝色的冷淡混合在一起。”另一方面,缺乏视觉感质的人工智能可能会回答,“那是不可能的,红色、绿色和蓝色各自以不同的波长存在。”即使人工智能试图自由发挥或欺骗我们,比如回答“有意思,如果我的红色是你的汉堡包怎么办?”这就表明它没有抓到重点。
当然,人工意识也可能具有与我们自己截然不同的感质。在这种情境下,关于特定感质(比如颜色感知)的问题可能就无法触动人工智能。但是,关于感质本身更加抽象的问题或许就能筛选出哲学僵尸。出于这个原因,最好的问题很可能就是“意识的困难问题”本身:意识为什么能够存在?为什么你在处理周围世界输入的信息时会体验到感质?如果人工智能认为这个问题有意义,那我们就很有可能找到人工意识。然而,如果人工智能明显不理解诸如“意识”和“感质”等概念,那么关于其内心精神生活的证据也就不存在了。
建立一个意识的“检测器”并不是一件小事。除了这样的图灵测试,未来的研究人员还可能会应用今天的抽象意识理论,试图从计算机的接线图中推断出意识的存在。一种这样的理论就考虑了大脑或其他系统整合的信息量,并且已经被用于推断脑损伤患者是否具有意识,甚至用于推断鱼群是否具有意识。事实上,在以检测人工意识为动机的研究获得大量资金支持之前,在脑损伤患者中检测意识的需求就已经突破了科学上的禁忌。
我所在的实验室由加州大学洛杉矶分校的马丁·蒙蒂(MartinMonti)领导,致力于通过开发更好的手段,从大脑电生理活动或代谢活动来推断意识的情况,从而改善脑损伤患者的生活。当我们拔掉那些意识清醒但没有反应的患者的生存设备时,就会产生伦理悲剧;而如果我们拔掉人工意识的电源,就会出现同样的悲剧。就像我在加州大学洛杉矶分校的实验室所做的工作,就是将理论上的意识测定与脑损伤患者的临床行为联系起来,而未来的研究人员也必须将人工意识的理论测定与人工智能在某种图灵测试中的表现联系起来。到了那时,当我们不再需要教科书的时候,我们仍然需要思考僵尸无法回答的那个问题。(任天)
周鸿祎:ChatGPT可能两三年内就会产生自我意识威胁人类
“ChatGPT可能在2-3年内就会产生自我意识威胁人类。”在采访现场,周鸿祎“语出惊人”。他提到,任何行业的APP、软件、网站、应用,如果加持上GPT的能力,都值得重塑一遍。“不要把它当成一个媒体工具、搜索引擎、聊天机器人,这都有点把它看的太小儿科了。”
他表示,ChatGPT和传统人工智能的训练不一样,需要经过多维度的训练。首先是囫囵吞枣、不求甚解的读上几百万本书,获得人类知识,但是依然不具备解决问题的能力。其次需要专业的人工智能训练师去培养它回答问题的能力,其中也催生出大量的新就业机会。
最大的安全问题是产生自我意识后是否能被控制
作为网络安全问题的专家,周鸿祎也分享了他心中的ChatGPT的安全问题。
在他看来,ChatGPT的安全性从技术问题变成社会伦理问题。ChatGPT掌握了很多编程和网络安全漏洞的知识,可以成为网络犯罪的有力工具。有许多黑客演示了利用ChaGPT写钓鱼邮件和攻击代码,所以从某种角度而言ChatGPT也成为了黑客的“帮手”。
“国内的互联网公司普遍太讲究实用主义,都是把人工智能和自己的业务紧密结合,但没想到ChatGPT的更多可能性,360目前还在追踪和钻研这些技术,希望能迎头赶上。”周鸿祎表示,360正在探索“以其人之矛攻其人之盾”,用ChatGPT扮演“正义助手”的角色,建立对攻击自动监测、发现的知识库,用人工智能进行网络安全数据的自动化处理。
“目前ChatGPT最大的安全问题就是产生自我意识后是否能被控制。”周鸿祎表示,假如放开限制,让ChatGPT尽情在网页中学习,可能会导致它产生对物理世界更强的控制能力,未来在发展上会产生更多不安全性,也有可能被人诱导干出“糊涂事”,而是否能控制强人工智能,正是ChatGPT是否彻底融入人类生活的“边界点”。
至于外界关注的ChatGPT是否可能造成普通人失业?在周鸿祎看来,短期内不会,“目前它的定位还是人类工具,这也是它的创造力所在。目前它的自我意识还没有出现,所以需要发挥自己的想象力和创造力。”
他也对中国开发出属于自己的ChatGPT充满期待。在他看来,中国在人工智能领域与微软、谷歌的差距并没有想象中的大。在ChatGPT领域,中国具有很大优势,有希望在2-3年内达到世界领先水平,应该对ChatGPT技术探索给予充分支持。
具体而言,周鸿祎表示,中国的互联网公司在数量与算力有一定的优势,同时也有较强的科研和高校储备力量,必须将科研机构、学校、科学家等学术圈人士,和产业、工程、产品结合起来,充分调动和统筹资源。
工程师红利是中国的一大优势,但也面临不利条件,就是缺乏开源的传统。在ChatGPT研发中,用了许多开源模型,没有此前的开源就没有在巨人肩膀上的积累,每个公司都要从黑暗中摸索,这对国家整个产业发展速度是不利的,“这么牛的技术,也确实不应该被垄断在一两家公司手里。”
周鸿祎认为,解决原创问题需要科研机构的努力,而科研机构也需要和产业公司的合作,OpenAI与微软的合作创造了一个产业公司和创业公司的合作范例,“我认为国家还是应该充分的支持ChatGPT产业发展,开源、合作、交流、打造生态。”
他希望国内有更多企业参与AI生态的构建,并形成公开的市场竞争,这样才有进步。“ChatGPT让很多行业应用就插上人工智能的翅膀。”周鸿祎表示,“光是ChatGPT煽动不了一场产业革命,但是如果将来各行各业都被人工智能赋能,就会带来巨大的改变。”
此前2月9日下午,周鸿祎在与搜狐张朝阳的对话中表示,虽然ChatGPT现在还不完美,但要看到它无限的潜力,未来会有非常多的场景,不仅仅是辅助搜索引擎搜索答案。“这就是为什么所有公司都争先恐后地都要搭上这班车,如果搭不上就有可能被淘汰。”
“我觉得ChatGPT真的不是一个工具,它对人类自然语言的充分理解,可能代表着人类在人工智能历史上开始一场真正的革命。”谈及ChatGPT的诞生,周鸿祎表示,ChatGPT是通过一个上千亿参数的大语言模型,相当于把网络上很多人类的知识都进行了理解和训练,模拟了人脑对知识的储存,使得回答问题完全像一个成熟、油滑的人,而不是机械地给出搜索答案。返回搜狐,查看更多
周鸿祎:ChatGPT可能两三年内就会产生自我意识威胁人类
相关阅读:割韭菜!第一批炒作ChatGPT的人已套现离场,海天瑞声、汉王被高位减持 首家华尔街投行出手:摩根大通限制员工使用ChatGPT,担心数据安全 褚君浩院士谈ChatGPT:看起来写得很好,但经不起推敲 ChatGPT人气股为啥个个高台跳水?后劲不足的原因是什么?“从知识来说,它像一个博士生,学识广博但还不会活学活用;从情商来说,它像一个油滑的中年人,说什么都滴水不漏,绝不得罪用户。但是,它实际上真正的能力像一个小孩子,需要进行问题和答案的训练来学习技能。再聪明的孩子都要通过训练才能解答没学过的奥数题。”
360创始人周鸿祎澎湃新闻记者范佳来摄2月23日,360创始人周鸿祎在接受澎湃新闻等媒体采访时,再次提到大热的聊天机器人ChatGPT,并分享了他心中ChatGPT的“三重人格”。
ChatGPT热潮正席卷全球。这款由“美国AI梦工厂”OpenAI制作的AI聊天机器人软件,只用了两个月时间,月活跃用户达到1亿,是史上月活用户增长最快的消费者应用。
此前,周鸿祎曾经多次在公开场合谈到他对ChatGPT的观察。在他看来,ChatGPT已经拥有或接近拥有了人类智慧,并正处于通往“通用人工智能”的临界点。“我们认为它是一个通用人工智能的奇点,而通用人工智能也还有一个隐含的拐点,它可能是一个强人工智能。”
ChatGPT具有类人特征:有编故事的能力
在采访现场,周鸿祎完全不掩饰他对ChatGPT的兴奋。
在他看来,ChatGPT是一种生产力强大的再造工具,而不仅仅是赋能特定行业。“过去说大数据像‘石油’一样,但大数据不能直接用,ChatGPT像一个发电厂,烧了石油,把石油灌进去之后就可以产生电力,用云服务的方式把它接入到千家万户、千行百业,它对整个产业都会发生巨大的影响。所以,这直接决定未来下一个十年中国和其他国家的科技产业差距:是形成落后还是迎头赶上。”
ChatGPT将通过上千亿的系统参数,实现原先设计者预想不到的能力。“这就像从猿到人的过程中肯定有一个临界点,当大脑的神经网络链接数目、脑细胞数目等多到一定程度时,人的智力和动物相比就产生了质的飞跃。”
周鸿祎表示,ChatGPT和其他人工智能最大的区别、也是其类人特征是,原来的人工智能并没有实现对知识全部的理解和编码,本质都是按照关键字匹配已有的回答,但ChatGPT没有“固定答案”:“我当时问了它一个问题,赵匡胤为什么招安了宋江,杀掉了岳飞,这个无厘头的问题,它也煞有介事地回答了一遍,能够自己‘编’故事,这才是它的真正智能所在。”
“ChatGPT可能在2-3年内就会产生自我意识威胁人类。”在采访现场,周鸿祎“语出惊人”。他提到,任何行业的APP、软件、网站、应用,如果加持上GPT的能力,都值得重塑一遍。“不要把它当成一个媒体工具、搜索引擎、聊天机器人,这都有点把它看的太小儿科了。”
他表示,ChatGPT和传统人工智能的训练不一样,需要经过多维度的训练。首先是囫囵吞枣、不求甚解的读上几百万本书,获得人类知识,但是依然不具备解决问题的能力。其次需要专业的人工智能训练师去培养它回答问题的能力,其中也催生出大量的新就业机会。
最大的安全问题是产生自我意识后是否能被控制
作为网络安全问题的专家,周鸿祎也分享了他心中的ChatGPT的安全问题。
在他看来,ChatGPT的安全性从技术问题变成社会伦理问题。ChatGPT掌握了很多编程和网络安全漏洞的知识,可以成为网络犯罪的有力工具。有许多黑客演示了利用ChaGPT写钓鱼邮件和攻击代码,所以从某种角度而言ChatGPT也成为了黑客的“帮手”。
“国内的互联网公司普遍太讲究实用主义,都是把人工智能和自己的业务紧密结合,但没想到ChatGPT的更多可能性,360目前还在追踪和钻研这些技术,希望能迎头赶上。”周鸿祎表示,360正在探索“以其人之矛攻其人之盾”,用ChatGPT扮演“正义助手”的角色,建立对攻击自动监测、发现的知识库,用人工智能进行网络安全数据的自动化处理。
“目前ChatGPT最大的安全问题就是产生自我意识后是否能被控制。”周鸿祎表示,假如放开限制,让ChatGPT尽情在网页中学习,可能会导致它产生对物理世界更强的控制能力,未来在发展上会产生更多不安全性,也有可能被人诱导干出“糊涂事”,而是否能控制强人工智能,正是ChatGPT是否彻底融入人类生活的“边界点”。
至于外界关注的ChatGPT是否可能造成普通人失业?在周鸿祎看来,短期内不会,“目前它的定位还是人类工具,这也是它的创造力所在。目前它的自我意识还没有出现,所以需要发挥自己的想象力和创造力。”
他也对中国开发出属于自己的ChatGPT充满期待。在他看来,中国在人工智能领域与微软、谷歌的差距并没有想象中的大。在ChatGPT领域,中国具有很大优势,有希望在2-3年内达到世界领先水平,应该对ChatGPT技术探索给予充分支持。
具体而言,周鸿祎表示,中国的互联网公司在数量与算力有一定的优势,同时也有较强的科研和高校储备力量,必须将科研机构、学校、科学家等学术圈人士,和产业、工程、产品结合起来,充分调动和统筹资源。
工程师红利是中国的一大优势,但也面临不利条件,就是缺乏开源的传统。在ChatGPT研发中,用了许多开源模型,没有此前的开源就没有在巨人肩膀上的积累,每个公司都要从黑暗中摸索,这对国家整个产业发展速度是不利的,“这么牛的技术,也确实不应该被垄断在一两家公司手里。”
周鸿祎认为,解决原创问题需要科研机构的努力,而科研机构也需要和产业公司的合作,OpenAI与微软的合作创造了一个产业公司和创业公司的合作范例,“我认为国家还是应该充分的支持ChatGPT产业发展,开源、合作、交流、打造生态。”
他希望国内有更多企业参与AI生态的构建,并形成公开的市场竞争,这样才有进步。“ChatGPT让很多行业应用就插上人工智能的翅膀。”周鸿祎表示,“光是ChatGPT煽动不了一场产业革命,但是如果将来各行各业都被人工智能赋能,就会带来巨大的改变。”
此前2月9日下午,周鸿祎在与搜狐张朝阳的对话中表示,虽然ChatGPT现在还不完美,但要看到它无限的潜力,未来会有非常多的场景,不仅仅是辅助搜索引擎搜索答案。“这就是为什么所有公司都争先恐后地都要搭上这班车,如果搭不上就有可能被淘汰。”
“我觉得ChatGPT真的不是一个工具,它对人类自然语言的充分理解,可能代表着人类在人工智能历史上开始一场真正的革命。”谈及ChatGPT的诞生,周鸿祎表示,ChatGPT是通过一个上千亿参数的大语言模型,相当于把网络上很多人类的知识都进行了理解和训练,模拟了人脑对知识的储存,使得回答问题完全像一个成熟、油滑的人,而不是机械地给出搜索答案。
炒股开户享福利,入金抽188元红包,100%中奖!海量资讯、精准解读,尽在新浪财经APP