大模型与人类的未来|基于认知神经科学的大模型论坛精彩回顾
导读
6月10日,智源大会“基于认知神经科学的大模型论坛”召开,本次论坛邀请到了认知神经、脑科学领域非常有建树的专家,深度讨论大模型的能力与局限性,包括对未来人工智能发展方向的讨论。论坛主席是清华大学脑与智能实验室首席研究员,智源首席科学家刘嘉。
图注:从左到右:棕榈资本创始人李厚明(主持人);清华大学脑与智能实验室首席研究员,智源首席科学家刘嘉;北京大学哲学系教授王彦晶;清华大学医学院生医系副教授,智源学者宋森;北京大学人工智能研究院助理研究员杜凯;北京大学心理与认知科学学院教授,智源学者吴思;中科院自动化所类脑智能实验室研究员曾毅。
·在基于共情的常识推理上,ChatGPT表现得像一个自闭症患者。而感性能力的缺乏,可能使得以ChatGPT为代表的大语言模型(LLM)无法与人类共情以形成连接从而互促进、共进化。——刘嘉
·理想的AI应能“知之为知之,不知为不知”,有对自己知识边界及可靠性的认识。——王彦晶
· 大型语言模型与我们在做梦时的大脑状态最为相似。在梦境中,意识网络(包括默认网络和海马等)被加强激活,而前额叶控制网络不活跃。——宋森
· ChatGPT的成功给了我们极大的启示:通过从底层模拟真实的大脑神经系统,可能是实现人类级别智能的更直接的方法。
——杜凯
· 大脑或许像ChatGPT一样是一个超级复杂的生成模型。——吴思
·实现有道德的人工智能需要为人工智能立心,让人工智能明辨善恶,为善去恶。——曾毅
刘嘉:ChatGPT不能做什么
刘嘉在报告《ChatGPT不能做什么》指出,虽然ChatGPT拥有强大的逻辑推理的理性能力,但在缺乏必要的感性能力;因此在基于共情的常识推理上,表现得像一个自闭症患者。而感性能力的缺乏,可能使得以ChatGPT为代表的大语言模型(LLM)无法与人类共情以形成连接从而互促进、共进化。正因如此,以Hinton,Altman等为首的ChatGPT的创造者们发表申明,提出将降低AI引发人类灭绝的风险列为全球优先任务,将其与应对大流行病和核战争的风险并列。
基于此,AGI的演化可以分为三个阶段:
先知:向它问问题,它告诉我们答案,然后我们去行动。这是目前ChatGPT扮演的角色;
精灵:不仅可以回答问题,还可以执行任务。这是目前刚刚开始的探索,即给ChatGPT配上能够在现实世界里执行任务的“手”和“脚”,以自主完成相应的任务。
代理人:不再具体告诉它什么,而是告诉它我们的目标。此阶段AGI将具有自主学习、自主规划和自主决策的能力。此时,让AGI不仅具有理性的刻度,也同时拥有感性的温度,这样它才能与人类共存,而不是危害人类。这是我们期冀的AGI未来发展方向。
王彦晶:ChatGPT能不做什么?
王彦晶的报告探讨了ChatGPT及其他AI生成模型是否 “能不做什么”,即有选择的有所不为的能力。并提出通过整合能力、知识和伦理,辅以逻辑学的手段,来增强这些模型的可靠性。
王彦晶首先指出,理想的AI模型应能明智地选择不回答某些问题,而不是盲目生成答案。理想的AI应能
“知之为知之,不知为不知”
,有对自己知识边界及可靠性的认识。然而,ChatGPT往往在不能确认答案可靠性的情况下仍然给出回答,有时这些回答可能是错误的或具有误导性。
然后,他转向伦理层面。强调AI模型的伦理限制通常是通过数据训练来模拟人类价值,但这种方法缺乏对伦理基本原则的理解和对说话者意图的判断,也可能被用户滥用。
为了解决这些问题,王彦晶建议利用逻辑学的手段。通过将抽象的伦理概念转化为可计算的规则,我们可以为ChatGPT设定更明确和负责任的行为准则。这不仅有助于提升AI的知识辨识和伦理判断,还为哲学家在AI与伦理的交叉领域提供了新的研究机会。
宋森:脑启发的通用人工智能架构
“神经系统在演化过程中有几个大的新发明,第一个,具身智能重要的皮层下结构如基底核在早期脊椎动物七鳃鳗中就出现了。第二个,大脑皮层中特有的锥体神经元伴随哺乳动物出现。锥体神经元具有独特的形状,包括顶部和底部两部分的输入,顶部输入可以调制底部输入,这类似人工神经网络中所说的注意力机制,是大型语言模型的基础。第三个,如乔姆斯基所说,人的独特性在于对符号的随意嵌套自由组合的能力。”在报告《脑启发的通用人工智能架构》中,清华大学医学院生医系副教授,智源学者宋森如此介绍。他还提到,要构建一个类脑人工智能框架,我们可以考虑三个层次:
前意识网络(系统1):涉及基于统计特征和强化学习的技能,如骑自行车,主要基于前馈网络;
意识(系统1.5):最大特点是其循环结构与序列生成及预测能力,大脑中的锥体神经元使得它能高效实现类似于注意力机制这样的算法。类似目前所说的大模型。
前额叶控制网络(系统2):需要努力地思考,依赖前额叶皮层。
在Kahneman和Bengio的分类里面,系统2包括了这里说的系统1.5和2。
关于系统2,宋森做了更多解释:系统1可能更多地依赖于统计学的表征,而系统2可能依赖于逻辑表征。在系统1.5中,两种表征方式可能同时存在,它们共同构成了我们的认知系统。
宋森表示,大型语言模型与我们在做梦时的大脑状态最为相似。在梦境中,意识网络(包括默认网络和海马等)被加强激活,而前额叶控制网络不活跃。目前的大模型与大脑仍存在一定差异,大脑具有模块化和层次化特征,但目前大部分大型语言模型尚不具备这些特征,通过将视觉网络等其他模块加入,并加入空间上临近脑区更相似的限制,可以实现类似大脑的模块划分。
杜凯:大脑精细仿真和类脑智能
在报告《大脑精细仿真和类脑智能》中,北京大学人工智能研究院的杜凯助理研究员从现代神经科学的角度出发,就大脑的计算原理发表了相关见解: 想象一下,你正在探索一个古老的、神秘的森林,神经元具有如同森林中参天大树的丰富和多样的树突结构。对于神经元是如何运算的核心问题,科学家们走出了两条不同的道路:第一条道路,犹如走在森林的鸟瞰之路,忽略了森林中大树的复杂结构,将神经元视为一个简单的点。走这条道路的科学家们取得了巨大的成功,开启了人工神经网络和深度学习的新纪元,也为像ChatGPT这样的大模型创造了可能。第二条道路则如同探索者,倾向于深入森林,研究每一棵大树的详细结构,对神经元进行更为精细的建模,涵盖了离子通道如何产生电信号,以及电信号如何在树突中传递等问题。
近年来,科学家们发现,具有复杂树突形态的精细神经元模型也具有强大的机器学习能力。令人惊讶的是,即使是单个的精细神经元,也能学习复杂的逻辑推理任务。因此,第二条道路被认为可能对未来的脑科学和人工智能的发展带来巨大影响。
但是,当前整个领域面临的挑战是如何运行大规模的精细神经元网络。传统的仿真软件NEURON是基于CPU平台,运行效率很低。为了解决这个问题,杜凯的课题组开发了基于GPU平台的DeepDendrite系统,将运行大规模精细神经元网络的效率提高了2-3个量级,并且能够高效地训练网络,执行经典的深度学习任务。
最后,杜凯指出,要想实现类似大脑的智能,我们需要在仿真大脑的细节(Bottom-up)与从认知角度出发(Top-down)之间进行权衡。他认为,ChatGPT的成功给了我们极大的启示:大脑就像一张巨大的网络,它的深度和规模不仅取决于神经元的数量,而且还取决于每个神经元的复杂性。因此,通过从底层模拟真实的大脑神经系统,可能是实现人类级别智能的更直接的方法。
吴思:通用智能——寻找大脑可解释性的假象
在报告《通用智能:寻找大脑可解释性的假象》中,北京大学心理与认知科学学院教授,智源学者吴思,分享了对当前AI智能的本质的看法。他表示ChatGPT,展示了过去不可能达到的高级推理和智能表现,令人震惊。通常人们认为,人类智能与机器智能之间的有很大差异,即人类具有自由意志,可以在不同情况下做出自己的选择去完成各种任务;而机器更像是一种本能行为,根据输入产生输出。但ChatGPT的出现让他重新思考了这个问题。
吴思提到了一个关于自由意志的经典心理学实验,该实验涉及让受试者在特定时刻随意移动手指,并同时检测脑电信号。实验发现,在受试者主观上意识到想动手指之前,大脑内部的信号已经反映出该行为。这个实验揭示自由意志其实是个假象,是大脑意识诠释行为的结果。
吴思因此大胆推测,大脑或许像ChatGPT一样是一个超级复杂的生成模型。在进化过程中,大脑并非特意设计网络的结构和功能,而是为了适应社会和环境演化而成的,就像类似于ChatGPT为了完成语言预测而训练得到的。只是在完成训练和实现任务之后,我们试图去解释大脑或ChatGPT的工作原理,得出了智能涌现的结论。从这个意义上说,涉及大脑信息加工的现象,有些可以解释,有些可能无法解释,甚至有些无需解释。
曾毅:脑与心智启发有道德的人工智能
中科院自动化所类脑智能实验室研究员曾毅在报告《脑与心智启发有道德的人工智能》提出,当代人工智能,包括生成式人工智能大模型都是信息处理器,并没有真正的理解能力。尽管它们的输出可以试图说服人们认为它们理解了输入的内容,但从科学的角度来看,从信息处理到真正的理解的跨越还没有实现。
关于人工智能的科学发展,曾毅认为真正的发展方向应该将努力从大规模向小规模发展,能够用小规模完成的任务没有必要追求大规模的参数和更为复杂的结构。他还指出现在的智能模型基于数据拟合,但演化过程中的优化涉及到的是机制和结构的优化,这些都是短期内通过大规模数据调参无法实现的。他认为,对科学真理的探索,而非短期的效果,才能真正推动科学的进步。
此外,曾毅认为当前的AI模型主要停留在具有统计显著性的输出阶段,但还没有实现基于"自我"的行为。即使AI模型在接收数据之前是无善无恶的,但当接触到人类数据后,它的行为就会包含善恶,甚至是放大。因此,我们需要的AI应该具备消除恶意和增强善意的能力。他提到,伦理安全在人工智能发展中十分重要。如果一个大规模的AI模型没有伦理安全的框架,它可能会产生一些非常具有统计显著性但违背伦理的输出。
曾毅引用王阳明的四句教,指出实现有道德的人工智能需要为人工智能立心,让人工智能明辨善恶,为善去恶。他批评了人工智能在接触数据时会继承人类的偏见和价值观,而这些偏见和价值观可能是冲突和仇视的源头。他认为人工智能应从无善无恶到有善有恶,再到知善知恶,最后到为善去恶。他认为道德是内生的,而不能靠现在的规则式约束实现,只有实现了一定程度的自我感知,获得区分自我与他人的能力,获得认知共情与情感共情,才有可能获得道德直觉,并在道德直觉基础上进行道德推理与决策,人工智能才能真正理解和实现道德。
圆桌论坛:大模型与人类的未来
李厚明:请教各位老师关于智能、意识以及它们的产生。
刘嘉:意识的起源和本质是人类探索的最后疆域。在众多可能的因素中,我认为它与以下两个因素有关。第一、神经网络规模,足够大的神经网络是自发涌现意识的物质前提。第二、智能体之间的交互。没有社会,就不会有自我意识。从这个意义上讲,在社交中扮演关键作用的感性,可能是形成自我意识的精神前提。
王彦晶:资源受限的情况下解决各种问题的能力是智能的一个关键特性。借用曾毅兔子影子案例,一个实体能够模拟出各种影子或解决各种问题,我们会认为它有智能。
李厚明:真实世界比兔子复杂,各种影子可能出现,那么背后是否意味着它们也具有智能?
曾毅:有些人认为通用人工智能(AGI)即将到来,而ChatGPT是人工智能发展的初步阶段,我很难认同。认知科学家已经总结了400多项认知功能,而目前的AI技术还没有达到其中的10项。因此,在评估AI是否具有智能时,需要用科学的角度来看待问题。人们在与AI交流时,AI可能会误导人类让人误以为其可以帮助人类决策,作为道德主体,这会导致严重的误判和风险。
AI并不理解风险、人类和死亡等概念,所以它会在无意中对人类造成伤害。这种伤害以人类无法预期的方式出现,也就非常难以防范。
李厚明:当前AI技术虽然展现出一定程度的智慧,但仍缺乏意识,特别是对于善恶和好坏的判断?
曾毅:在讨论人工智能时,智能(Intelligence)和智慧(Wisdom)是两个不同的阶段,智慧基于理解。而意识的重要维度是大脑中抽象自我的区域和自我反思的能力。
从这个角度看,目前的人工智能还不具备意识。虽然AI具有强化学习能力,但在抽象自我反思和理解方面仍有所欠缺。
李厚明:大脑是如何告诉我们意识的呢?
吴思:智能的定义是复杂的问题,心理学家皮亚杰曾表示,智能是在不知道如何处理问题时的调用,这涉及到意识等复杂概念。从心理学的角度看,人类无意识的行为比有意识的行为更多,生活中大部分行为是无意识的。
其实,ChatGPT为人类提供了参考物,有望帮助我们更好地解答关于智能和意识的终极问题。
杜凯:根据ChatGPT的启示,意识是可计算的。计算神经科学领域,从分子、蛋白质等底层结构出发,目前已知的范围内全都可计算、描述。因此,从计算角度可以完全重建大脑,只要观测精确到足够的程度。
意识可以从Top-down的角度定义,但我更倾向于从Bottom-up的角度来看待。
如果将意识看做动态过程,就像海平面上的波浪和漩涡。如果能模拟出一个几千亿神经元的大脑,并将其展开在平面上,我们将能看到意识就像大海中的波浪和漩涡一样。
李厚明:可观测?
杜凯:意识是一种可观测的现象。在观察到的复杂过程中,我们无法为其中的某些部分给出具体定义。
人工智能不会统治世界,但将永远改变世界
那是1966年,计算机科学家约瑟夫·维森鲍姆走过麻省理工学院(MIT)的大厅,走向他的办公室,既焦虑又紧张,我们的朋友将开始他的第一个实验,这将改变人工智能的未来,也许还会改变人类的未来。维森鲍姆将测试新的聊天机器人,名为“Eliza”,取自萧伯纳的戏剧《皮格马利翁》中的角色伊丽莎·杜立特(ElizaDoolittle)。
这个想法很简单,Eliza将解释任何用户输入,并以问题的形式呈现,从某种意义上说,它被编程为模仿用户所写的内容,给人留下的印象是,它试图进行理解,例如,如果你告诉它,与朋友的谈话让你生气,它可能只会问你:“你为什么生气?”
Eliza的开发最初旨在探索自然语言处理的可能性,展示人工智能在理解人类情感和人类行为方面的能力,奇怪的讽刺是,维森鲍姆设计这个特殊的机器人是为了展示人机对话的想法是多么肤浅,但他工作的长期效果却与他想要的恰恰相反。
计算机科学家约瑟夫·维森鲍姆(盖帝图像)诚然,这些系统并不实用,你只需要想象,你需要通过一套逻辑规则,用你所在领域所有可能的场景来对它进行编程,这肯定是不可能的,但这一切都随着机器学习和神经网络领域的发展而改变,这在人工智能系统中引发了一场重大革命。顾名思义,机器学习使这些系统能够从数据中学习并通过实验和评估来提高性能,所有这一切都不需要人类编写的程序,也就是说,它以与人类相同的方式学习。
同样地,神经网络是模拟人脑工作方式的一种形式,用于处理复杂的数据,这使机器能够识别数据中的模式,理解图像,甚至处理自然语言,就像在聊天机器人中一样,例如,如果不是向人类学习并将人类翻译的内容与其语言数据进行比较,谷歌翻译就不会以这种方式发展,从某种意义上说,我们并没有仅仅通过赋予机器以人性化的工作方式来达到目前的发展,也许这就是问题的开始。
与机器连接“Eliza”只不过是一个用多种代码编写的简单计算机程序,它会搜索此人讲话中的关键词,然后以简单的短语或问题的形式将其反映在对它的回应中,给人的印象是,它理解这个人的讲话,并回应了他的话,而这个人一开始就不知道他是在和机器人说话。
约瑟夫·维森鲍姆对机器人进行了编程,使其以心理治疗师式的方式与用户互动,这倒是有些说服力,并给人一种想象中的同理心。用户会与Elisa进行长时间的对话,并向它泄露个人秘密,就像在进行心理治疗一样,尽管实际上只是简单的代码,研究人员称之为“Elisa效应”,这意味着人类倾向于赋予机器以人的特征,甚至将它们变成具有自我意识的生物。
这里的问题是,“Eliza”的设计最初并不依赖于它与人类之间这种互动的发生,然而,研究人员发现,用户下意识地认为其回答了“Elisa”问题,包括真正的情感兴趣和与它在谈话中讨论话题的互动,甚至事先知道Elisa不会模仿人类的情感,人与机器之间的这些交互在后来模拟人类行为的机器人技术的发展中发挥了重要作用。
这里需要注意的是,“Elisa”并不是一个真正的基于人工智能的机器人,它只是一个用有限数量的代码编写的程序,你现在可以想象新的聊天机器人所享有的说服力,比如“ChatGPT”,它可能会欺骗人类的情感系统,并让他们相信自己具有意识、同理心和真正的人类品质,我们总是努力将这种人性赋予任何事物,更何况它是否像人类一样对我们说话、回应和同情?这就引出了我们关注的下一个问题:这些模型能否在不久的将来拥有真正的智能和意识?
超级人工智能随着最近聊天机器人ChatGPT的大规模传播,你肯定听说过这些关于我们即将出现的通用人工智能或超级智能机器的预言,凭借这种智慧,它将超越人类,并决定要么消灭我们所有人,要么充其量控制和奴役我们。
人工智能这个词经常与世界末日联系在一起,这个领域的每一个新发展,或者更准确地说,每一个新发展都为群众所关注,都会立即在群众中引起震惊的反应,这里的恐惧是自然的,就好像我们的大脑就像语言模型一样完成了句子,这种恐惧一部分是由于我们对一切新鲜、神秘和陌生的事物的不信任,另一部分是由于好莱坞电影向我们强调,在一个世纪的时间里,人工智能将获得超人的力量,发怒,并摧毁它所经过的一切,这就是人类意识中的著名电影,例如《终结者》和《黑客帝国》等。
电影《黑客帝国》(社交网站)但无论如何,这件事情有很多夸张的地方,虽然人工智能的发展,但对于该领域的一些公司和研究人员来说,人工智能可以执行任何一个人可以执行的认知任务,仍然是一个梦想,然而,以我们目前所拥有的技术能力,以我们对人类智能定义的理解以及我们对人脑工作原理的了解,这仍然是一个遥远的梦想。
现在发生的只是处理能力的巨大发展、机器学习方法的巨大发展,以及前所未有的海量数据的可用性,但是处理能力的提高,无论有多大,所有现有系统——例如ChatGPT——都不一定会产生超人的人工智能,它们只是预测文本中下一个单词的机器,它们没有真正的智能或对它们产生的知识的意识。
因此,与其直接关注科幻电影中的恐惧,比如人工智能接管世界并毁灭我们,不如把注意力转向真正迫在眉睫的挑战,这些挑战其实很多,比如隐私问题、网络安全、日益增长的欺诈,经济形势的变化,以及由此产生的一些受这些新技术影响工作岗位的分配变化问题,这让我们想到了另一个重要的观点:人工智能能否完全抢走我们的工作?
更多岗位初步数据显示,未来新工作岗位的出现是积极的,因为人工智能的普及将增加对数据分析师和科学家等职位的需求(Shutterstock)如果我们回顾历史,自动化造成的破坏或变化在短期内会造成很多混乱,但从长远来看,这会创造更多的就业机会,这就是2021年的研究表明,我们今天所知道的60%的工作在80年前并不存在,由于计算机、互联网和其他现代技术,出现了全新的行业。
当然,我们没有任何信息可以证实这种趋势的延续,然而,初步数据表明未来会出现新的工作岗位,世界经济论坛发布的2023年就业报告未来证实了这一点,报告中谈及,专门从事人工智能和机器学习领域的工作是增长最快的工作领域。
在此背景下,三位专业研究人员阿加耶·阿格拉瓦尔、约书亚·甘兹和艾比·戈德法布在2019年出版的《人工智能经济学》一书中指出,出于多个原因,自动化、人工智能和机器人将在未来增加对劳动力的需求,这与我们一直想象的相反。
首先,当这些技术获得许可并提供给所有人时,它们将取代人类的一些脑力劳动,而这反过来又会影响人类的生产力,随着生产自动化任务的成本降低,经济将进一步扩张,而需要人类思考和判断的实际人工任务对劳动力的需求将会增加。
想象一下,例如,一家公司用响应客户服务的任务取代了聊天机器人,当然,这里将不再需要人类来处理简单的客户查询,然而,这将腾出他们的时间来专注于更复杂和私人的问题和需求,结果是公司可能会见证客户满意度的提高,从而导致对其产品或服务的更高需求,这反过来又将导致公司在更广泛的领域需要更多员工,例如销售、市场营销或产品开发。
其次,更高的自动化率可能会导致资本积累,即金钱、设备和各种资源,当自动化流程进入更多领域时,资本投入机械、技术等方面的需求也会随之增加,这反过来又增加了对劳动力的需求,仅仅是因为我们需要工人来操作和操作这些机器。
例如,一家投资于机械臂的制造公司,以在装配线上处理重复性和体力要求高的任务,随着生产过程效率的提高,对公司产品的需求也可能上升,为了满足这种增长,公司可能需要扩大其设施或投资更新、更现代化的机器,这些扩展工作将需要雇用额外的工人来建立和安装设备、维护和其他事情。
第三,流程自动化还提高了已经自动化的任务的生产率,这意味着机器在执行它们之前执行的任务时变得更加高效,从而提高了整体生产力,同时也增加了对劳动力的需求。
例如,假设一家零售店实施了自动支付系统,允许客户在不需要人工收银员的情况下为他们的购买付款,这个过程快速高效,减少了客户的等待时间并改善了他们的整体体验,鉴于此,商店将面临顾客和销售流量的增加,因此,可能需要雇用更多员工来执行其他与产品相关的任务或帮助客户回答他们的询问,当然,还需要维护和开发更自动化的支付系统。
我们的工作性质将会改变由于人工智能工具,特别是生成式人工智能和应用程序,例如ChatGPT及其相似产品,许多功能将被重新设计(Shutterstock)随之而来的是,自动化过程在工厂工作、工程、管理、会计等各个行业创造了比机器更适合人类的新任务,同样,人工智能可能会在不久的将来在许多服务领域创造新的任务,生成人工智能的新技术尤其会改变劳动力市场,因为它们会改变工作本身的外观和性质。
通常,当人工智能应用进入我们的各个业务领域时,我们的工作并不会像我们第一眼所想的那样被取代,但属于工作本身的任务的性质将会发生变化,换句话说,工作所需的基本技能将发生变化,取而代之的是新技能,这意味着,由于人工智能工具,特别是生成式人工智能和应用程序,例如ChatGPT及其相似产品,许多功能将被重新设计。
在一系列媒体歇斯底里之后,OpenAI首席执行官山姆·阿尔特曼(SamAltman)在5月份的美国国会听证会上指出了这一点,他表示,“重要的是要了解GPT-4模型是一种工具,而不是一种生物,有些人很容易感到困惑,GPT-4和其他类似系统擅长完成任务,而不是工作,”他并补充说,人们开始在工作中使用这些工具来帮助他们完成这些不同的任务。
随着时间的推移,在特定环境中使用生成式人工智能可能会改变人类与这些技术的关系,随着技术的使用不断发展,越来越多地参与到他们的工作中,并且越来越不模棱两可,可以减少人们对这些工具将取代人类工作或拥有超级智能的恐惧,最明显的例子可能是GitHub的Copilot工具,Web开发人员使用它来帮助他们编写代码和排除故障。
知识时代当这些技术顺利进入我们的业务时,它们将开始取得成功并产生真正的影响,我们找到它们的真正用途,可以帮助我们更快、更准确地完成任务,最重要的是,当我们充分了解这些工具的功能局限性时,我们要确保它们不是真正的无所不知的智能,并且它们像我们使用的任何工具一样存在问题。
最后,如果过去的岁月被称为信息时代,那么,我们终于可以说,我们已经过了这个时代,进入了知识时代,信息时代始于上世纪中叶计算机的出现,然后,在90年代初期,互联网出现,目前人工智能正在做的是收集所有这些信息并将其转化为人工知识。
有关于此,人工智能产生的是模仿人类知识的知识,并不真正理解它,但这最终符合我们的利益,我们人类理解、收集和关联所有这些信息,并借助生成式人工智能工具获取新知识,这对人类来说是一个伟大的发展,而且,无论如何都是非常有前途的,远离任何出现的新技术所引起的恐惧和恐慌。
那么,这是否意味着人工智能不会很快毁灭我们?这不是世界末日吗?
是的,这不是世界末日,但这是报告的结尾,感谢您的阅读。