关于人工智能和人类繁荣的未来的思考
在我们思考人工智能的变革潜力时,人工智能的最新进展引发了我们的好奇和忧虑。人工智能为丰富我们的生活带来了巨大的希望,但这种期待与对可能出现的挑战和风险的忧虑交织在一起。为了培育一个利用人工智能造福人类和社会的未来,将一系列广泛的声音和观点汇聚在一起至关重要。
考虑到这一目标,我很荣幸地推出"人工智能文集",该文集由来自不同学科的杰出学者和专业人士撰写的20篇鼓舞人心的文章组成。该文集探讨了人工智能可以通过哪些不同的方式来造福人类,同时揭示了潜在的挑战。通过汇集这些不同的观点,我们的目标是激发发人深省的对话,鼓励合作努力,引导人工智能走向一个利用其潜力促进人类繁荣的未来。
2022年秋天,我在担任微软Aether委员会主席时,第一次遇到了GPT-4,一个了不起的大规模语言模型。Aether领导层和工程团队被允许提前接触OpenAI的最新创新,其任务是调查其使用的潜在挑战和更广泛的社会后果。我们的调查以微软的人工智能原则为基础,这些原则是委员会在2017年与微软的领导层合作建立的。我们对GPT-4的能力进行了全面分析,重点关注采用该技术的应用在安全、准确、隐私和公平方面可能带来的挑战。
GPT-4让我大吃一惊。我观察到了出乎意料的智能闪光,这些闪光超出了以前的人工智能系统所见。当与它的前身GPT-3.5--一个被数以千万计的人当作ChatGPT使用的模型--相比,我注意到能力上的重大飞跃。它解释我的意图并对许多提示提供复杂的答案的能力感觉就像一个"相变",唤起我在物理学中遇到的突发现象的想象。我发现GPT-4是一个多面手,具有整合传统上不同的概念和方法论的非凡能力。它无缝地将超越学科界限的想法编织在一起。
GPT-4的卓越能力引发了关于潜在破坏和不利后果的问题,以及造福人类和社会的机会。当我们更广泛的团队积极探索安全和公平问题时,我深入研究了医学、教育和科学领域的复杂挑战。越来越明显的是,这个模型和它的后继者--可能会在能力上表现出进一步的跳跃--拥有巨大的潜力来进行变革。这使我开始思考更广泛的社会影响。
围绕着艺术创作和归属、恶意行为者、工作和经济,以及我们还无法设想的未知未来,人们想到了一些问题。随着生成性人工智能工具的普及,人们可能会对不再是无与伦比的知识和艺术思想和创作的源泉作出反应?这些进步会如何影响我们的自我认同和个人愿望?在就业市场上可能会有什么短期和长期的后果?人们对人工智能系统所做的创造性贡献如何得到认可?恶意行为者可能如何利用这些新兴的力量来造成伤害?这些用途有哪些重要的潜在意外后果,包括那些我们可能还没有预见的后果?
同时,我想象着这样的未来:人们和社会可以通过利用这种技术以非同寻常的方式蓬勃发展,就像他们利用其他革命性的进步一样。这些变革性的影响包括从最初的认知工具--我们的共享语言,使前所未有的合作和协调--到科学和工程的工具,印刷术,蒸汽机,电力和互联网,最终达到今天人工智能的最新进展。
我们渴望与不同学科的其他人合作研究这些机会,因此在OpenAI的支持下,我们发起了"AI文集"项目。我们邀请了20位专家来探索GPT-4的能力,并思考未来版本对人类的潜在影响。每位参与者都被授予对GPT-4的早期保密访问权,提供教育、科学探索和医学方面的案例研究,这些案例来自我的探索,并被要求专注于两个核心问题:
这项技术和它的后继者可能对人类的繁荣做出怎样的贡献?作为社会,我们如何才能最好地引导技术,为人类实现最大的利益?在我2022年11月在密歇根大学的坦纳讲座中提出的观点基础上(智能的弧线:人类与它的理性和想象力工具),这些问题强调了长期思考的重要性,并对人工智能丰富人类生活的潜力保持乐观的态度。我们可以释放出巨大的潜在利益。但为了实现这种潜力,我们必须创造技术创新和政策,以防止恶意使用和意外后果。
这本文集证明了设想和合作的承诺,以及在塑造人工智能的未来时不同观点的重要性。这20篇文章提供了大量的见解、希望和关切,说明了随着人工智能的快速发展而产生的复杂性和可能性。
当你阅读这些文章时,我鼓励你对新的想法保持开放,参与深思熟虑的对话,并为正在进行的关于利用人工智能技术造福和赋予人类权力的讨论提供你的见解。人工智能的未来不是一条预先确定的道路,而是我们必须以智慧、远见和深刻的责任感共同驾驭的旅程。我希望这些文章中的观点有助于我们对我们所面临的挑战和机遇的集体理解。它们可以帮助指导我们努力创造一个人工智能系统补充人类智力和创造力以促进人类繁荣的未来。
欢迎来到"AI文集"。愿它能激励你,挑战你,并点燃有意义的对话,引导我们走向一个以创造性和有价值的方式利用人工智能而使人类繁荣的未来。
从今天开始,我们将在每周初发布四篇新文章。完整的"AI文集"将于2023年6月26日推出。
作为微软的首席科学官,埃里克-霍维茨带头在全公司范围内开展活动,在科学前沿、技术和社会的交汇处驾驭机遇和挑战。他因对人工智能理论和实践的贡献而闻名,包括在开放世界的复杂性中研究人工智能的原理和应用。
这些文章中所表达的观点、意见和建议仅代表作者本人,并不一定反映任何其他实体或组织的官方政策或立场,包括微软和OpenAI。作者对其文章中提出的信息和论点的准确性和原创性负全责。参与"AI文集"是自愿的,没有向作者提供任何奖励或补偿。
标签人工智能
关于人工智能 – 我 – chatgpt中文站
保持联系
以下是我在EFLU比较文学系研讨会上所演讲的版本。这是我多个月以来一直想要写的话题,只有这个机会终于促使我将思想浓缩成几个要点。现在,在演讲几周后,我有了将其发布在这里的动力。
几年前,我写了一篇文章,通过超人类主义的视角,研究了主流电影中一些AI角色的集合。我想看看AI在流行文化中被认为是怎样的形象和在电影中被描绘的。我通过三个主要标准分析了这些角色——它们的物理形态、叙事角色和显示类似人类情感的能力。对我而言,超人类主义是一个有趣的解释这些角色和故事的方法,因为它消除了某些隔阂,避免了人们将这些角色视为非人,特别是在描述他们边缘化和对抗边缘化的故事中。正是在这篇论文的研究中,我第一次接触到了“技术奇点”这个术语。
技术奇点是后人类主义者和人工智能支持者中广为流传的一个术语,其定义为“在不久的将来,几种强大技术的综合将彻底改变我们所处的现实”,这个转折点的最显著特征是计算机程序的指数级进展和人工智能能够超越人类智能,从而抹平它与人类之间的分界线。虽然相当吸引人,但奇点仍然是一个理论上的时间点,也是一个相当主观的时间点,因为关于“彻底改变的现实”会是什么样子并没有真正的共识。但在过去一年左右的时间里,大众却被人工智能的突然飞跃所擊惊。应用程序如chatgpt和midjourney在短短几个月内就成为了热点,累积了数百万用户。艺术家和作家显然对这些程序所预示的未来感到惊慌。新闻媒体几乎每天都会刊登关于人工智能取代工作的文章。技术奇点已经到来了吗?
由于人工智能及其应用领域过于广泛,因此我今天将把焦点缩小到所谓的生成式人工智能,它的能力以及它对人文主义的意义。
首先,什么是人工智能(AI)?“人工智能是计算机科学的一个广泛领域,涉及构建智能机器,能够执行通常需要人类智能的任务。”人工智能有点棘手。像上面引用“人类智能”这样的定义需要我们修正“智能”和“人类”真正意味着什么。有些导致的定义也可能相当排外。还应注意的是,这里的“智能”往往更多地通过输出的正确性来评估,而不是情感智能或模拟人类过程。它们能够遵循指令,并全面或部分地执行一些人类一直以来执行的任务。因此,将这些技术称为“智能”有点用词不当。
机器学习,或者ML,是一个更准确的术语来描述通常被标记为AI的东西。ML是计算机科学的一个分支,它寻求“使用数据和算法模仿人类学习的方式”,并且“使计算机能够自动从过去的数据中学习”,程序员无需提供每个单独的指令。然而,AI是一个更吸引人的术语,通常用于市场营销ML产品。一家技术公司的CEO可能会强调他们使用分析和ML,但市场营销最有可能将这些品牌定位为AI。机器学习模型现在能够通过开发相关技术/方法(如神经网络、深度学习、自我监督、强化学习等)来学习和执行许多任务。要更好地了解这些术语和概念,我发现这篇文章是个很好的介绍。
科幻小说中出现的那种能思考、类似人类的机器人所表现的人工智能更准确地被称为通用人工智能,称为“在绝大多数经济有价值的任务上超越人类能力的自主系统”。如果一个系统能够超越其初始指令并自主产生新的内容,则称其为AGI。尽管有关GPT-4研究人员注意到“火花”消息,但AGI仍然相当理论,并且我们尚未可靠地实现与之接近的任何成果。
ChatGPT,全称预训练生成式转换器,是由OpenAI公司开发的自然语言处理工具。它采用OpenAI创建的GPT技术,并将其呈现为一种会话式聊天机器人,能够回答问题和执行各种类似任务。自2022年11月推出以来,它已引起了广泛的公众关注,成为AI技术及其未来应用的热门话题。ChatGPT也是大型语言模型(LLM)的一个例子,这是使当前的高度复杂性成为可能的重大突破。关于LLM或转换器的更多细节,请参阅我之前链接的文章,这将是一个不错的资源。
现在回到我们是否已经到达技术奇点的问题上。简单的答案是否定的。然而,现在我们正处于技术进步的一个重要转折点,大多数观察者无法确定它是顶点还是仅仅是上升曲线的开端。我们正在谈论的技术及其应用正在以前所未见的速度发展,任何有关这些主题的研究都会在获得任何动力之前过时。
主要的科技公司,如谷歌和微软正在竞相在所有产品中实施人工智能,据报道,谷歌高管们一直在说他们担心这种新技术会让他们变得无关紧要。这是令人兴奋的事情!然而,其中很多只是炒作,以使这些品牌在公众眼中保持相关性。使用ChatGPT超过几分钟的任何人都可能遇到事实错误、逻辑错误、无法执行某些简单任务或直接伪造数据。其缺陷有一部分可以归因于其无法访问2021年9月以后的预训练数据,但其中大部分是因为整个程序都是一个概率猜测机器。ChatGPT不是搜索引擎、DJ、朋友或老师。它能做的就是接受您提供的单词并猜测下一个单词,其中有时可能会失败。
那么,为什么我们中的很多人对这些机器所能做的事情如此印象深刻呢?我承认,像ChatGPT和Midjourney这样的图像生成器让我非常着迷。其中很多原因与我们的期望有关。如果我们的期望是基于我们以前在互联网上的经验形成的,那么我们就不会准备好Chatbot的自然语言处理能力。它似乎可以解析我们的非正式文本输入,并几乎以同样方式回复。ChatGPT给我们留下了印象,因为我们对它的期望很低。并且因为我们还没有在任何工作流程中使用它,它的漏洞并不立即显现。我记得在二年级时,我们第一次发现了谷歌图片。它是一个多么惊人的资源-无尽的可视化可能性。上个月,我在谷歌图片上搜索了半个小时,寻找一面黑旗的完美图片。ChatGPT也会在我们使用过程中逐渐暴露出其缺陷,随着您的期望被调整,我们的需求不仅仅是娱乐式地“让机器人为您写诗”。
虽然我想停止参与和消除一些围绕这项新技术的危言耸听,特别是关于LLM和图像生成器的创造力,但我不想削弱它们的潜力。
我们必须担心的不是人工智能、机器学习或自动化,而是那些想要纯粹利用它们来驱动利润率的人。至于替代工作,我相信公司将尽最大努力使用机器学习程序来削减成本,而不是雇用员工,并很快发现它从来不是可行的选择。
这些程序是通过互联网以及旧文本和图像的收集进行训练的。在某种程度上,它们的训练数据是人类所有工作、艺术和知识创造的综合。想要用这种自动化取代所有人类事业的人和公司最终会耗尽训练模型的数据,最终不得不将人工智能模型的输出自我吞噬,这是一种快速降低未来所有输出质量的必然方式。
如果我们认为AI/ML是这样一种终极目标,那么我们也必须把它们看作是人类创造的渠道、纽带和工具。AI不能真正创造任何东西,但是当它用于支持、增强和补充时,它具有相当的威力。它具有自动化或加速我们花费很多时间做的许多小任务的能力。头脑风暴、开始起草稿等。例如,AI图像生成器也可以极大地加快动画行业中重复和乏味过程的速度,而该行业的工作人员已经过劳且收入微薄。Corridor’sCrew关于使用AI进行动画制作的影片和一些对它的反应都是一个值得关注的有趣内容。
并且,尽管这些技术在民主化创作艺术等方面起到了作用,但人类的技能和知识将继续是完成好工作的重要要求。不仅需要不断地创造新的内容,让未来的模型得以训练,还需要验证由人工智能工具生成的输出。即使ChatGPT能够像以往任何应用程序一样生成编程代码,但仍需要训练有素的专业人员的知识来知道该问什么,验证生成的代码,并正确地实施它。在写作方面,这些工具常常会出现简单的事实错误,创建虚假引用等问题——这些都是只有熟练的编辑才能发现的。
在工作中,我们最近接触到了一个很好的例子,展示了如何将ChatGPT集成到现有技术中。而且,很明确的是,这种人工智能工具主要用于总结复杂的视觉和数学数据,这对工程师来说以前需要花费太多时间。所有输出都会在发布之前由人类进行验证。
在AI/ML领域中,有一个术语叫“人在环节(Human-in-the-loop)”,指的是需要人类干预才能完成任务的模型和系统。它经常与自动武器联系在一起,如果没有监督就可能导致灾难,但我认为它在确认方面也非常相关。随着AI工具在职场中变得更加重要,一个错误可能会造成深远的影响。我认为,“人在环节”也是我们未来的正确方法。毫无疑问,职业所需要的技能集将发展,但是人类不能被替代,他们必须牵涉到工作中。
AI和ML工具也带来了一系列有关道德、合法性和责任的问题,目前我们对这些问题都没有真正的答案。就像这个领域的研究一样,技术的进步速度远远超过了道德和法律的跟进。因此,只有通过讨论和审议才能够得出结论。人文学科在这些审议中发挥着重要作用。它不能因恐惧或轻蔑而袖手旁观。
目前来看,对于人工智能,需要采取平衡的方式。平衡创造和自动化、兴奋和犹豫之间的关系。保持人类掌握主导地位,让人文主义发挥作用。
OneoftheimagesIgeneratedusingMidjourneyduringtheinitialdaysofmyfascination.