关于人工智能和人类繁荣的未来的思考
在我们思考人工智能的变革潜力时,人工智能的最新进展引发了我们的好奇和忧虑。人工智能为丰富我们的生活带来了巨大的希望,但这种期待与对可能出现的挑战和风险的忧虑交织在一起。为了培育一个利用人工智能造福人类和社会的未来,将一系列广泛的声音和观点汇聚在一起至关重要。
考虑到这一目标,我很荣幸地推出"人工智能文集",该文集由来自不同学科的杰出学者和专业人士撰写的20篇鼓舞人心的文章组成。该文集探讨了人工智能可以通过哪些不同的方式来造福人类,同时揭示了潜在的挑战。通过汇集这些不同的观点,我们的目标是激发发人深省的对话,鼓励合作努力,引导人工智能走向一个利用其潜力促进人类繁荣的未来。
2022年秋天,我在担任微软Aether委员会主席时,第一次遇到了GPT-4,一个了不起的大规模语言模型。Aether领导层和工程团队被允许提前接触OpenAI的最新创新,其任务是调查其使用的潜在挑战和更广泛的社会后果。我们的调查以微软的人工智能原则为基础,这些原则是委员会在2017年与微软的领导层合作建立的。我们对GPT-4的能力进行了全面分析,重点关注采用该技术的应用在安全、准确、隐私和公平方面可能带来的挑战。
GPT-4让我大吃一惊。我观察到了出乎意料的智能闪光,这些闪光超出了以前的人工智能系统所见。当与它的前身GPT-3.5--一个被数以千万计的人当作ChatGPT使用的模型--相比,我注意到能力上的重大飞跃。它解释我的意图并对许多提示提供复杂的答案的能力感觉就像一个"相变",唤起我在物理学中遇到的突发现象的想象。我发现GPT-4是一个多面手,具有整合传统上不同的概念和方法论的非凡能力。它无缝地将超越学科界限的想法编织在一起。
GPT-4的卓越能力引发了关于潜在破坏和不利后果的问题,以及造福人类和社会的机会。当我们更广泛的团队积极探索安全和公平问题时,我深入研究了医学、教育和科学领域的复杂挑战。越来越明显的是,这个模型和它的后继者--可能会在能力上表现出进一步的跳跃--拥有巨大的潜力来进行变革。这使我开始思考更广泛的社会影响。
围绕着艺术创作和归属、恶意行为者、工作和经济,以及我们还无法设想的未知未来,人们想到了一些问题。随着生成性人工智能工具的普及,人们可能会对不再是无与伦比的知识和艺术思想和创作的源泉作出反应?这些进步会如何影响我们的自我认同和个人愿望?在就业市场上可能会有什么短期和长期的后果?人们对人工智能系统所做的创造性贡献如何得到认可?恶意行为者可能如何利用这些新兴的力量来造成伤害?这些用途有哪些重要的潜在意外后果,包括那些我们可能还没有预见的后果?
同时,我想象着这样的未来:人们和社会可以通过利用这种技术以非同寻常的方式蓬勃发展,就像他们利用其他革命性的进步一样。这些变革性的影响包括从最初的认知工具--我们的共享语言,使前所未有的合作和协调--到科学和工程的工具,印刷术,蒸汽机,电力和互联网,最终达到今天人工智能的最新进展。
我们渴望与不同学科的其他人合作研究这些机会,因此在OpenAI的支持下,我们发起了"AI文集"项目。我们邀请了20位专家来探索GPT-4的能力,并思考未来版本对人类的潜在影响。每位参与者都被授予对GPT-4的早期保密访问权,提供教育、科学探索和医学方面的案例研究,这些案例来自我的探索,并被要求专注于两个核心问题:
这项技术和它的后继者可能对人类的繁荣做出怎样的贡献?作为社会,我们如何才能最好地引导技术,为人类实现最大的利益?在我2022年11月在密歇根大学的坦纳讲座中提出的观点基础上(智能的弧线:人类与它的理性和想象力工具),这些问题强调了长期思考的重要性,并对人工智能丰富人类生活的潜力保持乐观的态度。我们可以释放出巨大的潜在利益。但为了实现这种潜力,我们必须创造技术创新和政策,以防止恶意使用和意外后果。
这本文集证明了设想和合作的承诺,以及在塑造人工智能的未来时不同观点的重要性。这20篇文章提供了大量的见解、希望和关切,说明了随着人工智能的快速发展而产生的复杂性和可能性。
当你阅读这些文章时,我鼓励你对新的想法保持开放,参与深思熟虑的对话,并为正在进行的关于利用人工智能技术造福和赋予人类权力的讨论提供你的见解。人工智能的未来不是一条预先确定的道路,而是我们必须以智慧、远见和深刻的责任感共同驾驭的旅程。我希望这些文章中的观点有助于我们对我们所面临的挑战和机遇的集体理解。它们可以帮助指导我们努力创造一个人工智能系统补充人类智力和创造力以促进人类繁荣的未来。
欢迎来到"AI文集"。愿它能激励你,挑战你,并点燃有意义的对话,引导我们走向一个以创造性和有价值的方式利用人工智能而使人类繁荣的未来。
从今天开始,我们将在每周初发布四篇新文章。完整的"AI文集"将于2023年6月26日推出。
作为微软的首席科学官,埃里克-霍维茨带头在全公司范围内开展活动,在科学前沿、技术和社会的交汇处驾驭机遇和挑战。他因对人工智能理论和实践的贡献而闻名,包括在开放世界的复杂性中研究人工智能的原理和应用。
这些文章中所表达的观点、意见和建议仅代表作者本人,并不一定反映任何其他实体或组织的官方政策或立场,包括微软和OpenAI。作者对其文章中提出的信息和论点的准确性和原创性负全责。参与"AI文集"是自愿的,没有向作者提供任何奖励或补偿。
标签人工智能
ChatGPT对高等教育的可能影响与对策建议
ChatGPT来袭,将对高等教育带来哪些影响,我们又该如何应对?
对于ChatGPT,有人欢喜有人忧,不同人、不同领域评价不一。在一些人眼里,它就是天使,而在另外一些人眼里,它几乎可以说是魔鬼;有人将它视为学校教育的朋友,有人则认为它是学生、教师和学校的敌人;那么,它究竟是信息时代学校教育的阿拉丁神灯?还是创造性人才培养的潘多拉魔盒?
一些人认为,ChatGPT之类的人工智能技术的飞速发展,是人类科技发展史上浓墨重彩具有里程碑意义的革命,是将学习者和教师从繁重的常规工作和重复劳动中解放出来的绝妙利器,是创造性的加速器。也有人认为,ChatGPT是夸大其词的技术怪胎,使用ChatGPT可能会阻碍学习者和研究者进行诚实的研究和深入的调查,从而导致学术不端,对学校教育构成致命威胁。有不少人批评说,ChatGPT作为一种大型语言模型,没有突破语言文字本身的局限性。所有一切都是人类已知,而且还是互联网上的已知,哪里会有“新知识”“新思想”“新内容”呢?我想,这可能也是诺姆·乔姆斯基将使用ChatGPT视为“基本上是高科技剽窃”和“逃避学习的一种方式”的重要理由。
事实上,技术悲观主义者和技术乐观主义者都是对的。在技术价值中立论者看来,“杀人的不是枪,而是人”。同理,作弊的不是ChatGPT,而是使用ChatGPT作弊的人。尽管产品、工具和技术的设计师的设计难免带有自身的价值取向,但是,设计师的“设计功能”与使用者的“使用意图”并不完全等同。毕竟,从哲学角度看,“技术是合乎人的目的性的存在”,我们更多地应该问问自己,它是合乎谁的目的性。因此,从这个意义上说,我们现在很难预测2023年ChatGPT对高等教育的确切影响。但很显然,包括ChatGPT在内的生成性人工智能,以及其他各种颠覆性技术将继续快速发展,并为包括高等教育在内的诸多行业带来变革。
高等院校不能无视技术的飞速发展及其给职场带来的翻天覆地的影响,大学不能也不应当逃避未来的竞赛,而必须通过一套全面的教育计划来努力培养面向未来的毕业生,大学必须要拿出自己的应对策略。鉴于ChatGPT对高等教育的潜在影响,我建议教育管理部门和高等院校的管理者考虑采取以下七项行动,以应对ChatGPT之类人工智能对高等教育的冲击。
一是拥抱技术、拥抱变革、与时俱进。我并不认同澳大利亚、法国和非洲一些高校的做法。一纸禁令,于事无补,并且有害无益。20世纪70年代禁止学生使用计算器,后来禁止学生在课堂上使用手机,现在禁止在校内和作业中使用ChatGPT,这些禁令注定是徒劳的。大学不能高挂免战牌,必须迎面出击。人工智能大潮来袭,高等教育必须积极拥抱新技术,快速调整发展战略,顺势而为、与时俱进,方能不辱使命。
二是加大、加快人工智能相关技术投资。高等院校要积极探索、充分挖掘和大力发挥ChatGPT生成性人工智能技术以及其他人工智能技术在教育领域的潜力。高等院校应加大人工智能相关的技术投资,加快建设人工智能相关实验室,加大校企合作协同创新的力度,投资必要的基础设施和资源,以支持其实施和融入教育系统。
三是制定人工智能战略,实现数字化转型。高等院校要深入贯彻党的二十大报告明确提出的“推进教育数字化”要求,落实教育数字化战略行动部署,以高等教育数字化、智能化引领中国式高等教育现代化建设。大学要组织力量研究和制定人工智能战略,把人工智能促进创新人才培养纳入学校发展规划,将ChatGPT和其他人工智能技术纳入各级各类培养方案及相应的教育教学计划,从而实现人工智能时代高等教育数字化转型。
四是通过机制创新,促进合作协作。在教育领域,实施ChatGPT和其他人工智能技术,如同其他任何创新一样,需要多个利益相关者之间的协作,包括教育工作者、学生、技术专家和管理人员。在过去一些年,国内许多高校已经建立了不少人工智能相关的研究院。牌子立起来了,瓶颈在于机制体制创新,尤其是打破传统学科壁垒和管理条块分割的格局,实现校内相关研究人员的便捷流通和紧密合作,加快校内外科研人员和人工智能相关企业的精诚合作、协同创新。
五是关注学术诚信、道德和透明度。ChatGPT面世以来,世界各国的教师已经在社交媒体上分享有关学生使用ChatGPT之类的大型语言生成工具在考试或作业代写作弊的故事。许多教育工作者和研究人员正在争论ChatGPT对未来教学和学术诚信的意义。今天,人们很难相信,几十年前,计算器的激增在教育界同样引发过类似的恐慌。15年前,学生将笔记本电脑和手机带入教室引发了争论和隐忧,即认为该技术有可能分散学生的注意力并可用来作弊,而这在今天已经在较大范围内存在。在过去一些年,围绕着利用人工智能生成内容相关的争论,尤其是涉及技术伦理、学术道德、隐私保护、合规合法等的争论,从来就没有停止过。
今天,围绕着ChatGPT相关的人工智能技术创新应用的争论正在不断涌现,并且异常激烈。ChatGPT和其他人工智能技术的使用引发了重要的道德、学术诚信和透明度问题,如抄袭、侵权、算法偏差、泄露隐私等。随着人工智能技术的兴起,高等院校必须重新审视学术诚信政策,加大对学生和教职员工的学术诚信教育,制定明确的、具体的、可操作的政策,来应对和解决由ChatGPT之类的人工智能技术带来的问题和挑战,并确保教职员工和学生对技术的使用符合道德和法律标准。
六是改造课程,推出新课程。高等院校的改革必须从课程的改革开始。那些课程内容陈旧过时、教学方法落后无效、教育教学缺乏个性化关注以及教育技术老套落后的高等院校需要立即进行改革。高等院校的课程,不能是“新瓶旧酒”:课程名字新,而教学内容或者教学方法旧或者两者都旧。大学必须将现有的课程转向更高层次的批判性思维、道德思维、创造力、解决问题和面向未来的解决方案,这是一种让学生了解他们职业范围和未来职业,并提高他们处理不同问题能力的创造性解决方案。不仅如此,大学必须要开设更多、更好的与人工智能相关的课程,教导学生学习如何合乎道德和伦理地利用人工智能,学会和人工智能合作与协同工作,学习人工智能时代全新的生活方式和工作方式。
七是及时反思、不断评估和改进。俗话说,唯一不变的是变化,今天的高等教育也不例外。ChatGPT和其他人工智能技术对高等教育的影响注定会随着时间的推移而不断地演变,因此,高等院校和高等教育的管理机构应不断评估人工智能教育应用情况,并在必要时对其进行改进。不断评估,及时改进,随时调整,这可能包括更新高等院校人工智能战略与实施策略、培训教育工作者以及对技术本身进行更新,以此更好地满足学生、教育系统以及社会对人工智能时代创新人才的需求。
总体而言,对于高等教育管理者和教师来说,重要的是要拥抱新技术、拥抱变革,积极尝试大胆探索,谨慎对待ChatGPT和其他人工智能技术在教育中的应用,并积极应对潜在的挑战和道德风险。通过这些步骤,教师可以确保有效地使用这些技术来改善教育和支持学生,推动我国高等教育的发展。
如何保证人工智能对人类的安全性
人工智能可以比人类更快地处理信息,如果它没有正确地理解它的行动对人所造成的影响,那么它的自我进化功能可能很快就与人类的价值观相左。
对于瑞士人工智能实验室IDSIA的一位研究员BasSteunebrink来说,解决这一问题对保证人工智能的安全性是至关重要的。
在一个复杂的世界中建立人工智能
正因为这个世界是如此的复杂,许多研究人员开始在一些可控的环境下小心地开发人工智能项目。然后,他们推导了数学证明,可以保证在这个安全的空间中人工智能能够获得成功。
但Steunebrink担心,这种方法把太多的责任放在了研究人员身上,还寄予了太多信心在数学证明上,尤其是在处理能够自我学习的机器的情况下。他解释说,“我们不能准确地描述环境的复杂性;我们无法预见人工智能未来会处在什么样的环境中;并且一个人工智能系统不一定有足够的资源(能源,时间,数据)去做最佳的事情。”
如果机器遇到了一种不可预见的情况,那么在可控环境中设计的公式可能会不适用于新的环境。Steunebrink说,“我们无法保证人工智能的安全性。”
基于经验的人工智能
相反,Steunebrink使用一种方法叫做EXPAI(基于经验的人工智能)。EXPAI是一个”可以自我完善的系统,它可以在没有先验的自我推理情况下,做出尝试性的、额外的、可逆的、超细粒度的修改;相反,这些自我修改会经过时间的检验和验证,如果合适则慢慢加入功能,或者如果不合适就会丢弃修改。”
研究人员可以确保AI的安全性,通过教学和验证在复杂、不可预见的环境中测试它的功能和改进目标,而不是只依赖数学证明。
通过EXPAI机制,人工智能机器将从互动体验中学习,因此监测它的发展是至关重要的。Steunebrink认为,不应该问“一个聪明而且能自我进化的人工智能的正确行为是什么,以及我们如何控制它?“,而要问,”我们应该如何从婴儿开始培养一个人工智能,最后它可以有一个正确的价值观?“
考虑一下孩子是如何成长,学会独立认识世界的。如果有一个稳定和健康的童年,孩子们将学习价值观和了解他们与外部世界的关系,通过试错和生活例子。童年是一个成长和学习的时期,是犯错误的时期,是在成功中学习的过程。所有的这些事情,将帮助准备孩子成长为一个有能力的成年人,并可以在不可预见的环境下独立生存。
Steunebrink认为,研究人员可以通过类似以经验为基础的循序渐进的学习过程,保证人工智能的安全性。在由Steunebrink和他的同事们开发的一个架构草图中,人工智能的只包含了“少量由研究人员写的代码就像一粒种子“。就像一个孩子,人工智能刚开始不会太聪明,但随着时间的推移和经验学习,它会不断地自我改进。
Steunebrink的方法注重于人工智能的成长期,教学老师才是一个鲁棒和安全的人工智能的主要负责人,而不是程序员,。与此同时,人工智能的发展阶段能让研究人员在低风险的可控环境中有时间去观察和纠正人工智能的行为。
EXPAI的未来
Steunebrink和他的同事们正在创造他所描述的“人工智能教育学,以确定什么样的事情可以教给人工智能,以什么顺序,还有如何测试人工智能所习得的内容。根据这些测试的结果,再决定我们是否可以进一步教学,或者是否应该重新教给人工智能旧的内容,或者回到最初始的状态来教。”
Steunebrink面临的一个主要问题是,他的经验学习方法与当下受欢迎的人工智能研究方法大相庭径。EXPAI需要大量的现场工作,要像教一个孩子一样教它,而不是研究可以证明的优化学习算法。
创造安全的人工智能可能会是一个教学和成长的过程,而不是在研究一个完美的数学证明。虽然这样的方法比较耗时,但它可以在它之前被应用于现实世界之前,帮助研究人员更全面地了解一个人工智能。
Steunebrink解释说,”很多工作有待从人工智能的实现层次上脱离出来,并转向开发教学和测试那些令我们理解道德观念的方法,以保证人工智能代理一直坚守这些观念”。
这个过程是艰巨的,他承认,“但并不比人工智能将来出错的后果更可怕。”
2016年7月,人工智能学家AIE实验室基于自身的研究成果和所拥有的顶级科学家资源,筹备建立未来科技学院(FuturologyUniversity)。
未来科技学院的使命和目标:将邀请国内和国际著名科学家、科技企业家讲授人工智能、互联网、脑科学、虚拟现实、机器人等领域的基本原理和未来发展趋势。未来科技学院的目标是研究前沿科技未来发展趋势,培养掌握未来科技动向的企业家和具有独立创新精神的未来科学家。
开始激动人心的学习之旅:无论您是企业家,投资人,还是青年学子,科技爱好者,如果您希望把握科技未来发展趋势,与世界著名科学家,科技企业家,风险投资家进行直接交流。欢迎您加入未来科技学院大家庭。
您可以扫描二维码,进入未来科技学院临时群,然后工作人员邀请您加入未来科技学院的免费学习群,开启前沿科技未来趋势的学习之旅。
人工智能学家Aitists
人工智能学家是权威的前沿科技媒体和研究机构,2016年2月成立人工智能与互联网进化实验室(AIELab),重点研究互联网,人工智能,脑科学,虚拟现实,机器人,移动互联网等领域的未来发展趋势和重大科学问题。
长按上方二维码关注微信号Aitists
投稿邮箱:
阅读
阅读
精选留言
加载中
以上留言由公众号筛选后显示
返回搜狐,查看更多