博舍

《新一代人工智能伦理规范》发布 谁提出了反对人工智能的论证理论思想

《新一代人工智能伦理规范》发布

9月25日,国家新一代人工智能治理专业委员会发布了《新一代人工智能伦理规范》(以下简称《伦理规范》),旨在将伦理道德融入人工智能全生命周期,为从事人工智能相关活动的自然人、法人和其他相关机构等提供伦理指引。

《伦理规范》经过专题调研、集中起草、意见征询等环节,充分考虑当前社会各界有关隐私、偏见、歧视、公平等伦理关切,包括总则、特定活动伦理规范和组织实施等内容。《伦理规范》提出了增进人类福祉、促进公平公正、保护隐私安全、确保可控可信、强化责任担当、提升伦理素养等6项基本伦理要求。同时,提出人工智能管理、研发、供应、使用等特定活动的18项具体伦理要求。《伦理规范》全文如下:

新一代人工智能伦理规范为深入贯彻《新一代人工智能发展规划》,细化落实《新一代人工智能治理原则》,增强全社会的人工智能伦理意识与行为自觉,积极引导负责任的人工智能研发与应用活动,促进人工智能健康发展,制定本规范。

第一章 总则

第一条 本规范旨在将伦理道德融入人工智能全生命周期,促进公平、公正、和谐、安全,避免偏见、歧视、隐私和信息泄露等问题。

第二条 本规范适用于从事人工智能管理、研发、供应、使用等相关活动的自然人、法人和其他相关机构等。(一)管理活动主要指人工智能相关的战略规划、政策法规和技术标准制定实施,资源配置以及监督审查等。(二)研发活动主要指人工智能相关的科学研究、技术开发、产品研制等。(三)供应活动主要指人工智能产品与服务相关的生产、运营、销售等。(四)使用活动主要指人工智能产品与服务相关的采购、消费、操作等。

第三条 人工智能各类活动应遵循以下基本伦理规范。(一)增进人类福祉。坚持以人为本,遵循人类共同价值观,尊重人权和人类根本利益诉求,遵守国家或地区伦理道德。坚持公共利益优先,促进人机和谐友好,改善民生,增强获得感幸福感,推动经济、社会及生态可持续发展,共建人类命运共同体。(二)促进公平公正。坚持普惠性和包容性,切实保护各相关主体合法权益,推动全社会公平共享人工智能带来的益处,促进社会公平正义和机会均等。在提供人工智能产品和服务时,应充分尊重和帮助弱势群体、特殊群体,并根据需要提供相应替代方案。(三)保护隐私安全。充分尊重个人信息知情、同意等权利,依照合法、正当、必要和诚信原则处理个人信息,保障个人隐私与数据安全,不得损害个人合法数据权益,不得以窃取、篡改、泄露等方式非法收集利用个人信息,不得侵害个人隐私权。(四)确保可控可信。保障人类拥有充分自主决策权,有权选择是否接受人工智能提供的服务,有权随时退出与人工智能的交互,有权随时中止人工智能系统的运行,确保人工智能始终处于人类控制之下。(五)强化责任担当。坚持人类是最终责任主体,明确利益相关者的责任,全面增强责任意识,在人工智能全生命周期各环节自省自律,建立人工智能问责机制,不回避责任审查,不逃避应负责任。(六)提升伦理素养。积极学习和普及人工智能伦理知识,客观认识伦理问题,不低估不夸大伦理风险。主动开展或参与人工智能伦理问题讨论,深入推动人工智能伦理治理实践,提升应对能力。

第四条 人工智能特定活动应遵守的伦理规范包括管理规范、研发规范、供应规范和使用规范。

第二章 管理规范

第五条 推动敏捷治理。尊重人工智能发展规律,充分认识人工智能的潜力与局限,持续优化治理机制和方式,在战略决策、制度建设、资源配置过程中,不脱离实际、不急功近利,有序推动人工智能健康和可持续发展。

第六条 积极实践示范。遵守人工智能相关法规、政策和标准,主动将人工智能伦理道德融入管理全过程,率先成为人工智能伦理治理的实践者和推动者,及时总结推广人工智能治理经验,积极回应社会对人工智能的伦理关切。

第七条 正确行权用权。明确人工智能相关管理活动的职责和权力边界,规范权力运行条件和程序。充分尊重并保障相关主体的隐私、自由、尊严、安全等权利及其他合法权益,禁止权力不当行使对自然人、法人和其他组织合法权益造成侵害。

第八条 加强风险防范。增强底线思维和风险意识,加强人工智能发展的潜在风险研判,及时开展系统的风险监测和评估,建立有效的风险预警机制,提升人工智能伦理风险管控和处置能力。

第九条 促进包容开放。充分重视人工智能各利益相关主体的权益与诉求,鼓励应用多样化的人工智能技术解决经济社会发展实际问题,鼓励跨学科、跨领域、跨地区、跨国界的交流与合作,推动形成具有广泛共识的人工智能治理框架和标准规范。

第三章 研发规范

第十条 强化自律意识。加强人工智能研发相关活动的自我约束,主动将人工智能伦理道德融入技术研发各环节,自觉开展自我审查,加强自我管理,不从事违背伦理道德的人工智能研发。

第十一条 提升数据质量。在数据收集、存储、使用、加工、传输、提供、公开等环节,严格遵守数据相关法律、标准与规范,提升数据的完整性、及时性、一致性、规范性和准确性等。

第十二条 增强安全透明。在算法设计、实现、应用等环节,提升透明性、可解释性、可理解性、可靠性、可控性,增强人工智能系统的韧性、自适应性和抗干扰能力,逐步实现可验证、可审核、可监督、可追溯、可预测、可信赖。

第十三条 避免偏见歧视。在数据采集和算法开发中,加强伦理审查,充分考虑差异化诉求,避免可能存在的数据与算法偏见,努力实现人工智能系统的普惠性、公平性和非歧视性。

第四章 供应规范

第十四条 尊重市场规则。严格遵守市场准入、竞争、交易等活动的各种规章制度,积极维护市场秩序,营造有利于人工智能发展的市场环境,不得以数据垄断、平台垄断等破坏市场有序竞争,禁止以任何手段侵犯其他主体的知识产权。

第十五条 加强质量管控。强化人工智能产品与服务的质量监测和使用评估,避免因设计和产品缺陷等问题导致的人身安全、财产安全、用户隐私等侵害,不得经营、销售或提供不符合质量标准的产品与服务。

第十六条 保障用户权益。在产品与服务中使用人工智能技术应明确告知用户,应标识人工智能产品与服务的功能与局限,保障用户知情、同意等权利。为用户选择使用或退出人工智能模式提供简便易懂的解决方案,不得为用户平等使用人工智能设置障碍。

第十七条 强化应急保障。研究制定应急机制和损失补偿方案或措施,及时监测人工智能系统,及时响应和处理用户的反馈信息,及时防范系统性故障,随时准备协助相关主体依法依规对人工智能系统进行干预,减少损失,规避风险。

第五章 使用规范

第十八条 提倡善意使用。加强人工智能产品与服务使用前的论证和评估,充分了解人工智能产品与服务带来的益处,充分考虑各利益相关主体的合法权益,更好促进经济繁荣、社会进步和可持续发展。

第十九条 避免误用滥用。充分了解人工智能产品与服务的适用范围和负面影响,切实尊重相关主体不使用人工智能产品或服务的权利,避免不当使用和滥用人工智能产品与服务,避免非故意造成对他人合法权益的损害。

第二十条 禁止违规恶用。禁止使用不符合法律法规、伦理道德和标准规范的人工智能产品与服务,禁止使用人工智能产品与服务从事不法活动,严禁危害国家安全、公共安全和生产安全,严禁损害社会公共利益等。

第二十一条 及时主动反馈。积极参与人工智能伦理治理实践,对使用人工智能产品与服务过程中发现的技术安全漏洞、政策法规真空、监管滞后等问题,应及时向相关主体反馈,并协助解决。

第二十二条 提高使用能力。积极学习人工智能相关知识,主动掌握人工智能产品与服务的运营、维护、应急处置等各使用环节所需技能,确保人工智能产品与服务安全使用和高效利用。

第六章 组织实施

第二十三条 本规范由国家新一代人工智能治理专业委员会发布,并负责解释和指导实施。

第二十四条 各级管理部门、企业、高校、科研院所、协会学会和其他相关机构可依据本规范,结合实际需求,制订更为具体的伦理规范和相关措施。

第二十五条 本规范自公布之日起施行,并根据经济社会发展需求和人工智能发展情况适时修订。

 

国家新一代人工智能治理专业委员会

2021年9月25日

赵汀阳:我们夸大了对人工智能的恐惧,但危险的可能性存在

根据一些科学家们的观察,技术的疯狂发展,特别是人工智能的发展,将会让世界迎来“奇点”,它将使得所有事物在本世纪中叶发生彻底的改变。人类的世界将很可能被无所不能的人工智能所统治。根据人工智能的构造逻辑,它将是一个具有一神论式思维模式的超级力量,很可能把人类视为没有价值的低等生物,并毫不留情地对人类进行“最终审判”。

——赵汀阳《一神论的影子》

最近,中国哲学家赵汀阳与法国人类学家阿兰·乐比雄的通信集结为《一神论的影子》,由中信出版社出版。在这本通信集中,两位作者以跨文化论辩的形式,深入细致地探讨了一神论形塑的西方思想模式及其对现代性的影响,并延伸探讨了中西文化从分化到融合的可能性。

赵汀阳

在赵汀阳致阿兰的第三封信《天何言哉》中,赵汀阳也颇为忧心地提及到具有一神论式思维模式的人工智能可能具有超级力量,并将毫不留情地对人类进行“最终审判”。7月5日,在中国艺术研究院主办的“艺术与人文高端讲座”中,赵汀阳以“人工智能的界限”为题进行了分享,详细地从哲学家的角度探讨了人工智能的奇点、后果、用处、风险等问题。

人工智能的社会有可能是一个新型的“专制社会”

赵汀阳认为,人工智能的社会有可能是一个新型的“专制社会”,因为人们为了获得技术提供的服务,会屈服于技术系统的控制;而这种新的“专制”是人们自愿选择的,不是被强加的。因为对人工智能无法自拔的依赖,人们会以市场选择或者民主选择的方式,自愿选择这种技术的“新专制”。

赵汀阳说,人工智能涉及的问题包括两类,一类是比较近的问题,一类是远在天边的问题。近在眼前的问题很典型,不管我们愿意不愿意,我们马上就进入一个人工智能的社会,并且会遇到很多的社会问题,比如政治问题,生活问题等等,这些问题并不恐怖。远的问题真正有挑战性,一旦人工智能突破它的临界点(奇点),就有可能成为高于人类一种存在,进而统治人类。目前还不知道人工智能能不能达到这样的程度,但从理论上说应该有可能。

赵汀阳表示,有一些人反对人工智能,从伦理上或者是情感上进行批判,但这是无效的问题。因为人们对它的兴趣远远大于阻力,只要有大资本和国家力量的存在,人工智能就一定会胜利。比如说我们指望以后会有智能的生产,智能的城市,智能的建筑,智能的服务系统,智能的医疗,智能的交通等等。这些发展,明显可以减少生产成本,交易成本,减少能源的消耗,增加生产力、管理能力、财富。另外,人工智能能够增加战争的能力,仅凭这一个诱惑就已经挡不住了,且不说前面还有那么多人人都想要的好处。

正如赵汀阳在《一神论的影子》中写到的:“人类贪婪地追逐着控制一切的权力,甚至企图通过技术手段获得永生,这些行为早就背离了自然的本意,这样下去人类很可能会在自己设计的、或者自己招致的最终审判中遭受重罚。”利益最大化的个人理性驱使着人类追逐着一切能带来目之可及的利益的手段,人工智能便是其一。

《一神论的影子》

有所得就有所失,人工智能的系统服务更是如此。“人工智能将会导致我们过着很类似的生活,所得到的也是非常类似的信息,大家能拥有的东西都差不多。所以,将来人的面目和思维都很类似,也就不可能有什么个性,而所谓与众不同的东西,或者说高品质的好东西,存在的基础是等级制和差距。如果我们反对等级制,反对差距,就不会有什么高质量和与众不同,从这个意义上说,我们所追求的东西恰恰导致了我们人类命运的这种悖论性。”赵汀阳说,这也使得人类逐渐会沦为“机械复制时代的新生物”。

赵汀阳认为:如果追求一切事情的平等,那么这种技术化和平等化,事实上为专制创造了更好的条件。因为平等意味着卓越的精神要屈服于基本善,人们都可以分得平均线的好东西。这样,一切资源都会向平均好东西倾斜,卓越的精神就失去了生存的基础,而只有这种卓越的精神才是控制不了的自由。大家为了获得技术提供的服务,就只好屈服于技术系统的控制。这种新的专制,是人们自愿选择的,不是被强加的。因为人们会以市场化方式和民主的方式,自愿选择这种技术的新专制。

拟人化的人工智能最危险

赵汀阳在讲座中也谈到了人工智能的伦理问题:“拟人化的人工智能在我看来是很危险的。如果在感情和价值观上真的很像人的话,我认为会出事。为什么?因为人的欲望和价值观就是一切冲突的根据。如果说我们把机器人变成跟人一样,那就是把机器人变成坏人。”

赵汀阳说,比较严重但是遥远的问题,就是人工智能的临界点(奇点)在哪里?真正的危险是反思。也就是说,如果有一天,人工智能的思想对象是它自身,思想自身变成思想对象,比如提出这样的问题:我能够解释我自己吗?我是自由的吗?如果能够提出这些问题的话,那么人工智能也就达到了霍布斯、马克思这样的思维水平,马上就会引出“一切事情由谁说了算”这样的问题,那么,人工智能就会像人类一样要求修改规则。那就非常的危险。因此,必须为人工智能设置一个合理的限度,唯一的办法就是让人工智能的研究或者制造,停在一个高能力的水平上,但是又没有害,没有自我意识,然后就停步,不再往前走了。

“你想想几十年一百年之后人工智能它在能力上也许几乎等于神,但是能力强不怕,就是刚才我论证的危险之处不在于能力,而在于自我意识。如果他没有自我意识,那么这种高能力根本不是一个危险。”最后,赵汀阳提出一个结论:目前我们对人工智能的恐惧是夸大的,但是未来的危险是一定的,可能性是存在的。

专家共谈“人工智能”

演讲现场,中国科学院自动化研究所研究员、类脑智能研究中心副主任曾毅,中国社会科学院哲学研究所研究员段伟文也对人工智能的话题提出了自己的看法。

演讲现场,左起:赵汀阳、曾毅、段伟文、梁治平 曾毅说:“人工智能的现状还远没有想象的那么乐观,甚至连一个月大的小孩的智商都达不到。虽然很多公司号称自己做的人工智能的大脑已经有两三岁的智识水平,还有已经号称有60岁的智慧。我经常这样回答,你可以想想你家里的小孩1岁可以做到的事情,有多少是现在人工智能可以做到的?实际上这是人工智能的现状。”

曾毅说自己给学生经常举这样的例子:马路边一个10岁的小孩手里攥着一个海龟,如果计算机系统告诉你10岁的小孩站在马路边,手里拿着一个来复枪。如果它是一个完全自主的系统,未来真的有机器警察,这件事的社会后果是什么?所以,人工智能目前最恐怖的不是通用智能和超级智能,而是当它犯错误的时候,它自己根本不知道。

段伟文说:“如果能够实现电信号和人的神经信号之间真正意义上的脑机结合,就有可能出现机器和人联合专制。一个公司的老板告诉我,他们在做通过人脸识别监测健康状况的研究,如果企业利用人脸识别看出来你不健康的话,就不录取你,这样就打破了我们以往所说的‘无知之幕’”。

“哲学家在未来的时代可以做一些什么?我觉得实际上就是做这一个事情,不是上帝之眼,站在比较高的位置看人和机器的智能是什么关系。”段伟文说,哲学家要用一种智慧,来思考人和机器的智能怎么样整合在一起,也包括会出现什么样的风险和危险,哪些智能的组合会有些问题。

人工智能的起源

原标题:人工智能的起源

人工智能(ArtificialIntelligence),英文缩写为AI,是一门由计算机科学、控制论、信息论、语言学、神经生理学、心理学、数学、哲学等多种学科相互渗透而发展起来的综合性新学科。自问世以来AI经过波波折折,但终于作为一门边缘新学科得到世界的承认并且日益引起人们的兴趣和关注。不仅许多其他学科开始引入或借用AI技术,而且AI中的专家系统、自然语言处理和图象识别已成为新兴的知识产业的三大突破口。

人工智能的思想萌芽可以追溯到十七世纪的帕斯卡和莱布尼茨,他们较早萌生了有智能的机器的想法。十九世纪,英国数学家布尔和德.摩尔根提出了“思维定律“,这些可谓是人工智能的开端。十九世纪二十年代,英国科学家巴贝奇设计了第一架“计算机器“,它被认为是计算机硬件,也是人工智能硬件的前身。电子计算机的问世,使人工智能的研究真正成为可能。

作为一门学科,人工智能于1956年问世,是由“人工智能之父“McCarthy及一批数学家、信息学家、心理学家、神经生理学家、计算机科学家在Dartmouth大学召开的会议上,首次提出。对人工智能的研究,由于研究角度的不同,形成了不同的研究学派。这就是:符号主义学派、连接主义学派和行为主义学派。

传统人工智能是符号主义,它以Newell和Simon提出的物理符号系统假设为基础。物理符号系统是由一组符号实体组成,它们都是物理模式,可在符号结构的实体中作为组成成分出现,可通过各种操作生成其它符号结构。物理符号系统假设认为:物理符号系统是智能行为的充分和必要条件。主要工作是“通用问题求解程序“(GeneralProblemSolver,GPS):通过抽象,将一个现实系统变成一个符号系统,基于此符号系统,使用动态搜索方法求解问题。

连接主义学派是从人的大脑神经系统结构出发,研究非程序的、适应性的、大脑风格的信息处理的本质和能力,研究大量简单的神经元的集团信息处理能力及其动态行为。人们也称之为神经计算。研究重点是侧重于模拟和实现人的认识过程中的感觉、知觉过程、形象思维、分布式记忆和自学习、自组织过程。

行为主义学派是从行为心理学出发,认为智能只是在与环境的交互作用中表现出来。

人工智能的研究经历了以下几个阶段:

第一阶段:50年代人工智能的兴起和冷落

人工智能概念首次提出后,相继出现了一批显著的成果,如机器定理证明、跳棋程序、通用问题s求解程序、LISP表处理语言等。但由于消解法推理能力的有限,以及机器翻译等的失败,使人工智能走入了低谷。这一阶段的特点是:重视问题求解的方法,忽视知识重要性。

第二阶段:60年代末到70年代,专家系统出现,使人工智能研究出现新高潮

DENDRAL化学质谱分析系统、MYCIN疾病诊断和治疗系统、PROSPECTIOR探矿系统、Hearsay-II语音理解系统等专家系统的研究和开发,将人工智能引向了实用化。并且,1969年成立了国际人工智能联合会议(InternationalJointConferencesonArtificialIntelligence即IJCAI)。

第三阶段:80年代,随着第五代计算机的研制,人工智能得到了很大发展

展开全文

日本1982年开始了“第五代计算机研制计划“,即“知识信息处理计算机系统KIPS“,其目的是使逻辑推理达到数值运算那么快。虽然此计划最终失败,但它的开展形成了一股研究人工智能的热潮。

第四阶段:80年代末,神经网络飞速发展

1987年,美国召开第一次神经网络国际会议,宣告了这一新学科的诞生。此后,各国在神经网络方面的投资逐渐增加,神经网络迅速发展起来。

第五阶段:90年代,人工智能出现新的研究高潮

由于网络技术特别是国际互连网的技术发展,人工智能开始由单个智能主体研究转向基于网络环境下的分布式人工智能研究。不仅研究基于同一目标的分布式问题求解,而且研究多个智能主体的多目标问题求解,将人工智能更面向实用。另外,由于Hopfield多层神经网络模型的提出,使人工神经网络研究与应用出现了欣欣向荣的景象。人工智能已深入到社会生活的各个领域。

IBM公司“深蓝“电脑击败了人类的世界国际象棋冠军,美国制定了以多Agent系统应用为重要研究内容的信息高速公路计划,基于Agent技术的Softbot(软机器人)在软件领域和网络搜索引擎中得到了充分应用,同时,美国Sandia实验室建立了国际上最庞大的“虚拟现实“实验室,拟通过数据头盔和数据手套实现更友好的人机交互,建立更好的智能用户接口。图像处理和图像识别,声音处理和声音识别取得了较好的发展,IBM公司推出了ViaVoice声音识别软件,以使声音作为重要的信息输入媒体。国际各大计算机公司又开始将“人工智能“作为其研究内容。人们普遍认为,计算机将会向网络化、智能化、并行化方向发展。二十一世纪的信息技术领域将会以智能信息处理为中心。

目前人工智能主要研究内容是:分布式人工智能与多智能主体系统、人工思维模型、知识系统(包括专家系统、知识库系统和智能决策系统)、知识发现与数据挖掘(从大量的、不完全的、模糊的、有噪声的数据中挖掘出对我们有用的知识)、遗传与演化计算(通过对生物遗传与进化理论的模拟,揭示出人的智能进化规律)、人工生命(通过构造简单的人工生命系统(如:机器虫)并观察其行为,探讨初级智能的奥秘)、人工智能应用(如:模糊控制、智能大厦、智能人机接口、智能机器人等)等等。

人工智能研究与应用虽取得了不少成果,但离全面推广应用还有很大的距离,还有许多问题有待解决,且需要多学科的研究专家共同合作。未来人工智能的研究方向主要有:人工智能理论、机器学习模型和理论、不精确知识表示及其推理、常识知识及其推理、人工思维模型、智能人机接口、多智能主体系统、知识发现与知识获取、人工智能应用基础等。返回搜狐,查看更多

责任编辑:

强弱AI的辩论:关于人工智能意识的奇妙理论

2020-09-3012:41:15

全文共3593字,预计学习时长9分钟

 

图源:pixabay

 

最近,我与我最喜欢的新晋思想家就高性能和低性能AI进行了辩论,这让我想起了自己一年多以前写的东西,因此我决定拾起这些尘封的想法。人工智能的技术炒作太多了,有时应该回到其哲学根源。而在围绕AI的所有哲学争论中,最重要的就是对强弱AI的争论。

 

从技术角度来看,我赞成这样的想法,即在实现某种形式的强大或通用AI的领域,我们实现了一两个突破。但从哲学的角度来看,仍然存在一些需要调和的挑战。许多挑战都可以通过上世纪奥匈帝国数学家开创的晦涩理论以及神经科学研究的领先领域之一来解释。

 

在AI理论中,低性能AI系统通常只是看起来智能,而高性能AI机器则真正具备思考能力。这里的思考是指真正的思考,而不仅仅是模拟的思考。这种困境通常被称为“高性能AI假设”。

 

 

在一个用数字助理和算法击败围棋世界冠军和魔兽世界2团队的世界中,机器是否可以智能地行动这个问题似乎很愚蠢。在有限的一些环境中,例如医学研究、围棋、旅行等,我们已经能够构建大量可发挥其智能作用的AI系统。大多数专家都认为低性能AI绝对是可能的,但对于高性能AI仍然存在极大的怀疑。

 

机器可以思考吗?

 

自从艾伦·图灵在1950年发表著名论文《计算机与智能》以来,这些问题就一直困扰着计算机科学家和哲学家。当大多数科学家甚至无法就思维的正式定义达成共识时,确定这个问题的答案似乎也不公平。

 

为了说明围绕高性能AI假设的困惑,我们可以借鉴著名计算机科学家EdsgerDijkstra的幽默表达。他在1984年的一篇论文中将机器是否可以思考的问题与诸如“潜艇会游泳吗?”或“飞机能飞吗?”之类的问题进行了比较。

 

尽管这些问题看起来很相似,但大多数说英语的人都会同意,飞机实际上可以飞行,但潜艇不会游泳。这是为什么?这种比较的基本观点是,如果没有对思维的统一定义,那么对机器是否可以思考的痴迷似乎无关紧要。

 

在对高性能AI的主要反对意见中,从本质上讲,不可能确定机器是否能够真正思考。该论证源于有史以来最著名的数学定理之一。

 

图源:unsplash

 

哥德尔不完全性定理

 

当我们谈论历史上最伟大的数学理论对思维方式产生了广泛的影响时,哥德尔的不完全性定理应该有一席之地。

 

1931年,数学家库尔特·哥德尔(KurtGödel)通过证明其著名的不完全性定理证明了演绎法的局限性。哥德尔定理指出了任何形式的可以进行算术运算的理论,但有真实的陈述在该理论内没有证据。

 

长期以来,不完全性定理一直被用作反对强人工智能的对象。该理论的支持者认为,高性能AI主体将无法真正思考,因为它们受到不完全性定理的限制,而人类思维显然不受限制。

 

该论点引发了很多争议,许多高性能AI的从业者也拒绝接受它。高性能AI学派最常讲的论点是,无法确定人类的思维是否服从于哥德尔定理,因为任何证据都需要形式化人类知识,而我们知道这是不可能的。

 

意识论证

 

在人们关于AI的激烈辩论中,我最喜欢的论点是意识。机器真的可以思考还是可以模拟思考?如果机器在将来能够进行思考,这意味着它们将需要有意识(即意识其状态和动作),因为意识是人类思维的基石。

 

对高性能AI的怀疑引发了各种争论,包括经典的数学理论(例如Gödel的不完全性定理)到AI平台的纯粹技术局限性。然而,生物学、神经科学和哲学的交集仍然是争论的焦点,并且与人工智能系统的意识有关。

 

什么是意识?

 

图源:unsplash

 

关于意识有很多定义和争论,这足以劝退多数人继续追究其在AI系统中的作用的论点。意识的大多数定义都涉及自我意识或实体了解其心理状态的能力,但是,当涉及到AI时,自我意识和精神状态也没有明确定义,因此我们就像飞速掉进兔子洞一样,陷入了迷茫无措。

 

为了适用于AI,意识理论需要更加务实和技术化,并且要少一些哲学性。我最喜欢的遵循这些原则的意识定义来自物理学奖获得者MichioKaku,他是纽约大学理论物理教授,也是弦理论的创造者之一。

 

几年前,Kaku博士提出了他所谓的“意识的时空理论”,将生物学和神经科学等领域对意识的定义汇总在一起。卡库博士在其理论中对意识的定义如下:“意识是使用各种参数(例如温度,空间,时间以及与他人有关的参数)的多个反馈回路创建世界模型的过程,以实现目标(例如寻找伴侣,食物,住所)。”

 

意识的时空定义直接适用于AI,因为它基于大脑创建世界模型的能力,不仅基于空间(如动物),还基于与时间的关系(向后和向前)。从这个角度来看,卡库博士将人类意识定义为“一种意识形式,它可以创建世界模型,然后通过评估过去来模拟未来,从而及时地对其进行模拟。”换句话说,人类意识与我们对未来的计划能力直接相关。

 

除了其核心定义外,意识的时空理论还包括几种意识类型:

 

·级别0:包括行动不便的植物等生物,它们使用诸如温度之类的少数参数创建其空间模型。

·级别1:像爬行动物这样的生物,它们活动并且具有神经系统。这些生物使用更多其他参数来形成其空间模型。

·级别2:诸如哺乳动物之类的生物不仅建立在空间基础上,而且还建立在与他人有关的世界模型上。

·级别3:了解时间关系并具有想象未来的独特能力的人类。

 

 

AI系统有意识吗?

 

意识是AI圈中最激烈的辩论主题之一。这里的AI意识,指的是AI能够自我意识到其“心理状态”的能力。前文介绍了一个由著名物理学家MichioKaku博士率先提出的框架,用于从四个不同的层面评估意识。

 

在卡库博士的理论中,0级意识描述了诸如植物之类的生物,它们根据诸如温度之类的一些参数评估其真实性。爬行动物和昆虫在使用包括空间在内的新参数创建世界模型时表现出1级意识。2级意识涉及根据情感和与其他物种的关系创建世界模型。哺乳动物是与2级意识相关的主要种群。最后,我们可以根据涉及未来模拟的世界模型将人类意识归于3级意识。

 

基于Kaku博士的意识框架,我们可以评估当前一代AI技术的意识水平。大多数专家都认为,当今的AI代理可以分为1级或2级早期意识。将AI代理排名为1级涉及许多因素,包括流动性。

 

如今,许多AI代理已经能够实现移动性并根据其周围的空间开发其环境模型。但是,大多数AI代理在受限的环境之外进行操作都有很多困难。

 

空间评估并不是将AI代理置于1级意识的唯一因素。用于创建模型的反馈回路的数量是要考虑的另一个超重要因素。

 

让我们以图像分析为例。即使是最先进的视觉AI算法,也是使用相对少量的反馈回路来识别对象。如果我们将这些模型与认知能力,昆虫和爬行动物进行比较,它们似乎并不复杂。所以,是的,当前的人工智能技术具有昆虫的意识。

 

进入二级意识

 

图源:unsplash

 

一些AI技术已经稳定地展现出2级意识的特征,有几个因素促成这一发展。人工智能技术正在获得更高级的理解和模拟情绪,以及感知周围的情绪反应。

 

除了基于情感的AI技术发展外,AI代理在团体环境中的运行效率也越来越高,在团体环境中,他们需要相互协作或竞争才能生存。在某些情况下,小组合作甚至可以创造出新的认知技能。具有2级意识的AI代理的最新案例,我们能想到DeepMind和OpenAI等公司的工作。

 

最近,DeepMind进行了一些实验,其中需要AI代理住在资源有限的环境中。当资源丰富和贫瘠时,人工智能代理表现出不同的行为。由于代理需要相互交互,因此行为发生了变化。

 

在最近的OpenAI模拟实验中也能找到一个有趣的示例,在该实验中,AI代理能够使用少量符号创建自己的语言,以便更好地在其环境中共存。

 

主流的AI解决方案仍处于早期阶段,但提高AI代理的意识水平是当前AI技术堆栈中最重要的目标之一,2级意识是下一个研究领域。

 

升至三级意识

 

目前,人工智能系统中的三级意识仍是一个活跃的辩论主题。但是,最近的系统(例如OpenAIFive或DeepMindQuakeIII)已经清楚地显示了AI代理进行长期计划和协作的能力,因此我们可能不日实现这个目标。

 

 

AI系统有意识吗?我的答案是肯定的。将Kaku博士的时空意识理论应用到AI系统中,很明显AI代理可以表现出一些基本的意识形式。考虑到当前AI技术的能力,我将AI代理的意识置于I级(爬行动物)或II级基本水平。

 

至于三级,虽然距离尚远,但我认为这绝不是天方夜谭。

版权声明:本文内容由互联网用户自发贡献,该文观点仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌抄袭侵权/违法违规的内容,一经查实,本站将立刻删除。

上一篇

下一篇