博舍

殷卫海:人工智能不可能取代人类 人工智能将取代人类智能

殷卫海:人工智能不可能取代人类

无论是人工智能中的软件还是硬件,都是人类文明积累的结果。AlphaGo的成功说明人类的确理解了人类走围棋采取的思考战略和主要步骤,这是人类对人类思维的一小部分解析成功的证明。人工智能无论显示得多“聪明”,只是证明了它的创造者---人类---的智慧在更高的层次上。

人工智能永远只能肤浅地模仿人类的精神。

机器人可能作出贝多芬第九交响乐那样的伟大音乐么?!能够写出老子、马克思、康德、尼采等哲学家的伟大思想作品么?!能够写出李白、拜伦、托尔斯泰这样的文学作品么?能够给出像马丁路德金一般伟大的演讲么?!能够像米开朗基罗、达芬奇、梵高那样创造出伟大的艺术作品么?这些作品是通过长期人生经验和精神积淀,在无数的意识和潜意识交织的基础上创造出来的东西。这些伟大的东西之所以伟大,是因为它们永远不可模仿和复制。

人工智能模仿人的精神,就像一个人在模仿梵高的绘画,永远只是模仿、永远不可能抓住它们的灵魂,永远是模仿品,永远比原件的价值要差很多倍。

人类现在对人类精神中逻辑推理的原理已经比较清楚了。但是,人类对作为现代心理学核心思想之一的“潜意识”和“集体潜意识”的本质和机制的理解是极度缺乏的。同样,人类对于人类精神中最重要的一些部分---包括想象、信念、意志、情感、情绪等---的本质和机制,了解也是及其肤浅的。我相信未来的研究只可能逐步提升我们对于它们的理解程度,但对它们的完全理解将是永远不能达到的。物理学作为最为精确的科学分支,仍然有海森堡的“测不准原理”,毋庸置疑,在人类对自我精神本质的理解上,“测不准”的程度要高很多倍。

在对人类精神很多部分的本质和原理不了解的情况下,人工智能专家怎么可能让人工智能真正具有人类的精神能力呢?最多只是肤浅的模仿罢了。

在对于人类最重要的事情----价值观的建立和评判上---人工智能永远不能够真正做到

建立了人类根本价值观的伟人们,包括创立三大宗教的宗教先知,以及孔子、老子等,他们的精神创造都来源于他们深厚的人生经历、领悟、洞察。这种伟大的精神创造是永远没有模式可以模仿的,不用说很多精神的体验、顿悟等过程是很难用语言描述、不用说将它们数字化了。所以,在对于世界最重要、最有价值的事情---价值观的建立上,人工智能永远是无能为力的。

另一个极其重要的事情是价值的评判,其需要综合情感和意志(包括很多潜意识的部分)以及逻辑思维,而这些方面的综合是人工智能永远不能够真正达到的。

人工智能对人类工作的取代几乎一定会受到社会大众巨大激烈的反对和抵制,而这将是决定人工智能未来发展的核心因素之一。

埃隆马斯克因为担心人类会被人工智能取代,所以提出人必须“自己成为它(人工智能)”。我有文章专门分析这个想法的实现将会造成法律、伦理、社会巨大的混乱和危机。但是他没有关注另一种可能:就是人类坚决有效地控制着人工智能的发展。尽管这一定会很困难,但是没有理由说这种有效控制是不可能实现的。

其实至今全球范围内人工智能的讨论都是基于“人工智能将会自然地、不受约束地发展”这个前提的,而完全忽略了对于决定人工智能长期发展的最重要因素之一---社会大众对人工智能的判断和意志---的分析和判断。

这是我对未来的预测:在瑞士、瑞典等发达的、创新指数高、人口少的国家,人工智能对于人类工作的取代造成的伤害会相对小一些,因为对较少人口的福利负担相对较小、而较高创新能力的人口将较可能寻找到新的工作。但是,对美国、中国等大国,这种威胁很可能会造成社会大众的强烈反弹。很简单的事实是,大国是不可能有能力给予大量增加的失业人口足够福利的,而失业的人群只要比现在增加1倍,社会大众要求压制人工智能造成失业的力量就会极其巨大,其会造成一系列限制人工智能的法律和法规的建立。我相信这是一个历史的必然过程,没有任何人可能阻挡。在人民大众的基本生存受到了根本伤害的时候,人民大众就会采取所有可能的手段捍卫他们的基本利益,这是必须承认的、人类社会颠扑不破的基本事实。

2016年川普打破几乎所有人的预测获选美国总统的一个核心原因,就是他在竞选中极其强烈地提出了口号:“Jobs,Jobs,Jobs!”美国是人工智能发展的世界中心,可以预测,在人工智能取代人类工作的伤害效应已经明显后,要求压制人工智能取代人类工作的呼声和力量是任何总统都必须参照执行的。而美国现在极其巨大的财政赤字、大众平均极低的银行存款、不少地方接近破产的社保体系等因素,一定会共同形成压制人工智能取代人类工作的极其巨大的、不可阻挡的力量。

人类的判断是依据于长期文化的积累以及人类进化发展起来的情感和意志,人类也已经建立了相对稳定的、维持人类稳定和发展的社会体系和文化体系,而这些文化和情感积累的强大性、丰富性和复杂性是人工智能永远不可能真正具有的。

人工智能是由一些人工智能专家设计的,在极其长久的一段时间内构建人工智能都会遇到以下不可克服的困难:

(1)超人工智能可能被操纵,从而成为巨大的破坏力量。作为一个新发展的技术,没有安全漏洞是不可能的。而如果有人利用这种漏洞控制超人工智能机器人去伤害人类,这样的后果是极其危险的;

(2)超人工智能具有显著的不可预测性;

(3)由于人类十分缺乏对于精神本质和机制的了解,人类的精神将难以被人工智能模拟;

(4)通常人工智能专家对于人类的极其丰富复杂的文化了解是不够充分全面的。在这种情况下,又有什么理由任由人工智能专家设计的机器垄断世界、做出价值判断呢?!

安全性的问题将会严重抑制“超人工智能”的发展。

人工智能产品的制造者必然要为产品的安全性负责,这是毋庸置疑的。而如前所述,无论是技术的不成熟性、还是被他人通过技术漏洞操纵的可能性,加上超人工智能很强的执行能力,都会使超人工智能的机器人成为人类巨大的安全威胁。这样的伤害事件的发生,很可能会使制造该机器人的公司付出极其惨重的经济和法律代价。

由于病人在美国的基因治疗临床试验中死亡,造成了在以后的很多年中基因治疗被打入了冷宫。根据这样的先例,我相信“超人工智能”产品的普及将是难以实现的。

从人性的角度说,无论是由于人的生存本能、对人类的爱、人类本能的权利意志、哲学信念、还是宗教信仰,绝大多数的人类成员在人类生存和地位受到人工智能真实强烈的威胁和伤害后几乎一定会全力反击的,会运用法律等手段强烈地抑制人工智能的威胁。

期待硅基大脑取代人类的人会是社会中的少数。硅基大脑不能够做最重要的事情---价值观的建立和价值的评判,同时还有着安全性、稳定性等多个问题,又有什么理由让人工智能取代人类呢?!

结论

从人工智能能力的角度说,它没有能力取代人类。从现实的角度说,人民大众将会成为阻挡人工智能取代人类的不可战胜的力量。

专家简介

殷卫海教授,上海交大生物医学工程学院教授、Med-X研究院副院长,在国际科学杂志上发表了80余篇论文(大多数为通讯作者或第一作者),被引用超过4300次(GoogleScholar)。作为客座主编,主编了三个关于组织损伤和保护机制的SCI杂志(IF>3.5)专辑。2002–2008在美国UCSF担任PI。回国后担任了“973”项目子课题、上海全球创新中心优先启动计划重大项目子课题、国家自然科学基金、浦江人才计划等一系列基金的PI。担任了“973”基金评委、国家自然科学基金评委、美国心脏协会基金评委。

殷教授还原创了哲学理论---自然生命论(Nature-Bioism),用中英文创作了格言集《永恒的世界》和诗集《灵魂的昭示》,并创作了杂文集《谈境界》、小说《生死之情》等文学、哲学作品。他于2013年受邀为《科技日报》的“两会特刊”写作了整版关于国家创新战略的论文,并于近期在《上观新闻》上发表了关于人工智能的哲学思考的文章。

编辑|拉拉陈哲

文章来源:时事研读

C2

个人会员:返回搜狐,查看更多

版权声明:本文内容由互联网用户自发贡献,该文观点仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌抄袭侵权/违法违规的内容,一经查实,本站将立刻删除。

上一篇

下一篇