博舍

张平文委员:高校对待人工智能“堵不如疏” 对待人工智能的态度和做法是什么

张平文委员:高校对待人工智能“堵不如疏”

近段时间,ChatGPT掀起了人工智能的新一轮热潮,也引发了高教界的某种恐慌。据报道,美国纽约和西雅图等地的公立学校、法国巴黎政治学院以及我国的香港大学等高校都禁止学生使用ChatGPT。

张平文受访者供图

“我并不赞成一些高校禁止使用ChatGPT的做法,年轻人有使用高科技获取知识的愿望,这是一纸禁令所无法阻挡的。”全国政协委员、中国科学院院士、武汉大学校长张平文表示,“对待ChatGPT的使用态度应像治理洪水一样,堵不如疏。”

在他看来,相对于上一辈人,如今的年轻人作为“数字原住民”,当生活模式发生变化时,更要用积极的态度理解和拥抱社会的进步。

从本质上说,ChatGPT属于工具应用。“高校可以通过各种方式引导学生,使其不用ChatGPT替代本该自己进行的学术训练,不触碰学术规范红线,尽管这些学术规范在未来可能会在技术的倒逼下不断改革。”张平文说。

面对人工智能等新技术的挑战,如何培养学生是教育者需要深思的问题。

张平文指出,当下“00后”学生生活在一个物理世界、人类社会、虚拟世界交融的时代,他们有能力把三者融合得更好。很多学生在数字化方面的技能甚至超过了教师。这是“师不如弟子”之处,教师要接受这一事实,不能居高临下,要虚心向学生学习。

在现实生活中,人与科技对垒的现象越来越多。他举例说,一名教师在课堂上授课,学生如果觉得特别乏味,很可能马上放弃听课,转而在网上寻找同一课名的慕课。谁讲得好就听谁的,这给教师教学带来了前所未有的压力。尽管如此,张平文仍认为,要采取开放态度,理解学生的行为,甚至向他们学习,在这个过程中更新教学方式,实现师生之间融洽的互动。

他告诉《中国科学报》,在这个过程中,高校更要重视ChatGPT等人工智能所不能代替的教育功能,要训练批判性思维,不要满足于算法推送的现成答案;要加强大学人文教育,提高学生的人格养成和精神境界。

虚拟世界中有一个概念叫“信息茧房”,指一个人在虚拟世界中很容易因自身偏好被某方面的信息包围,不像真实世界那样可以听到不同声音。“在虚拟世界里,算法会自动帮人屏蔽掉一些信息,让人只看到想看的信息,而在物理世界中,想屏蔽掉各种信息却不易做到。在明辨真相上,教育应发挥重要作用。”张平文说。

把现实与虚拟混淆是当下不少年轻人的通病。过度沉溺虚拟世界本就不利于一个人的身心健康,不少心理问题的发生都与之相关。“解决这一问题需要加强现实中的人际互动,以及更加重视人文教育。”张平文指出。

他解释说,让学生了解虚拟世界本质的同时,高校更应让学生意识到什么是真正的“以人为本”。网上听课与面对面授课有很大差别。从信息的双向交流看,课堂优于网络。在课堂上,学生体会到的是以人为本的教育,从教师的一言一行中学习做人、做事,体会他们严谨求实的科学精神、有教无类的职业素养,这体现了立德树人的本义。

此外,随着数字化、智能化的发展,对于学生人文素养的教育更需要加强。高校的人文教育在未来会变得越来越重要。“特别是文史哲等学科,以及通识教育中的文史哲课程,对学生的人格养成、精神境界的提升本就发挥着重要作用。未来,它们的作用将会更加突出。人际互动和人文素质培养的必要性充分说明,数字技术无法真正代替高校的环境育人作用。”张平文说。

文章来源:中国科学报作者:温才妃

转载本网文章请注明出处

人工智能的伦理挑战与科学应对

  【光明青年论坛】 

编者按

  2023年2月21日,中国外交部正式发布《全球安全倡议概念文件》,呼吁“加强人工智能等新兴科技领域国际安全治理,预防和管控潜在安全风险”。在中国式现代化进程中,人工智能的技术革新是助推我国科技创新的重要力量之一。作为最具代表性的颠覆性技术,人工智能在给人类社会带来潜在巨大发展红利的同时,其不确定性也会带来诸多全球性挑战,引发重大的伦理关切。习近平总书记高度关注人工智能等新兴科技的发展,强调要加快提升“人工智能安全等领域的治理能力”,“塑造科技向善的文化理念,让科技更好增进人类福祉”。为此,本版特组织几位青年学者围绕人工智能的伦理挑战与科学应对展开讨论,并邀请专家予以点评,以期引发学界的更多关注,为推动人工智能健康发展贡献智慧。

  与谈人

  彭家锋 中国人民大学哲学院博士生

  虞昊 华东师范大学政治与国际关系学院博士生

  邓玉龙 南京师范大学哲学系博士生

  主持人

  刘永谋 中国人民大学哲学院教授、国家发展与战略研究院研究员

1.机遇与挑战并存的人工智能

  主持人:新技术革命方兴未艾,以人工智能等为代表的新兴科技快速发展,大大拓展了时间、空间和人们的认知范围,人类正在进入一个“人机物”相融合的万物智能互联时代。请具体谈谈人工智能给人类社会发展带来什么样的机遇?

  彭家锋:人工智能、大数据、物联网、云计算等智能技术蓬勃兴起,对人类社会的方方面面产生深刻影响,推动整个社会逐步迈入智能社会。在此过程中,存在许多重大历史机遇需要我们把握。就技术治理而言,人工智能作为一种治理技术,正在助推社会治理的治理理念、治理方式、治理效能等方面的变革,将传统技术治理提升至智能化新阶段,呈现出“智能治理的综合”趋势。智能治理将全面提升社会公共治理的智能化水平,主要呈现出四个方面的特征:一是治理融合化,即促进各种智能技术与其他治理技术相互融合,大幅度提升智能社会的治理水平;二是治理数据化,即以日益增长的海量数据为基础,通过对数据映射出来的“数字世界”进行社会计算,实现治理目标;三是治理精准化,即发挥智能技术强大的感知能力、传输能力和计算能力,将传统的粗放治理转变为精准治理;四是治理算法化,即不断完善智能决策系统,尝试将程序化的算法决策扩展到更多的决策活动中,从而提高决策质量。

  虞昊:人工智能有助于反思人类社会得以建立与发展的基础。随着分析式AI向着生成式AI不断演变,尤其是生成式AI初步展现出判别问题、分析情感、展开对话、创作内容等越来越具有人类特征的功能,原本属于人类的领域正被人工智能以另一套由“0”与“1”构成的计算机语言逐步侵蚀。这既是对人类社会的冲击,也势必会在更加平等的开放性框架中增强人类的主体性,促进人类社会进一步发展。

  邓玉龙:总体来说,以人工智能为代表的新科技发展,显著提升了社会生产力。例如,生成式AI不但能完成传统AI的分析、判断工作,还能进一步学习并完成分析式AI无法从事的创造性工作。从人机交互的角度来看,人工智能也促进了生产关系的高效发展。具体表现在:一是刺激劳动形态的转化。人工智能高效承担大量的基础机械性劳动,人类劳动则向高阶的创造性劳动转化,由此引发社会层面的劳动结构转型、升级,并且以人工智能为中介,社会范围内的劳动整合、协调能力也实现升级。二是促进劳动场域的重构。随着劳动形态的转化和劳动的社会化扩展,人工智能将劳动从固定场域中解放出来,人类劳动的灵活性增加。相比于创造性劳动,机械性劳动更加受到空间和时间的制约,而在人工智能从技术层面替代更低边际成本的基础性劳动之后,人类劳动空间和时间的自由性实现跃迁。三是对主体的发展提出了更高要求,尤其是对主体适应社会发展提出了更高要求。人工智能技术的发展对人类传统的知识结构提出挑战,要求人类更新原有的知识结构以适应社会发展需要,也对教育提出更高要求,教育模式和教育内容需要更契合科技发展的水平,培养更加全面发展的人才。

  主持人:人工智能的一系列产物在给人们带来生活便利的同时,也一定程度上引起大家对其可能引发的伦理挑战的警惕。一些人关注人工智能的风险问题,对人工智能的推进有些焦虑。如何看待这种警惕和焦虑?

  虞昊:人工智能的风险以及由此带来的焦虑,是完全可以理解的。但我们无法返回一个没有人工智能的世界,人工智能已然深度介入人类社会,试图遏制人工智能的推进只能是螳臂当车。同时我们对人工智能的发展也不能放任不管,无视甚至于压制人工智能的推进只能是掩耳盗铃。因此,我们应该正视这种焦虑,在发展人工智能的过程中探求解决方案,在人工智能带来的风险中寻求危中之机。

  邓玉龙:我们应正确看待这种焦虑。要看到,焦虑有其积极的意义,它体现人类的忧患意识,催生对人工智能风险的预见性思考,提醒我们注意焦虑背后人工智能技术发展存在的问题。正确对待焦虑有助于积极采取措施防范风险,辩证分析焦虑中先见性的思考,通过社会治理模式的升级化解风险问题。同时,仅有焦虑和恐惧是不够的,更重要的是积极解决人工智能发展带来的社会问题。从劳动的角度看,人工智能确实会取代部分人类劳动,推动劳动结构转型升级,让劳动向着碎片化、个体化方向发展,劳动者处于弱势地位,面临着“机器换人”的挑战。但是我们也应该理性认识到,人工智能不是对人类劳动能力的完全替代,而是对劳动者提出了更高的要求,要求劳动者掌握科学知识,将技术的发展内化为自身能力,在更具创造性的劳动中实现自身价值。

  彭家锋:任何技术的发明使用,不可避免地伴随着这样或那样的风险。人工智能技术自然也不例外,在其应用过程中,同样引发了诸如隐私泄露、算法歧视、法律责任等风险问题。因此,关注人工智能的风险问题,并由此对人工智能的推进产生焦虑,具有一定理论依据和现实基础。但更应当清醒地认识到,人工智能的某些相关风险可以提前得到规避,并不必然会发生;即便真的发生,也仍可不断寻求化解风险的有效手段。以个人隐私滥用风险为例,在治理过程中,虽然不可避免地会涉及个人数据收集和分析处理,但可以通过建立完整的规范和监管体系来保护个人隐私,降低滥用风险。

2.人工智能科技竞争的“伦理赛道”

  主持人:习近平总书记在以视频方式出席二十国集团领导人第十五次峰会时指出,“中方支持围绕人工智能加强对话,倡议适时召开专题会议,推动落实二十国集团人工智能原则,引领全球人工智能健康发展”。请谈谈“人工智能原则”应包含哪些内容?科技向善的文化理念对推动全球人工智能健康发展具有怎样的现实价值?

  彭家锋:为应对人工智能等新科技快速发展带来的伦理挑战,2022年,中共中央办公厅、国务院办公厅印发了《关于加强科技伦理治理的意见》,其中明确了“增进人类福祉”“尊重生命权利”“坚持公平公正”“合理控制风险”“保持公开透明”等五项科技伦理原则。我认为,这五项原则基本涵盖了人工智能原则的伦理要求,彰显了科技向善的文化理念。科技向善的文化理念,根本目标是让科技发展更好地服务社会和人民,带来良好社会或社会公益的善。科技向善对推动全球人工智能健康发展至少具有以下三个方面现实价值:一是塑造公众信任。公众对人工智能的信任很大程度上并不完全由相关风险程度决定,而是取决于公众的利益与价值是否得到足够重视。后者正是科技向善的内在要求。二是引领技术创新。科技向善的文化理念将在技术创新发展过程中发挥价值引领作用。三是促进全球合作。科技向善的文化理念试图在全球范围内建立人工智能伦理规范的“最大公约数”,各国在达成伦理共识的基础之上,能够建立互信,实现更加充分深入的国际合作。

  虞昊:个人认为,人工智能原则也应包含非对抗与非失控的理念。非对抗意味着不应将人工智能视作人类社会的对抗性存在,人工智能已经成为人类社会的构成性要素,我们必须持更为开放的态度去面对人工智能。非失控意味着不应放弃对人工智能的伦理规范,应以智能的方式去规范加速发展的人工智能。如果以上述理念为前提,也就是说,在支持人工智能发展的情况下,科技向善的文化理念在推动全球人工智能健康发展中就变得极为重要。此处的“善”在国家治理层面即指向“善治”,而当人工智能的发展从国家范围扩展到全球范围,“善治”就在构建人类命运共同体的意义上拥有了更贴近现实的内涵。各国应摒弃冷战思维与零和博弈,基于善意与友谊共同思考人类作为整体如何在人工智能的冲击下通往全球性的“善治”。

  邓玉龙:2019年欧盟发布《可信赖的人工智能伦理准则》,2021年中国国家新一代人工智能治理专业委员会发布《新一代人工智能伦理规范》(以下简称《规范》)。与欧盟发布的伦理准则相比,《规范》体现了中国特色社会主义的制度优势,旨在将伦理规范融入人工智能全生命周期。人工智能发展的根本目的是促进人的全面发展,因此,我以为,人工智能原则还应体现共享和有序发展的要求。共享,旨在防止人工智能的技术垄断。科技发展应该兼顾全体人民的利益,而不是服务于少数群体,由全体人民共享科技发展成果,推动全球科技水平的共同增长。有序发展,旨在防止人工智能技术的无序扩张。人工智能技术的发展最终是为了提升人的幸福感,推动科技有序发展能够促进人机和谐融合,有效预防潜在无序扩张的风险。

  主持人:从规范层面来说,伦理反思对规范人工智能发展的作用主要体现在哪些方面?

  彭家锋:近年来,世界各主要国家在人工智能领域竞争日趋激烈,纷纷将人工智能发展置于国家发展的战略层面。比如,美国陆续出台《国家人工智能研究和发展战略计划》(2016)和《关于维持美国在人工智能领域领导地位的行政命令》(2019);欧盟先后发布《欧洲人工智能战略》(2018)和《人工智能白皮书》(2020);中国也较早发布了《“互联网+”人工智能三年行动实施方案》(2016)和《新一代人工智能发展规划》(2017)。人工智能科技竞争的客观局面已然形成。在此背景下,如果忽视人工智能技术发展所带来的全球性风险与挑战,极有可能陷入技术赶超的竞争逻辑。因此,亟须规范人工智能的科技竞争,而倡导伦理反思或许就是一条可行之路。伦理反思的意义至少在于:一是设定伦理底线。人工智能技术的开发和应用需要遵循一些基本的价值理念和行为规范。只有守住伦理底线,才有可能避免颠覆性风险的发生。二是实现敏捷治理。伦理反思是一个动态、持续的过程,贯穿于人工智能科技活动的全生命周期。为了确保其始终服务于增进人类福祉和科技向善的初衷,需要保持应有的道德敏感性,以灵活、及时、有效的手段化解人工智能带来的各种伦理挑战,确保其在科技向善的道路上行稳致远,实现良性发展。

  邓玉龙:人工智能科技竞争是为了促进科学技术发展,而科学技术发展的最终目的是推动人类社会的进步。人工智能科技竞争不应该仅包括技术竞争的单一维度,更不应该通过技术优势遏制他国的科技发展,而应该是在人工智能科技条件下的综合性竞争,通过良性竞争促进全球人工智能和全人类的共同发展。其中就应该包括社会治理竞争,通过社会治理保障社会公平,因而对社会中人与人关系的伦理反思构成人工智能科技竞争的有机组成部分。首先,伦理反思对人工智能科技竞争提出了更高的要求。人工智能的公平性、可信任性、可解释与透明度、安全性不仅是伦理要求,也代表了人工智能技术的发展方向,是人工智能科技竞争需要抢占的技术制高点。科技的发展是为了人的全面发展,因而人的发展内嵌于科技发展要求,伦理反思有助于防止工具主义的泛滥。其次,伦理反思为人工智能科技竞争提供价值引导。伦理反思注重保障人的权利,科技发展并不是社会发展中的唯一衡量因素,我们还应该关注其中多样性的因素,尤其注重保护特殊群体的利益,例如防止数据鸿沟等不良影响。伦理反思有助于实现人工智能的综合性健康发展。

3.人工智能安全与人的全面发展

  主持人:科学探究一直以来都是人们认识世界和了解自身的重要认知方式,人工智能等信息产业的革命如何影响着人们的认知方式?

  彭家锋:人工智能等信息产业的革命,促进了科学研究新范式——数据科学的诞生,进而对人们的认知方式产生深刻影响。数据科学被认为是继实验、理论和模拟之后的新的科研范式。相较于传统科学,数据科学融合了统计和计算思维,通过人工智能等技术提供的海量数据、强大算法和算力,能够直接从数据中寻找相关关系、提取相关性或者预测性知识,进而产生一种基于相关性的科学思维模式。但这种相关性并不一定能够转化为因果关系,因为可解释性对于从数据科学技术确定的相关性中提取因果解释至关重要,而相关技术一般都缺乏必要的透明度和可解释性。数据科学更可能成为一种预测科学,但是预测并不是科学追求的唯一目标。通过揭示世界的潜在因果结构来解释和干预现象,也是科学的两个重要目标。因此,尽管数据科学能够通过分析大量数据生成相关性知识,却不能直接产生因果解释。对此,传统科学的可检验性假设方法和因果规律探求仍有其重要价值。数据科学并非取代传统科学,相反,两者将相互补充,共同成为人类探索世界的有效工具。

  虞昊:显而易见的是,随着人工智能向着通用人工智能迈进,其能够为人们提供的教育资源、生活娱乐、工作讯息也越来越丰富,人们势必越来越依赖于通过与人工智能进行交互来获取外界信息。因此,当人工智能深度地构成人们认知世界的滤镜时,若不对人工智能本身具有重复性、同质性倾向的认知框架保持警醒,人工智能可能扭曲人们的认知方式直至影响人的主体创造性。

  邓玉龙:以人工智能为代表的全新技术发展被称为第四次工业革命,其中最显著的特征就是机器与人类的深度融合,机器不再作为一种外在性的工具被人类使用,而是在与人类的深度关联中影响人类的认知方式。一方面,信息产业革命丰富了人类认知的联结方式。人工智能和大数据技术的发展促进人类的分析逻辑从因果关系扩展为相关关系,对相关关系的重视使人工智能可以从大数据而非小数据维度获取信息,为人类认知提供新的视角。按照传统人类认知方式的理解,因果关系要求关于世界的认知是确定性的,而这在数字时代的复杂性社会中很难实现。人工智能对相关关系的认知填补了这一缺失,允许我们在无法掌握确定信息但在掌握大量数据的条件下对未来趋势作出预测。另一方面,如果我们对人工智能等科技的输出结果和生成内容盲目信赖,将结果和内容与经验事实之间进行绝对等同的连接,误认为是事实的全部,那么我们就会丧失人文主义抽象反思的能力,对此我们应当保持警惕,始终坚持反思和批判的人文精神。

  主持人:如何调适人的主体创造性与信息高度集成共享之间的关系?

  彭家锋:当人们逐渐将更多创造性工作交由人工智能完成,不免让人担忧人工智能是否将会威胁到人的主体创造性。从人机关系的角度来看,这种担忧是基于一种人机敌对论的视角,认为人工智能挤压了人的主体创造性空间,是替代逻辑的延续。但从人机协作的视角出发,将人工智能看作人的得力帮手,通过创造性地使用人工智能可以赋予人类更大的创造性空间。比如,在进行文字写作、多媒体脚本、程序代码、文稿翻译等工作时,可先由人工智能高水平地完成草稿工作,然后再由人类进行一些创造性的调整和发挥。此时人工智能生成的内容将成为进一步创作的原材料,人类将以更高的效率投入创造性活动之中。当然,要实现以上效果并非易事,不仅需要思想观念的转变,还应在制度安排、教育方式等方面作出相应调整。

  虞昊:面对信息高度集成共享的人工智能,人有可能转变为算法的动物。试想下述场景:当依据人工智能展开行动变得足够便捷有效时,行动者便会倾向于采信人工智能,此时,看似是人类行动者基于自然语言在进行互动,实则是算法逻辑基于计算机语言在进行数字化运转。于是,人的主体创造性被侵蚀,人可能沦为算法动物。对此类情形,我们应该保持足够的清醒与警惕。

  邓玉龙:人工智能技术生成的内容(AIGC)具有高度集成共享的特性,能够高效地对人类知识进行数据挖掘、信息生成。调适人的主体创造性与信息高度集成共享之间的关系,我们需做到如下几个方面:首先,需要通过人的创造性扩大AIGC数据库,当下AIGC主要是依赖于大语言模型,以大量的网络文本作为训练数据库生成的,通过人的创造性生成可以不局限于网络文本,而是进一步扩展数据库的训练文本,从而提高其丰富度。其次,需要通过人的创造性为AIGC提供价值训练,通过人的创造性生成的价值立场、伦理法则等与AIGC的训练数据库相融合,从而建构可信赖、可持续的信息高度集成共享机制。最后,需要将人创造性生成的内容与AIGC共同作为人类知识的来源,人类知识的获得不能仅仅局限于AIGC,而是需要人发挥其主体创造性对人工智能技术生成的内容进行反思和拓展,将人类无法被数据化的、经验性的知识与AIGC数据化的知识融合成为人类知识的来源。

  (本版编辑张颖天整理)

我们该怎么样看待人工智能

1.不要迷信人工智能

人工智能的热潮席卷全球,关于人工智能的过度褒贬不乏其辞。乐观主义认为人工智能将使人类成为神一样的存在,而人工智能则是我们忠实的仆人;而悲观主义认为人工智能是对人类极大的威胁,人类终有一天会称为人工智能的奴隶。但这两种看法其实都过于“科幻”了。从发展角度来看,人工智能之所以很热,只是因为关于人工智能的基础研究刚刚成熟,关于它的各种应用才刚刚起步,这个阶段的人工智能属于“弱人工智能”,充其量只是一个工具。而那些关于人工智能的幻想,是“强人工智能”时代才可能发生的事。我们对人类自身大脑的机理仍不清楚,要造出比人类还要智能的机器大脑目前来看仍未可能。

2.寻找人工智能时代的机会

上面提到,现阶段的人工智能对于人类来讲是一件工具。那么对于工具来讲,我们可以成为造工具的人,也可以成为使用工具的人。

人工智能虽然是最近几年才开始火热的,但其发展可以追溯到30年前。现代人工智能的发展起源于80年代初加拿大多伦多大学一位名叫GeoffreyHinton的教授。GeoffreyHinton从小就对人脑的机能有兴趣,大学就开始研究神经科学,并于上世纪80年代初开始研究用计算机系统架构来模拟人类大脑,就是我们今天说的深度学习的原型 。

虽然人工智能的发展不止深度神经网络学习一条路,但也可以看出要想开发出一个这样的体系需要大量的时间,无论对于公司还是个人,都是极高的时间代价。因此想要从事人工智能基础工作的开发并非明智之举。

人工智能的使用要满足3个条件:

第一:要有足够强的计算能力,要用GPU(图形处理单元)来做处理。第二:要有可用的算法第三:要有足够的数据

对于第一点来讲,过去只有大公司有这个财力来购买足够好足够多的处理器,但现在大公司把自身的计算能力作为一种服务放到云计算平台上,用户只要支付使用费用,而不需要自己花大价钱购买一整套设备。

对于第二点来讲,人工智能的算法在经过将近30年的发展后,已经达到了当前最佳状态。几乎没有哪个小公司或者个人可以花这么长时间去开发一个算法,但好在人工智能的算法是开源的,而且随着它的迅速扩散,变得越来越开源,越来越通用。

因此前两个条件并不会构成人工智能使用的门槛,真正的门槛是数据。人工是能是基于深度学习算法的,需要大量的数据来对它进行“喂养”。而一般只有大公司才会拥有大量数据,而且大公司也完全由能力实现前两个条件,因此大公司既不可能把自己拥有的数据共享,也不需要寻求合作者,大公司自身可以独立进行人工智能的开发和应用。

所以对于满足上述3个条件的公司来讲,要找到符合自身价值的人工智能应用领域。比如IBM把人工智能运用在医疗领域,Facebook把人工智能运用在社交领域,淘宝等网站运用人工智能来进行客户购买行为分析从而做出更好的购买推荐。这些领域的运用都将提升该领域的效能,挖掘更大的潜力。

对于个人来讲,如果对人工智能的运用有某个方面的想法或者兴趣,可以积极寻找参与的机会。这样不仅可以更加深入理解人工智能,也为今后的人机交互社会的到来做好准备。

3.为什么要掌握人工智能的运用

对于缺乏数据的小公司和几乎什么都没有的个人来讲,既然已经不太可能直接运用人工智能进行生产了,那我们还有必要对人工智能进行学习吗?答案是肯定的。这就好比村里接自来水,只有一户人家有自来水,其他人家都要去河里挑水,那有自来水就是优势。等到家家户户都有自来水,那这个优势自然就没有了,但是还是要装自来水,这样才能保证不产生劣势。

人工智能时代也是一样,既然人工智能的算法开源,人人都可以去学习,那找掌握人工智能的使用就不会带来大的优势。但如果别人会而你不会,那你就相对别人存在劣势。未来的社会必然是一个人机交互的社会,理解机器,会使用机器,这或许是未来的基本生存技能。

版权声明:本文内容由互联网用户自发贡献,该文观点仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌抄袭侵权/违法违规的内容,一经查实,本站将立刻删除。

上一篇

下一篇