博舍

科学实践中人工智能到底是什么—新闻—科学网 人工智能是人文社科还是自然科学

科学实践中人工智能到底是什么—新闻—科学网

科学实践中人工智能到底是什么?

 

人工智能(AI)到底是什么?对当前产业升级有什么作用?与人类的关系将如何发展?关于这些问题众说纷纭,莫衷一是。

通过对AI的科学基础、科学内涵、科学成果和实际应用四方面的梳理发现,科学实践中的AI主要是经典人工智能,它将在15年内推动大面积、颠覆性创新的产业落地。

经典人工智能的科学基础和科学内涵

通常认为,AI是人类智能的机器模拟。然而AI奠基人、创始人艾伦·图灵创立的经典人工智能的基本原理是“功能模仿”。

1931年,哥德尔证明了递归函数的计算可以“模仿”形式算术的某些推理,这是科学史上第一次严格证明了计算可以模仿推理。1936年形成、后被普遍接受的丘奇-图灵论题主张:图灵机可以“模仿”任何计算。综合上述两项成果得出哥德尔-图灵引理:用图灵机可以“模仿”某些推理。

丘奇-图灵论题中的“模仿”和哥德尔证明中的“模仿”具有相同的数学定义,同时积累了大量研究成果,并不断产生新的模仿方式。“符号主义”“连接主义”“行为主义”分别模仿了智能的不同功能,都属于经典人工智能。

一个学科的科学内涵主要包括该学科的科学问题和实证准则,而科学问题往往表现为科学假说。将哥德尔-图灵引理加以推广,就得到经典人工智能的“图灵假说”:用图灵机可以模仿人的部分思维功能,如推理、学习、理解、决策和创造。图灵并未使用“假说”这个术语,他认为用自然语言表达假说不够严格,所以他提出“图灵测试”作为经典人工智能的实证准则,通过图灵测试意味着图灵假说得到了科学实验的验证。在图灵假想的一次图灵测试中,AI写了一首十四行诗,然后人类裁判与AI进行了如下问答:

人类裁判:你的诗里说,“我能把你比作夏天吗?”如果把“夏天”替换为“春天”,是否更好?

AI:替换以后不押韵。

人类裁判:换成“冬天”如何?

AI:这样押韵了,但没人想被比作冬天。

为了回答人类裁判的第一个问题,AI要能理解自然语言,其中“把夏天改为春天”属于意向性语义替换。第二个问题在字面表达之外隐晦地涉及常识、情感和因果推理,否则AI就无法答出“没人想被比作冬天”。图灵相信,经过大约50年研究,依靠“功能模仿”的AI将能够通过这样的检验,从而让人类认为“有智能”。

经典人工智能的科学成果和实际应用

70余年来,虽然尚未达到图灵的预期,但AI领域取得了显著成就。最有代表性的两大类成果是基于模型的强力法(如知识图谱)和基于元模型的训练法(如深度学习),它们都是“模仿”的产物。强力法又分为推理法、概率法、规划法和因果法,它们的工作原理都有严格的数学定义,所以是可解释的。训练法的元模型主要包括学习对象、训练目标、数据标注、训练方法和网络表示等;然后通过训练,得到一个参数被调节好的神经网络。训练法的工作原理尚未得到严格的数学定义,因而不具有可解释性。

围棋阿法狗包含强力法的两项技术(新型决策论规划模型、蒙特卡洛树搜索)和训练法的两项技术(强化学习、深层残差网络),其中深层残差网络属于深度学习。因此,认为阿法狗仅仅使用了深度学习技术,是严重背离科学事实的。

阿法狗的棋力令人类望尘莫及,但其核心技术的工作原理与人类围棋博弈的思维原理差别极大,阿法狗还对围棋问题进行了封闭化,而人类围棋和阿法狗之前的围棋AI都没有进行封闭化。实践证明,“只有模拟人类思维原理,AI才能具备人类思维能力”的常规看法并不成立,局限于模拟人类思维原理有时反而严重阻碍AI进步。

计算科学的问题都是封闭的,即所有“变元”是已知的、可解的;而AI问题一般不是封闭的,但有可能转换为封闭的。经典人工智能的科学挑战是发展新理论新方法,以解决不可封闭化的问题,如家庭、养老院等环境中的机器人服务;工程挑战是场景封闭化,用现有AI技术解决实际问题。

下列战略性产业的封闭化或半封闭化条件已经成熟,将在15年内实现颠覆性创新。

智能制造。近年来,我国高端装备制造领域取得可喜进展,但制造业“中下游”和“中低端”被混淆了。随着AI、机器人、物联网等新技术的快速发展,通过场景封闭化,可以实现制造业中下游的智能化,进而实现全产业链的高端化,确保制造业的立国之本地位。

智慧农业。我国将于2022年建成10亿亩高标准农田,这些农田基本满足半封闭化要求,使得AI、机器人、物联网等技术能够大规模应用。我国智慧农业将成为全球最大的单一AI工程,彻底颠覆农业、农村和农民的传统形态,产生难以估量的巨大、深远影响。

智能驾驶。通过车路协同等半封闭化措施,包括无人工干预的L4在内,驾驶自动化有望于3至5年内实现商业化落地。这将颠覆公路运输和出行方式,并颠覆相当规模人群的居住和工作形态,带动相关产业的巨大改变。

智能家电、医疗健康、AI加速的科研和研发等行业和领域也正在发生颠覆性创新。

经典人工智能与社会

经典人工智能已初步形成较完整的学科体系,成为一个独立的科学分支。然而人们对经典人工智能存在着普遍误解。

有哲学家提出“强人工智能”和“弱人工智能”概念,前者是机器载体上的人脑和人心,后者是脑和心理过程的计算模拟,并认为经典人工智能是弱人工智能。经典人工智能显然不是强人工智能,但也不是弱人工智能,因为经典人工智能不立足于脑和心理过程的模拟,否则就不可能产生阿法狗。可见“强/弱人工智能”概念脱离、误解了科学实践中的AI。

经典人工智的产物(产品、服务)既不是人,也不是传统机器,而是人类根据自身需要创造的似人非人、似物非物的第三种存在物。这个定性具有重大科学、哲学和社会意义。例如,法学界有种观点认为,AI不具备法律主体地位、但可被赋予某些权利;还有一种立法主张,要求所有AI产物必须明确标识不是人。经典人工智能为这些法学判断和主张提供了科学依据;同时,经典人工智能与人类法律体系之间也不存在根本性冲突。可是,强人工智能、通用人工智能等设想隐含着巨大的伦理风险和法律冲突。

著名未来学家凯文·凯利预测,AI将越来越多地与人类发生关系,人类期望与AI的关系将不再是朋友、亲人、同事、恋人等传统关系,而是与宠物、外星人、精灵、佣人等角色的关系。经典人工智能可以把这些角色变成“现实”,即第三种存在物。因此,经典人工智能符合人类的某些未来期望,也为研判人类与AI的未来关系提供了科学依据。

AI与其他事物一样有利有弊,但其发展潜力更大,并具有本质不同的新特点,正带来从生产到生活、从现实到理念的巨大变迁。因此,有必要对这种变迁进行全面、深入的预研预判,厘清其本质特征和发展规律。

(作者系中国科学技术大学教授、中国人工智能学会人工智能伦理与治理工委会主任)

 版权声明:凡本网注明“来源:中国科学报、科学网、科学新闻杂志”的所有作品,网站转载,请在正文上方注明来源和作者,且不得对内容作实质性改动;微信公众号、头条号等新媒体平台,转载请联系授权。邮箱:shouquan@stimes.cn。

人工智能的伦理挑战与科学应对

  【光明青年论坛】 

编者按

  2023年2月21日,中国外交部正式发布《全球安全倡议概念文件》,呼吁“加强人工智能等新兴科技领域国际安全治理,预防和管控潜在安全风险”。在中国式现代化进程中,人工智能的技术革新是助推我国科技创新的重要力量之一。作为最具代表性的颠覆性技术,人工智能在给人类社会带来潜在巨大发展红利的同时,其不确定性也会带来诸多全球性挑战,引发重大的伦理关切。习近平总书记高度关注人工智能等新兴科技的发展,强调要加快提升“人工智能安全等领域的治理能力”,“塑造科技向善的文化理念,让科技更好增进人类福祉”。为此,本版特组织几位青年学者围绕人工智能的伦理挑战与科学应对展开讨论,并邀请专家予以点评,以期引发学界的更多关注,为推动人工智能健康发展贡献智慧。

  与谈人

  彭家锋 中国人民大学哲学院博士生

  虞昊 华东师范大学政治与国际关系学院博士生

  邓玉龙 南京师范大学哲学系博士生

  主持人

  刘永谋 中国人民大学哲学院教授、国家发展与战略研究院研究员

1.机遇与挑战并存的人工智能

  主持人:新技术革命方兴未艾,以人工智能等为代表的新兴科技快速发展,大大拓展了时间、空间和人们的认知范围,人类正在进入一个“人机物”相融合的万物智能互联时代。请具体谈谈人工智能给人类社会发展带来什么样的机遇?

  彭家锋:人工智能、大数据、物联网、云计算等智能技术蓬勃兴起,对人类社会的方方面面产生深刻影响,推动整个社会逐步迈入智能社会。在此过程中,存在许多重大历史机遇需要我们把握。就技术治理而言,人工智能作为一种治理技术,正在助推社会治理的治理理念、治理方式、治理效能等方面的变革,将传统技术治理提升至智能化新阶段,呈现出“智能治理的综合”趋势。智能治理将全面提升社会公共治理的智能化水平,主要呈现出四个方面的特征:一是治理融合化,即促进各种智能技术与其他治理技术相互融合,大幅度提升智能社会的治理水平;二是治理数据化,即以日益增长的海量数据为基础,通过对数据映射出来的“数字世界”进行社会计算,实现治理目标;三是治理精准化,即发挥智能技术强大的感知能力、传输能力和计算能力,将传统的粗放治理转变为精准治理;四是治理算法化,即不断完善智能决策系统,尝试将程序化的算法决策扩展到更多的决策活动中,从而提高决策质量。

  虞昊:人工智能有助于反思人类社会得以建立与发展的基础。随着分析式AI向着生成式AI不断演变,尤其是生成式AI初步展现出判别问题、分析情感、展开对话、创作内容等越来越具有人类特征的功能,原本属于人类的领域正被人工智能以另一套由“0”与“1”构成的计算机语言逐步侵蚀。这既是对人类社会的冲击,也势必会在更加平等的开放性框架中增强人类的主体性,促进人类社会进一步发展。

  邓玉龙:总体来说,以人工智能为代表的新科技发展,显著提升了社会生产力。例如,生成式AI不但能完成传统AI的分析、判断工作,还能进一步学习并完成分析式AI无法从事的创造性工作。从人机交互的角度来看,人工智能也促进了生产关系的高效发展。具体表现在:一是刺激劳动形态的转化。人工智能高效承担大量的基础机械性劳动,人类劳动则向高阶的创造性劳动转化,由此引发社会层面的劳动结构转型、升级,并且以人工智能为中介,社会范围内的劳动整合、协调能力也实现升级。二是促进劳动场域的重构。随着劳动形态的转化和劳动的社会化扩展,人工智能将劳动从固定场域中解放出来,人类劳动的灵活性增加。相比于创造性劳动,机械性劳动更加受到空间和时间的制约,而在人工智能从技术层面替代更低边际成本的基础性劳动之后,人类劳动空间和时间的自由性实现跃迁。三是对主体的发展提出了更高要求,尤其是对主体适应社会发展提出了更高要求。人工智能技术的发展对人类传统的知识结构提出挑战,要求人类更新原有的知识结构以适应社会发展需要,也对教育提出更高要求,教育模式和教育内容需要更契合科技发展的水平,培养更加全面发展的人才。

  主持人:人工智能的一系列产物在给人们带来生活便利的同时,也一定程度上引起大家对其可能引发的伦理挑战的警惕。一些人关注人工智能的风险问题,对人工智能的推进有些焦虑。如何看待这种警惕和焦虑?

  虞昊:人工智能的风险以及由此带来的焦虑,是完全可以理解的。但我们无法返回一个没有人工智能的世界,人工智能已然深度介入人类社会,试图遏制人工智能的推进只能是螳臂当车。同时我们对人工智能的发展也不能放任不管,无视甚至于压制人工智能的推进只能是掩耳盗铃。因此,我们应该正视这种焦虑,在发展人工智能的过程中探求解决方案,在人工智能带来的风险中寻求危中之机。

  邓玉龙:我们应正确看待这种焦虑。要看到,焦虑有其积极的意义,它体现人类的忧患意识,催生对人工智能风险的预见性思考,提醒我们注意焦虑背后人工智能技术发展存在的问题。正确对待焦虑有助于积极采取措施防范风险,辩证分析焦虑中先见性的思考,通过社会治理模式的升级化解风险问题。同时,仅有焦虑和恐惧是不够的,更重要的是积极解决人工智能发展带来的社会问题。从劳动的角度看,人工智能确实会取代部分人类劳动,推动劳动结构转型升级,让劳动向着碎片化、个体化方向发展,劳动者处于弱势地位,面临着“机器换人”的挑战。但是我们也应该理性认识到,人工智能不是对人类劳动能力的完全替代,而是对劳动者提出了更高的要求,要求劳动者掌握科学知识,将技术的发展内化为自身能力,在更具创造性的劳动中实现自身价值。

  彭家锋:任何技术的发明使用,不可避免地伴随着这样或那样的风险。人工智能技术自然也不例外,在其应用过程中,同样引发了诸如隐私泄露、算法歧视、法律责任等风险问题。因此,关注人工智能的风险问题,并由此对人工智能的推进产生焦虑,具有一定理论依据和现实基础。但更应当清醒地认识到,人工智能的某些相关风险可以提前得到规避,并不必然会发生;即便真的发生,也仍可不断寻求化解风险的有效手段。以个人隐私滥用风险为例,在治理过程中,虽然不可避免地会涉及个人数据收集和分析处理,但可以通过建立完整的规范和监管体系来保护个人隐私,降低滥用风险。

2.人工智能科技竞争的“伦理赛道”

  主持人:习近平总书记在以视频方式出席二十国集团领导人第十五次峰会时指出,“中方支持围绕人工智能加强对话,倡议适时召开专题会议,推动落实二十国集团人工智能原则,引领全球人工智能健康发展”。请谈谈“人工智能原则”应包含哪些内容?科技向善的文化理念对推动全球人工智能健康发展具有怎样的现实价值?

  彭家锋:为应对人工智能等新科技快速发展带来的伦理挑战,2022年,中共中央办公厅、国务院办公厅印发了《关于加强科技伦理治理的意见》,其中明确了“增进人类福祉”“尊重生命权利”“坚持公平公正”“合理控制风险”“保持公开透明”等五项科技伦理原则。我认为,这五项原则基本涵盖了人工智能原则的伦理要求,彰显了科技向善的文化理念。科技向善的文化理念,根本目标是让科技发展更好地服务社会和人民,带来良好社会或社会公益的善。科技向善对推动全球人工智能健康发展至少具有以下三个方面现实价值:一是塑造公众信任。公众对人工智能的信任很大程度上并不完全由相关风险程度决定,而是取决于公众的利益与价值是否得到足够重视。后者正是科技向善的内在要求。二是引领技术创新。科技向善的文化理念将在技术创新发展过程中发挥价值引领作用。三是促进全球合作。科技向善的文化理念试图在全球范围内建立人工智能伦理规范的“最大公约数”,各国在达成伦理共识的基础之上,能够建立互信,实现更加充分深入的国际合作。

  虞昊:个人认为,人工智能原则也应包含非对抗与非失控的理念。非对抗意味着不应将人工智能视作人类社会的对抗性存在,人工智能已经成为人类社会的构成性要素,我们必须持更为开放的态度去面对人工智能。非失控意味着不应放弃对人工智能的伦理规范,应以智能的方式去规范加速发展的人工智能。如果以上述理念为前提,也就是说,在支持人工智能发展的情况下,科技向善的文化理念在推动全球人工智能健康发展中就变得极为重要。此处的“善”在国家治理层面即指向“善治”,而当人工智能的发展从国家范围扩展到全球范围,“善治”就在构建人类命运共同体的意义上拥有了更贴近现实的内涵。各国应摒弃冷战思维与零和博弈,基于善意与友谊共同思考人类作为整体如何在人工智能的冲击下通往全球性的“善治”。

  邓玉龙:2019年欧盟发布《可信赖的人工智能伦理准则》,2021年中国国家新一代人工智能治理专业委员会发布《新一代人工智能伦理规范》(以下简称《规范》)。与欧盟发布的伦理准则相比,《规范》体现了中国特色社会主义的制度优势,旨在将伦理规范融入人工智能全生命周期。人工智能发展的根本目的是促进人的全面发展,因此,我以为,人工智能原则还应体现共享和有序发展的要求。共享,旨在防止人工智能的技术垄断。科技发展应该兼顾全体人民的利益,而不是服务于少数群体,由全体人民共享科技发展成果,推动全球科技水平的共同增长。有序发展,旨在防止人工智能技术的无序扩张。人工智能技术的发展最终是为了提升人的幸福感,推动科技有序发展能够促进人机和谐融合,有效预防潜在无序扩张的风险。

  主持人:从规范层面来说,伦理反思对规范人工智能发展的作用主要体现在哪些方面?

  彭家锋:近年来,世界各主要国家在人工智能领域竞争日趋激烈,纷纷将人工智能发展置于国家发展的战略层面。比如,美国陆续出台《国家人工智能研究和发展战略计划》(2016)和《关于维持美国在人工智能领域领导地位的行政命令》(2019);欧盟先后发布《欧洲人工智能战略》(2018)和《人工智能白皮书》(2020);中国也较早发布了《“互联网+”人工智能三年行动实施方案》(2016)和《新一代人工智能发展规划》(2017)。人工智能科技竞争的客观局面已然形成。在此背景下,如果忽视人工智能技术发展所带来的全球性风险与挑战,极有可能陷入技术赶超的竞争逻辑。因此,亟须规范人工智能的科技竞争,而倡导伦理反思或许就是一条可行之路。伦理反思的意义至少在于:一是设定伦理底线。人工智能技术的开发和应用需要遵循一些基本的价值理念和行为规范。只有守住伦理底线,才有可能避免颠覆性风险的发生。二是实现敏捷治理。伦理反思是一个动态、持续的过程,贯穿于人工智能科技活动的全生命周期。为了确保其始终服务于增进人类福祉和科技向善的初衷,需要保持应有的道德敏感性,以灵活、及时、有效的手段化解人工智能带来的各种伦理挑战,确保其在科技向善的道路上行稳致远,实现良性发展。

  邓玉龙:人工智能科技竞争是为了促进科学技术发展,而科学技术发展的最终目的是推动人类社会的进步。人工智能科技竞争不应该仅包括技术竞争的单一维度,更不应该通过技术优势遏制他国的科技发展,而应该是在人工智能科技条件下的综合性竞争,通过良性竞争促进全球人工智能和全人类的共同发展。其中就应该包括社会治理竞争,通过社会治理保障社会公平,因而对社会中人与人关系的伦理反思构成人工智能科技竞争的有机组成部分。首先,伦理反思对人工智能科技竞争提出了更高的要求。人工智能的公平性、可信任性、可解释与透明度、安全性不仅是伦理要求,也代表了人工智能技术的发展方向,是人工智能科技竞争需要抢占的技术制高点。科技的发展是为了人的全面发展,因而人的发展内嵌于科技发展要求,伦理反思有助于防止工具主义的泛滥。其次,伦理反思为人工智能科技竞争提供价值引导。伦理反思注重保障人的权利,科技发展并不是社会发展中的唯一衡量因素,我们还应该关注其中多样性的因素,尤其注重保护特殊群体的利益,例如防止数据鸿沟等不良影响。伦理反思有助于实现人工智能的综合性健康发展。

3.人工智能安全与人的全面发展

  主持人:科学探究一直以来都是人们认识世界和了解自身的重要认知方式,人工智能等信息产业的革命如何影响着人们的认知方式?

  彭家锋:人工智能等信息产业的革命,促进了科学研究新范式——数据科学的诞生,进而对人们的认知方式产生深刻影响。数据科学被认为是继实验、理论和模拟之后的新的科研范式。相较于传统科学,数据科学融合了统计和计算思维,通过人工智能等技术提供的海量数据、强大算法和算力,能够直接从数据中寻找相关关系、提取相关性或者预测性知识,进而产生一种基于相关性的科学思维模式。但这种相关性并不一定能够转化为因果关系,因为可解释性对于从数据科学技术确定的相关性中提取因果解释至关重要,而相关技术一般都缺乏必要的透明度和可解释性。数据科学更可能成为一种预测科学,但是预测并不是科学追求的唯一目标。通过揭示世界的潜在因果结构来解释和干预现象,也是科学的两个重要目标。因此,尽管数据科学能够通过分析大量数据生成相关性知识,却不能直接产生因果解释。对此,传统科学的可检验性假设方法和因果规律探求仍有其重要价值。数据科学并非取代传统科学,相反,两者将相互补充,共同成为人类探索世界的有效工具。

  虞昊:显而易见的是,随着人工智能向着通用人工智能迈进,其能够为人们提供的教育资源、生活娱乐、工作讯息也越来越丰富,人们势必越来越依赖于通过与人工智能进行交互来获取外界信息。因此,当人工智能深度地构成人们认知世界的滤镜时,若不对人工智能本身具有重复性、同质性倾向的认知框架保持警醒,人工智能可能扭曲人们的认知方式直至影响人的主体创造性。

  邓玉龙:以人工智能为代表的全新技术发展被称为第四次工业革命,其中最显著的特征就是机器与人类的深度融合,机器不再作为一种外在性的工具被人类使用,而是在与人类的深度关联中影响人类的认知方式。一方面,信息产业革命丰富了人类认知的联结方式。人工智能和大数据技术的发展促进人类的分析逻辑从因果关系扩展为相关关系,对相关关系的重视使人工智能可以从大数据而非小数据维度获取信息,为人类认知提供新的视角。按照传统人类认知方式的理解,因果关系要求关于世界的认知是确定性的,而这在数字时代的复杂性社会中很难实现。人工智能对相关关系的认知填补了这一缺失,允许我们在无法掌握确定信息但在掌握大量数据的条件下对未来趋势作出预测。另一方面,如果我们对人工智能等科技的输出结果和生成内容盲目信赖,将结果和内容与经验事实之间进行绝对等同的连接,误认为是事实的全部,那么我们就会丧失人文主义抽象反思的能力,对此我们应当保持警惕,始终坚持反思和批判的人文精神。

  主持人:如何调适人的主体创造性与信息高度集成共享之间的关系?

  彭家锋:当人们逐渐将更多创造性工作交由人工智能完成,不免让人担忧人工智能是否将会威胁到人的主体创造性。从人机关系的角度来看,这种担忧是基于一种人机敌对论的视角,认为人工智能挤压了人的主体创造性空间,是替代逻辑的延续。但从人机协作的视角出发,将人工智能看作人的得力帮手,通过创造性地使用人工智能可以赋予人类更大的创造性空间。比如,在进行文字写作、多媒体脚本、程序代码、文稿翻译等工作时,可先由人工智能高水平地完成草稿工作,然后再由人类进行一些创造性的调整和发挥。此时人工智能生成的内容将成为进一步创作的原材料,人类将以更高的效率投入创造性活动之中。当然,要实现以上效果并非易事,不仅需要思想观念的转变,还应在制度安排、教育方式等方面作出相应调整。

  虞昊:面对信息高度集成共享的人工智能,人有可能转变为算法的动物。试想下述场景:当依据人工智能展开行动变得足够便捷有效时,行动者便会倾向于采信人工智能,此时,看似是人类行动者基于自然语言在进行互动,实则是算法逻辑基于计算机语言在进行数字化运转。于是,人的主体创造性被侵蚀,人可能沦为算法动物。对此类情形,我们应该保持足够的清醒与警惕。

  邓玉龙:人工智能技术生成的内容(AIGC)具有高度集成共享的特性,能够高效地对人类知识进行数据挖掘、信息生成。调适人的主体创造性与信息高度集成共享之间的关系,我们需做到如下几个方面:首先,需要通过人的创造性扩大AIGC数据库,当下AIGC主要是依赖于大语言模型,以大量的网络文本作为训练数据库生成的,通过人的创造性生成可以不局限于网络文本,而是进一步扩展数据库的训练文本,从而提高其丰富度。其次,需要通过人的创造性为AIGC提供价值训练,通过人的创造性生成的价值立场、伦理法则等与AIGC的训练数据库相融合,从而建构可信赖、可持续的信息高度集成共享机制。最后,需要将人创造性生成的内容与AIGC共同作为人类知识的来源,人类知识的获得不能仅仅局限于AIGC,而是需要人发挥其主体创造性对人工智能技术生成的内容进行反思和拓展,将人类无法被数据化的、经验性的知识与AIGC数据化的知识融合成为人类知识的来源。

  (本版编辑张颖天整理)

计算机算自然科学还是社会科学,哲学属于自然科学还是社会科学

先来看看哲学的内容!

关于哲学的内容如何分类的问题,自古至今,众说纷纭,莫衷一是。

1,亚里士多德(逍遥学派)的分类。当时哲学包括所有的学科,分为三类:

一,理论学科:数学,物理学,形而上学;

二,实践学科:政治学,伦理学;

三,创造性学科:诗学,修辞学;

四,附,工具学科:逻辑学。

2,古希腊晚期的斯多葛派的分类。

一,逻辑学;

二,物理学;

三,伦理学。

这三部分内容的范围都比现在的这几个词所指的范围要广。他把整个哲学比喻为田地,逻辑学是这块田地的围墙;物理学,也就是自然哲学,是田里的土壤;伦理学是田里长成的果实。

这个三分法来源于亚里士多德以前的哲学派别,特别是柏拉图的哲学:古希腊最早的依奥尼亚派已经创立了自然哲学,相当于斯多葛派所说的物理学的内容;苏格拉底创立的道德哲学,也就是伦理学;柏拉图吸收前人的思想,又加上了思辨的或逻辑的哲学,即古代哲学家所称的辩证法,相当于斯多葛派所说的逻辑学的内容。

柏拉图虽然没有明白把哲学分为以上三类,但他的思想和著作,却命明显的可以按照这种三分法来划分。

3,中世纪的神学家托马斯阿奎那的分类。只是按照亚里士多德的三类学科之一的理论学科把哲学分为物理学,数学和神学(形而上学)三部分。

4,西方近代哲学的创始人迪卡尔将哲学分为三类,较多继承了斯多葛派的观点。

一,形而上学,他把它比喻为大树的树根;

二,物理学,这是树干;

三,包括伦理学在内的各门具体学科,是树枝。

5,德国近代哲学家沃尔夫的分类,它的分类法在后世有很大影响。

一,理论哲学(形而上学):本体论,宇宙论,心理学,神学。

二,实践哲学:伦理学,政治学,经济学

(导论:逻辑学)

6,黑格尔的哲学体系的分类,基本继承了斯多葛派的三分法。

一,逻辑学,不是形式逻辑,而是与形而上学合流的逻辑学;

二,自然哲学;

三,精神哲学。

7,意大利新黑格尔主义哲学家克罗齐的分类:

一,理论哲学:美学,逻辑学;

二,实践哲学:经济学,伦理学。

8,西方哲学史上普遍流行的分类法:

第一部分,本体论(包括或者不包括宇宙论),关于存在本性的问题

从本体性质上分:唯心论,唯物论,中立论,合一论等;

从本体数量上分:一元论,二元论,多元论;

从宇宙起源,生成的问题分:机械论或决定论,目的论。

第二部分,认识论,关于人类知识来源,能力范围,限度和真伪标准的研究。

从认知能力分:独断论,怀疑论,实证论;或者分为:可知论,不可知论;

从知识的来源分:理性主义,经验主义,批判主义;

从知识的真伪标准来分:反映论,融贯说,实用说等。

第三部分,价值论。

包括伦理学,美学。

由此可见,目前关于哲学是属于自然科学或是社会科学仍然没有定论。

全部

版权声明:本文内容由互联网用户自发贡献,该文观点仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌抄袭侵权/违法违规的内容,一经查实,本站将立刻删除。

上一篇

下一篇