博舍

人工智能遭遇伦理困境,未来发展需法治先行 人工智能所面临的困境

人工智能遭遇伦理困境,未来发展需法治先行

原标题:人工智能遭遇伦理困境,未来发展需法治先行

科技伦理是科技活动需要遵循的价值理念与行为规范,对于科技发展来说至关重要。7月28日,为加强人工智能伦理道德治理,推动人工智能更加规范发展,我国科技部公开征求了对《关于加强科技伦理治理的指导意见(征求意见稿)》的意见,为我国人工智能伦理法治建设打下基础。

人工智能陷入伦理困境

近年来,人工智能发展是愈发的火热,除了人工智能产业本身,由其技术所加持的如自动驾驶、人脸识别、机器人、智能音箱等也十分蓬勃。人工智能的发展为人们的生产生活带来利好,但与此同时,繁荣景象背后也暗藏风险。作为双刃剑,人工智能当前不仅给人类的生存带来冲击,同时也在伦理道德方面带来挑战。

日常应用中,我们便时常能够听闻关于人工智能的各种不好消息。例如2018年,一款名为“诺曼”的人工智能便由于其变态的“思想和认知”,给人们留下了可怕印象,该人工智能甚至一度被称为“精神病患者”。此外2019年,英国也曾出现教唆人类自己刺自己心脏的AI语音助手,不寒而栗的回答让人毛骨悚然。

由于人工智能主要基于数据学习而进化,人类的一些负面情绪、负面数据不可避免的能对人工智能产生影响。如果放任这些负面东西打造人工智能,出来的技术必然对人类也会产生极大负面影响。而这,正是人工智能伦理道德挑战出现的一大原因。当然,除了研发者的道德会影响人工智能道德外,技术本身也是另一原因。

在自动驾驶领域,有一个十分知名的“电车难题”,讲的是一个疯子把五个无辜的人绑在电车轨道上,一辆失控的电车朝这五个人驶来,并且片刻后就要碾压到他们。此时你可以拉一个控制杆,让电车开到另一条轨道上,但那个轨道上也绑着一个人。这种情况下,问你是否应该拉控制杆。

显而易见,对于现有的自动驾驶或者人工智能技术来说,这是一个无法给出答案的伦理难题。对于技术发展来说,伦理道德有时就像一道牢牢套在身上的枷锁,除了找到那个关键性的钥匙,基本很难逃脱。但想要“自由的舞蹈”,又不得不解开枷锁释放双手,在此背景下,就需要通过法治建设来打造出那把“钥匙”。

法治建设挣脱伦理枷锁

目前,面对人工智能带来的伦理道德挑战,各国政府已经愈发的重视。从2017年以来,全球已有多各国家和地区陆续出台或准备出台系列政策,加强对于人工智能伦理道德法治建设。如2017年美国颁布了人工智能14条政策准则;2018年欧盟出台《通用数据保护条例》;以及韩国也推出了《机器人道德宪章》……

而在我国,对于人工智能的伦理道德建设也在有条不紊开展。2017年7月,我国政府发布了《新一代人工智能发展规划》,其中明确到2025年,要初步建立人工智能法律法规、伦理规范和政策体系,形成人工智能安全评估和管控能力。到2030年,建成更加完善的人工智能法律法规、伦理规范和政策体系。

同时,之后工信部也发布了《人工智能创新发展道德伦理宣言》,规定人工智能的发展应当始终以造福人类为宗旨,不能将人工智能的自主意识等同于人类特有的自由意志,不能改变人工智能由人类创造的事实等。以及不少领域内企业也积极加强伦理道德关注,提升责任和意识,增强规范与治理。

当然,近日我国科技部再次公开征求对于《加强科技伦理治理的指导意见(征求意见稿)》意见,无疑更是为“健全科技伦理治理体制”、“健全科技伦理体系”正式迈出了最为坚实的一步。《意见》从基本要求、治理原则、治理体制、治理制度、审查监管、教育宣传等方面对科技伦理治理进行了全面规范,为未来成熟、健康、良好发展打下基础。

不以规矩,不成方圆。只有为人工智能的研发与应用制定完善的、合乎人类利益与道德标准的相关伦理规范与法律制度,才能确保人工智能的可持续发展,确保人类的生存权利与安全。各种负面的人工智能已经一再证明,人类的影响对于人工智能向善还是向恶至关重要,管住人远比管住工具更为重要。返回搜狐,查看更多

责任编辑:

人工智能面临的两难困境

三、数据的普遍化

随着网络空间中的数字数据变得有争议,大数据的普遍引入了全新的世界秩序。这个新的世界秩序为我们带来了一个新的现实-任何地方的任何人都可以访问数字数据并将给人类带来好与坏。今天,任何有欲望并知道如何访问大数据并拥有数据科学能力的个人或实体都可以将其用于他们想要实现的任何情报,自动化,监视和侦察,无论他们的教育,背景,地位或意图如何。

虽然大数据的普遍化带来了普遍的可访问性,并为NGIOA的个人和实体提供了强大的支持,但它也给我们带来了许多重大的安全风险。任何有或没有接受过正规培训的人,都可能无意甚至故意地对社区,种族,种族,宗教,民族和人类造成混乱,灾难和存在风险。

由于数据是建立大多数人工智能系统所必需的,数字数据的民主化是否应该得到控制,没有任何责任和责任?

四、人工智能

人工智能,机器人,无人机等方面的最新发展为人类带来了巨大的潜力,但是大部分相同的进步都带来了通过偏见或致命算法进行无节制的情报,监视和侦察的危险,而这些算法都没有人做好准备。

这些偏见和致命算法(基本上是算法,数据,计算能力和议程的功能)所产生的复杂安全风险因参与开发或部署人工智能的决策者通常不关注基本问题的现实而更加复杂。例如,“安全性”。因此,建立“人工智能安全”发展的可持续文化不仅需要使人工智能研究人员,投资者,用户,监管者和决策者意识到人工智能开发的双重用途(无论算法的本质),但也教育那些涉及甚至更多的算法开发,最终可能成为一个两用的困境。

正如今天各国所见:

任何人都可以创建可以双重使用的算法

任何人都可以购买必要的数据,工具和技术来创建算法

远程开发人员代表任何人开发算法

算法可以单独购买并集成用于任何目的

自动化无人机正在崛起

自主武器系统已成为现实

具有自主权的AI系统已成为现实

自主面部识别是现实

AI算法容易受到威胁和操纵

这提出了一个基本问题:来自各国的任何人,任何个人或实体如何能够获得必要的数字数据并探索为任何目的和议程创建人工智能的基础科学,而不会产生任何问责,监督和后果?

需要时,需要对这种人工智能的开发进行审计,制图,治理和防范。

今天的人工智能开发和景观在许多方面引入了不确定性。因为AI是软件并且不仅建立在军方使用的武器系统中,而且建立在NGIOA使用的每个智能应用程序中,每个基于AI的应用程序具有双重用途的潜力是一个不容忽视的现实。

五、安全困境

在人类历史的大部分时间里,安全的概念和方法主要围绕着使用武力和地球空间的领土完整性。随着安全的定义和含义在人工智能领域受到根本性的挑战和改变,传统安全是关于从地理边界内部或跨越地理边界对地球空间各自国家的暴力的概念现在已经过时,需要进行评估和更新。

这个全新的人工智能世界的出现,或多或少地像今天的外星人领域,那里知之甚少,而且大部分是未知。这引发了恐慌、不确定性、竞争和军备竞赛,并引导我们走向一个没有边界或限制的新战场,这个战场可能涉及也可能不涉及人类,也无法理解和控制。

【N个你】电销机器人

一/款/高/效/智/能/AI/系/统

产品三大优势:

不用招聘、不用培训、立即上岗、立即出业绩直接复制N个销售高手的话术及逻辑销售能力到你公司最关键它的使用成本还不到一个人工成本的1/5

一个时代的进步,一定是科技的迅速发展

AI智能语音机器人就选【N个你】

小N期待与您共同拥有更多未来的可能哦~返回搜狐,查看更多

版权声明:本文内容由互联网用户自发贡献,该文观点仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌抄袭侵权/违法违规的内容,一经查实,本站将立刻删除。

上一篇

下一篇