博舍

如果AI机器人有了自我意识,该不该具有法律人格蒋昌建这样说…… 智能机器人是否应该具有法律人格能力呢为什么

如果AI机器人有了自我意识,该不该具有法律人格蒋昌建这样说……

如果AI机器人有了自我意识,该不该具有法律人格?蒋昌建这样说……

2020年06月24日10:56:36|来源:荔枝新闻

字号变大|字号变小

 荔枝新闻讯具备自我意识的AI机器人应不应该具备法律人格?2020南京创新周,有这样一群人为此“唇枪舌剑”。6月22日下午,世界华语辩论锦标赛科技创新专题赛决赛在南京举行。复旦大学国际关系与公共事务学院博士、副教授、江苏卫视科学真人秀《最强大脑》节目主持人蒋昌建担任现场评审嘉宾。

世界华语辩论锦标赛科技创新专题赛是国内首次正式举办的线上国际辩论竞技赛事,来自新加坡南洋理工大学的辩手与国内著名高校清华、复旦、南大的辩手共聚一堂,就大学生创新创业、人工智能的发展等主题开展辩论探讨。

“能被人类控制的人工智能需要法律人格吗?”

“公司可以有人格权为什么AI机器人不可以?”

“如果扫地机器人有人格,那我让它打扫之前是不是还要问它愿不愿意?”

决赛中,新加坡南洋理工大学与复旦大学的辩手围绕“具备自我意识的AI机器人应该/不应该具备法律人格”的辩题展开辩论。

评委更是妙语连珠。罗翔以“门房大爷三问:你是谁?你从哪来?你到哪去?”为引子,幽默风趣地阐述他对于本场辩题的法律探讨。“人类的理性和思考维度是有限的!”“大猩猩坐看夕阳仅仅是自我意识还是也在思考?”“自主性可能只是人与非人的区别参考之一,人的价值应存在于更多方面”“张三的狗有自我意识,咬了人,这只狗应当承担什么样的责任?”

蒋昌建作为华语辩论的“拓荒者”,他指出,本场辩题探讨是基于“人是万物的尺度”,即人类思考问题的角度往往是出于人类本位;提倡“暖科技”理念,科技改变生活,科技温暖人心,“让弱者更强,让强者更有爱的力量”;“应当保持敬畏之心”,对科技发展的未来时刻保持警醒与思考;“人不能够太过于傲慢”,人类对于生命的认识仍在不断发展变化。

(来源:江苏广电融媒体新闻中心/姜超楠编辑/玉洁)

投票

下载荔枝新闻APP客户端,随时随地看新闻!

新浪微博微信朋友圈微信好友QQ空间

人工智能是否拥有独立人格

“现在人工智能不仅可以写诗,还可以生产新闻、画画、创作音乐。我仔细看了微软小冰机器人写的诗集,还是不错的,它通过图像识别可以做到看图说话,比如它看到了沙漠,沙漠中有太阳,它可能就联想到‘大漠孤烟直’,就可以写出一段文字。”腾讯研究院法律研究中心副主任、首席研究员蔡雄山说,知识产权的归属也就成为一个难题:我创造了一个软件,写了很多诗,当我把这个软件卖了,它又出很多本诗集,获得的收益比软件还值钱,这肯定会引起一些产权纠纷。

刘颖说,如果说人工智能是有法律主体资格的,那么以后要不要给工厂里进行劳动的机器人制定一个机器人劳动合同法?再进一步往下发展,人工智能是否要承担刑事责任,作为刑事责任能力的主体?

此外,各大城市已经陆续发放路测牌,无人驾驶的汽车发生事故之后责任怎么判定?蔡雄山说,到L4级和L5级阶段,不仅将实现完全的自动驾驶,而且汽车也将不再有方向盘,人也无法接管汽车,一旦出现责任事故谁来承担刑事责任,是生产汽车的厂商还是智能系统厂商?

AI还将引发数据安全的问题。“在人工智能时代,数据已经成为像石油和天然气一样重要,但AI系统需要数据‘喂养’,如何保护个人数据并区分非个人数据?比如无人驾驶汽车行驶汇总的数据,哪些可以交易?广东将建数据集群应用,如果数据产权不清晰,是否可以集中在一起?”蔡雄山说。

将社会伦理原则嵌入AI系统中

“在国外,关于人工智能伦理规范的文本已有不少,而中国还没有成行的文本。”蔡雄山说,如何让人工智能符合人类社会的各种规范和价值,最大化其好处,是构建普惠人工智能和有益人工智能必须解决的问题。

对此,他也提出了一些自己的建议,人工智能伦理应该遵循的一些基本原则:首先是自由原则,保障人的权利和自由,加强隐私保护,防止数据被滥用;其次是正义原则,确保算法决策的透明性,保障人工智能的权益在世界范围内公平分配,缩小数字鸿沟;第三个是福祉原则,要促进可持续发展,避免军备竞赛,要应对人工智能带来的就业影响等;第四是合伦理原则,把社会的伦理原则能够嵌入到人工智能系统上,让伦理设计和人类的规范相符合;此外还包括安全原则,保障安全,以及责任原则,应该探索人工智能应用的监管制度,保障安全,促进发展。

他山之石,可以攻玉。欧盟议会法律事务委员会也专门研究与机器人和人工智能发展相关的法律问题,早在2016年5月,该委员会提出了两个建议,第一个是对机器人适用强制保险机制,这类似于针对机动车的强制险,由机器人的生产者或者所有者负责购买,以便对机器人造成的损害进行责任分配。其次是设立赔偿基金;这一制度有两大目的,其一,对强制险未予覆盖的损害进行赔偿,其二,让投资人、生产者、消费者等多方主体参与这一机制,从而形成赔偿基金。

针对人工智能可能造成的数字鸿沟扩大,来自韩国的数字智力商数研究所创始人朴宥顯博士认为,应该让教育使孩子成为AI时代的主人,由此提出了“数商”的概念,她说,前两次工业革命时代提出了IQ,以适应工厂自动化技术的需要,而在工业3.0时代,城市化的浪潮下需要人与人的交融,于是EQ应运而生,而进入工业4.0时代,还需要一个新的数商,通过教育帮助孩子面对新的风险。

“人工智能进入大众视野,大家一定会记得阿西莫夫三大定律,用一句话来说就是,比人类更厉害的其实不是人工智能,而是掌握了人工智能的人类。”陈德平说。

【延伸】

各地关于AI伦理的

法律探讨

联合国2016年8月,COMEST发布“机器人伦理初步报告草案”,机器人不仅需要尊重人类社会的伦理规范,而且需要将特定伦理准备嵌入机器人系统中。

英国《机器人与人工智能》呼吁加强人工智能伦理研究,最大化人工智能的益处,并寻求最小化其潜在威胁的方法。

美国《国家人工智能研发战略计划》提出开展人工智能伦理研究,研发新的方法来实现人工智能与人类社会的法律、伦理等规范和价值相一致。

IEEE(电气和电子工程师协会)《合伦理设计:利用人工智能和自主系统最大化人类福祉的愿景(第一版)》,鼓励优先考虑伦理问题。

业界2017年Asilomar会议提出人工智能23条原则,涉及人工智能伦理和价值,推动有益人工智能发展,其中提及,将人类规范和道德价值嵌入人工智能系统。

【名词解释】

阿西莫夫三大定律

科幻作家阿西莫夫于1942年首次明确提出“机器人三定律”。

第一定律:机器人不得伤害人类个体,或者目睹人类个体将遭受危险而袖手不管;

第二定律:机器人必须服从人给予它的命令,当该命令与第一定律冲突时例外;

第三定律:机器人在不违反第一、第二定律的情况下要尽可能保护自己的生存。返回搜狐,查看更多

版权声明:本文内容由互联网用户自发贡献,该文观点仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌抄袭侵权/违法违规的内容,一经查实,本站将立刻删除。

上一篇

下一篇