博舍

人工智能六大原则发布:腾讯研究院院长司晓表示AI要规则先行 人工智能六大理论原则是什么

人工智能六大原则发布:腾讯研究院院长司晓表示AI要规则先行

4月13日,中国科学院科技战略咨询研究院与腾讯研究院在北京联合举办了“2017人工智能:技术、伦理与法律研讨会”,会议邀请了中国科学院科技战略咨询研究院院长潘教峰、中国科学院学部科学规范与伦理研究中心主任李真真、腾讯研究院院长司晓、复旦大学计算机学院肖仰华等数十位人工智能领域专家和学者,共同探讨当前人工智能技术发展中面临的和带来的伦理、法律、社会经济影响等问题,亿欧应邀参加。

眼下,人工智能正在改变各个行业,为了使AI朝着有益和普惠的方向发展,需要进行前瞻性的法律、伦理、安全等AI社会影响研究,也需要AI伦理等人文研究来为技术把脉,会议正式发布了人工智能六大原则(详见文末)。

以下为演讲嘉宾观点,亿欧网现场整理:

腾讯研究院院长司晓:AI要规则先行

人工智能技术好比工业革命,但是AI和电力、蒸汽机不一样,它不仅提升了生产效率,还将代替人做决策。无论是图像识别还是强人工智能,都会面临一个问题:机器的决策是否与人一样,这其实就是伦理的问题。

例如,无人驾驶车在紧急情况下,面临选择孕妇还是小孩时,就会很难做出决策。其实不只是机器,不同的人在遇到这种情况下也可能做出不同的决策,这是因为,人类的选择还没有统一的规则,是很随机的应急反应。

设定AI行业的统一规则是很有必要的。如果没有规则,或者某些企业自己设定一个规则,那么产业是无法发展的。在遇到新技术时,以往的方法是技术先发展,等到技术成熟之后再制定规则,但是对于AI,可能要规则先行。

中国科学院学部科学规范与伦理研究中心主任李真真:中国的人工智能道德伦理比国外落后很多

人工智能从一开始就是一个悖论式的存在,既带来好处,又对人类带来威胁,人工智能跨越了我们的想象世界和现实世界,所以出现了阿米西夫的“机器人三定律”。

借用约翰·奈斯比特的一句话,“每当新技术被引进社会,人类必然会产生一种要加以平衡的反应,也就是说,产生一种情感,否则新技术就会遭到排斥。技术越高级,情感反应也就越强烈。”

人工智能体的道德发展有三个层次:第一层是操作型道德体,即道德表现掌握在设计者和使用者手中;第二层是功能型道德体,即机器人有能力对道德挑战相关事物进行评估和做出反应;同时设计者面临相当限制;第三层是道德主体,即机器变成新种群,享有人类同等的权利、自主性和尊重等等。

人工智能原则制定的出发点,第一要要体现人权,第二要将人类和自然环境利益最大化,第三是削弱人工智能的风险和负面影响。

中国的人工智能技术与世界同步发展,但是AI的道德伦理落后很多,这主要由于我国的社科界和技术界普遍分离。

那么,如何解决这种问题呢?答案是“跨越边界”。

首先要构建对话平台,将科学技术与社科人文对话;学界、企业界、政界与公众对话;

其次要构建合作平台,加强技术、伦理和法律间的研究合作,推进我国的人工智能领域健康发展;参与国际伦理规则的制定。

最后,我们倡议建立AITEL联盟和联合实验室,推动AI技术与伦理、商业、企业的发展。目前机器的权利还没发展出来,政府、媒体都有监管的义务。

复旦大学计算机学院肖仰华:基于语言认知的语义理解有可能会是区分人和机器交互的安全方式

人工智能的发展是由于三个方面:大数据进步、GPU的计算能力增长和大数据时代推动了深度学习的发展。

目前,机器的感知能力超过人类,基于感知能力的验证方式已经失效,比如图片验证,很多企业以为以图片验证码的方式可以防止刷单,其实已经十分不安全。

那么,有什么更安全的方式呢?

基于语言认知的语义理解有可能会是区分是人还是机器交互的安全方式,即通过自然语言理解技术,以问答的呈现形式,机器必须一定程度上“理解文本”才能破解。

当前人工智能还存在两大问题:

第一是理解常识问题,机器学到的知识是通过文本学习到的,而人的常识在文本里不存在,人从出生开始就通过身体的交互积累常识,目前机器仍然无法像人一样和世界交互,很难获得常识。

第二是机器的推理能力有限,基于真实世界的推理很难。

奇虎360谭晓生:将来会有大量的人“吃饱了没事干”

人工智能一定会越来越快地普及,因为人类本性的是懒的;另外用机器替代人可以降低成本,未来会越来越多人失业,在深圳的很多汽车工厂,人已经不多了;前段时间去富士康参观,他们很乐于用机器,一年生产20万机械手,因为机器不会闹罢工,也不会“跳楼”。

将来会有大量的人“吃饱了没事”,未来人类主要是创造文化的东西;将来的机器肯定会失控,机器代替人是可能的。

中国发展研究基金会郝景芳:机器不能进化,不能有性繁殖

人工智能在很多方面会比我们聪明,但是在智慧方面,人类有思考决策的能力,而机器没有。《最强大脑》节目里面有很多在某些领域特别突出的人,但是他们并不是这个社会最杰出的人,最杰出的是有思考、决策和综合判断的能力的这部分人。

机器是客观学习,而人是联想学习,人能够发现事物的机构性的关联。人的价值观很大程度是进化出来的,而机器不能进化,不能有性繁殖。

中科院大学公管学院法律与知识产权系刘朝:目前我国还不会做出立法框架协议,但法律要追踪技术发展

在人工智能的制约上,法律是技术、政府、企业、媒体等最后的一个保护伞,法律在人工智能时代变得非常突出。但是社会的物资条件会制约法律,目前我国还不会做出立法框架协议,但法律可以继续追踪技术的发展。

给人工智能制定法律是很复杂的问题,比如谷歌机器人作画,是否有著作权,知识产权;无人驾驶车如果撞到人,应该是谁来负责呢?是计算机的编程员,计算机厂商,设计人员,制造商,地图公司还是政府。

还有取证壁垒在增加,无人驾驶如果出现问题,倘若没有计算机本科背景很难理解这些技术,那么用户如何举证?

另外,从法律层面看,数据越多其实危害越大,比如AI在医疗领域的应用,人的身体数据“从内到外”都被监控了,可能就没有隐私。

阿里云研究中心田丰:人工智能具有长期积累、短期爆发的特性

机器权利背后其实是人的权利的划分,从法律上来看,人工智能其实是跨学科的东西。

目前AI技术还在快速迭代,如果小数据模型出来之后,不用那么多的数据就可以训练AI,人类会更加恐惧,因为所有东西归零了。

AI其实是商业驱动的。比如美国的facebook、微软、Intel这些大公司为什么做AI,其实都是商业驱动,而且超大规模,超复杂。

人工智能具有长期积累、短期爆发的特性,一定要长远布局,因为某一个技术难点一旦突破,就会呈现爆发式变革,哪怕是1%的技术领先都很可怕。

中科院虚拟经济与数据科学研究中心刘峰:AI还不能看做与人类同权的生命体

电影“世界末日2012”里面,在面临科学家和总统选择谁的时候,必须要有一个判断,但是答案没有规定化。

AI还不能看做与人类同权的生命体,它分担了人类的部分知识和智慧功能,但在最重要的创造性和评审创造性价值方面无法替代,更为重要的是AI无法确定自己的进化方向和进化目标,也没有正确的进化动力,它的进化动力来源于人类,依然是人类的工具。

附《人工智能(AI)发展六大原则》

一、自由原则

1、人工智能研发与应用应符合人的尊严,保障人的权利与自由。

2、人工智能的发展应加强隐私保护,加强个人对数据的控制,防止数据滥用。

二、正义原则

3、确保算法决策的透明性,确保算法设定公平、合理、无歧视。

4、人工智能决策可能影响个人权益,应该提供救济途径。

5、推动人工智能的效益在世界范围内公平分配,缩小数字鸿沟。

三、福祉原则

6、人工智能的发展应以促进人类福祉为目的,推动经济社会可持续发展。

7、和平利用人工智能及相关技术,避免致命性人工智能武器的军备竞赛。

8、人工智能的发展应促进数字经济发展,积极应对人工智能带来的就业影响。

9、应不断完善教育体系,培养与人工智能时代相适应的人才。

四、伦理原则

10、将伦理设计嵌入系统,使其成为有道德的机器,保证伦理规范的多样性和包容性。

11、保证人工智能系统遵守人类社会伦理规范。

12、不断检验伦理设计是否与现实人类规范相符合。

五、安全原则

13、人工智能研发、设计及应用应保障人身安全、财产安全及网络信息安全。

14、个人数据的收集与使用应符合规范与法律制度,保障数据安全。

15、针对人工智能的风险,需要有针对性的准备措施及预案。

16、不断加强民众对于人工智能的教育,提高安全等相关意识。

六、责任原则

17、立法与司法应明晰人工智能责任相关立法与规则,不断完善人工智能相关标准,确保人工智能研发及应用的可追责性。

18、积极探索人工智能应用领域的监管机制及监管制度,保障安全,促进发展。

19、加强人工智能研究国际合作,共同探讨并应对人工智能带来的挑战。

本文作者许伟军,亿欧专栏作者;微信:xuweijun24(添加时请注明“姓名-公司-职务”方便备注);转载请注明作者姓名和“来源:亿欧”;文章内容系作者个人观点,不代表亿欧对观点赞同或支持。

Stuart Russell:可证明有益人工智能的三大原则

美国加州大学伯克利分校(UCBerkeley)计算机科学教授StuartRussell被视为人工智能领域的领先人物,他负责带领伯克利的人类兼容人工智能中心(CenterforHuman-CompatibleAI,CHAI)。

他与Google研究总监PeterNorvig合著的《人工智能:一种现代方法》(ArtificialIntelligence:AModernApproach)被全球超千所大学选择为标准教科书。2019年,他的新书《人类兼容:人工智能及其控制问题》(HumanCompatible:ArtificialintelligenceandTheproblemofcontrol)再次引发全球关注。

StuartRussell教授将作为9月25日GMIC在线Pro-美国·硅谷站的开场嘉宾,就「人工智能与人类如何兼容?」发表主题演讲,全面分析“AI”和“人类”的兼容关系。

那么,StuartRussell对于AI的发展都有那些观点,他担心什么、提倡什么、以及正在做什么?希望下文能让你快速认识他。

如果我们成功了呢?

_

1995年,StuartRussell写了有关AI的书。他跟PeterNorvig合著的《人工智能:一种现代的方法》成为全世界最受欢迎的课程教材之一。在最后一章的最后几页,作者自己提出了一个问题:如果我们成功了该怎么办?也就是说,如果我们实现自己的目标,世界会发生什么样的改变?不过他们的答案几乎算不上认可。他们的答案是:“这种趋势似乎并不算太消极。”

其实在“AI与人类”这一问题上,StuartRussell本人始终倡议发展友善及安全的AI。2015年,他曾起草并率先在一份旨在呼吁学者多方面考虑人工智能研究的公开信上签字,信中指出:「我们建议扩大人工智能研究的范围,目的是确保日益强大的人工智能系统是稳定和对人类有益的」「坚持AI发展应基于社会利益,而不是一昧冒进打造强大的机器,其中最令人忧心的就是发展自主武器」。

这封公开信得到了来自全球7000多名学者与业界人士的支持,其中包括谷歌、Facebook、微软等科技巨头的核心人工智能研究者,以及全球顶尖的计算机科学家、物理学家和哲学家。

同年,他也受邀在《特定常规武器公约》(ConventiononCertainConventionalWeapons,CCW)大会上提供专家证词。他认为:“AI及机器人界必须采取立场,就像物理学家在面对核武、化学家或生物学家在使用化学或病毒武器一样.....什么都不做,就等同是投下赞成发展的一票。”

人工智能就好比核武器

_

那么,StuartRussell对于“人工智能与人类未来”的担心,到底是什么?何以至于,他无数次的在各个平台发声以及通过写书的方式不断诠释自己的想法。

在StuartRussell曾接受的一场采访中,涉及到了一些,他在担心什么的表达。我们摘录了这场采访中的四个问题,如下:

Q

你认为人工智能演变成灾难可能的途径是什么?

StuartRussell:最典型的情况就是明显或者隐含的价值体系失调:人工智能系统被赋予的目标难以完全考虑和计算人类所关心的目标要素。

各个公司想要取得巨大技术优势的方法是多种多样和纷繁复杂的,国家之间也想尽力在敌国之前建立人工智能系统,或者以一种温水煮青蛙的方式渐渐使得我们变得越来越虚弱,不得不依赖人工智能才能生活下来,就像E.M.Forster的科幻小说《机器休止》(TheMachineStops)。

Q

阻止人工智能大灾难需要做些什么?

StuartRussell:首先,需要对技术方法潜在的风险和进展进行研究,消除风险。第二,调整AI和培养学生的目标,以使AI系统遵循人类的目标成为本领域内最重要的事,就像遏制在核聚变研究中很重要一样。

Q

但是在我们发展核聚变的同时,已经有了原子弹。但人工智能危险只是出于推测中,那我们是否真的处于人工智能「核聚变」的阶段?

StuartRussell:1939年,利奥·西拉特(LeoSzilard)在证明核链式反应后写道:「我们把一切都关掉,回家了。那天晚上,我毫不怀疑,世界正走向悲痛。」那些说:「嗯,我们可能永远都达不到人类水平的AI或超级AI。」我会回答:这就像开车直向悬崖边,然后说,「让我们祈求汽油尽快被烧完!」

Q

我们应该像监测易裂变物质(核燃料)一样监测AI研究吗?谁负责此类的监管?

StuartRussell:我认为正确的做法是把问题直接建立到从业者如何定义他们所做的事上。土木工程从业者没有谁会谈到「搭建不会倒塌的桥梁」他们只说「搭建桥梁」。基本上所有的核聚变研究者都认为遏制核武器是理所当然的事;不受限制的聚变反应对人类无益处。

所以,我们要从现在起聚焦在「可能有益的AI」上,今后才能单用「AI」来概括对人类有益的AI。这个领域目前致力于建立纯粹的智能,而不顾它们的目标和可能带来的后果。我们应该摒弃这样的想法,重新规划目标。

做更好、更安全的AI

_

2019年,StuartRussell的新书《人类兼容:人工智能及其控制问题》,再次回到了上本书最后的那一个问题:如果我们成功了呢?

这次,他不再退缩。

在书中,他有一章谈到滥用AI可能会出现的不好之处。Russell认为在AI安全和监管方面没有取得重大进展的情况下,会出现混乱局面。

现在,StuartRussell的实验室致力两件事,一是打造更好的AI(makingAIbetter),另一个是打造安全的AI(makingAIsafe)。”

关于打造安全的AI部分,他成立了人类兼容人工智能中心并专门写了《人类兼容:人工智能及其控制问题》一书。以此,来试图防止长期发展AI所可能产生不可控制、负面的问题出现,以及确保聚焦AI对人类社会有益。

StuartRussell还表示,他们要开发一个可证明有益人工智能的方法(provablybeneficialAI),并且基于三大原则:

第一个原则是利他主义(Altruism),机器人唯一的目标就是用尽全力实现人类的目标。二是谦逊法则(Alawofhumility),机器知道它需要讲人类价值最大化,但它不知道这价值究竟是什么。三是机器人的工作是要了解更多人们的需求,让它们观察人类进而学习,也可以透过阅读书籍、看电视等方式来达到。目前,全世界成千上万最最聪明的头脑都在开发AI。制造比人类更智能的机器可能是人类史上最重大的事件,也或许是最后一件事。

而关于“AI与人类未来”,也正有许多艺术试图描述各种可能的想象,比如电影。身为AI专家,StuartRussell认为电影《星际穿越》中拥有最好的人工智能,主要是基于两个理由:一、因为戏里头的AI机器人完全只执行人类下达的指令,甚至会为了救援人类而牺牲自己;二、一个很重要的原因是它们长得不像人。

人工智能到底该如何定义,它的边界是什么?2020年,最受关注的AI影像作品是HBO刚播出结束的《西部世界》第三季。在这部剧里,机器人与人类外型一模一样,并且正开始反击人类。

StuartRussell已确认参加「GMIC在线Pro」,并发表:「人工智能与人类如何兼容?」的主题演讲。

点击进入专题:GMIC在线Pro:用科技凝聚世界特别声明:以上文章内容仅代表作者本人观点,不代表新浪网观点或立场。如有关于作品内容、版权或其它问题请于作品发表后的30日内与新浪网联系。

版权声明:本文内容由互联网用户自发贡献,该文观点仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌抄袭侵权/违法违规的内容,一经查实,本站将立刻删除。

上一篇

下一篇