Stuart Russell:可证明有益人工智能的三大原则
美国加州大学伯克利分校(UCBerkeley)计算机科学教授StuartRussell被视为人工智能领域的领先人物,他负责带领伯克利的人类兼容人工智能中心(CenterforHuman-CompatibleAI,CHAI)。
他与Google研究总监PeterNorvig合著的《人工智能:一种现代方法》(ArtificialIntelligence:AModernApproach)被全球超千所大学选择为标准教科书。2019年,他的新书《人类兼容:人工智能及其控制问题》(HumanCompatible:ArtificialintelligenceandTheproblemofcontrol)再次引发全球关注。
StuartRussell教授将作为9月25日GMIC在线Pro-美国·硅谷站的开场嘉宾,就「人工智能与人类如何兼容?」发表主题演讲,全面分析“AI”和“人类”的兼容关系。
那么,StuartRussell对于AI的发展都有那些观点,他担心什么、提倡什么、以及正在做什么?希望下文能让你快速认识他。
如果我们成功了呢?
_
1995年,StuartRussell写了有关AI的书。他跟PeterNorvig合著的《人工智能:一种现代的方法》成为全世界最受欢迎的课程教材之一。在最后一章的最后几页,作者自己提出了一个问题:如果我们成功了该怎么办?也就是说,如果我们实现自己的目标,世界会发生什么样的改变?不过他们的答案几乎算不上认可。他们的答案是:“这种趋势似乎并不算太消极。”
其实在“AI与人类”这一问题上,StuartRussell本人始终倡议发展友善及安全的AI。2015年,他曾起草并率先在一份旨在呼吁学者多方面考虑人工智能研究的公开信上签字,信中指出:「我们建议扩大人工智能研究的范围,目的是确保日益强大的人工智能系统是稳定和对人类有益的」「坚持AI发展应基于社会利益,而不是一昧冒进打造强大的机器,其中最令人忧心的就是发展自主武器」。
这封公开信得到了来自全球7000多名学者与业界人士的支持,其中包括谷歌、Facebook、微软等科技巨头的核心人工智能研究者,以及全球顶尖的计算机科学家、物理学家和哲学家。
同年,他也受邀在《特定常规武器公约》(ConventiononCertainConventionalWeapons,CCW)大会上提供专家证词。他认为:“AI及机器人界必须采取立场,就像物理学家在面对核武、化学家或生物学家在使用化学或病毒武器一样.....什么都不做,就等同是投下赞成发展的一票。”
人工智能就好比核武器
_
那么,StuartRussell对于“人工智能与人类未来”的担心,到底是什么?何以至于,他无数次的在各个平台发声以及通过写书的方式不断诠释自己的想法。
在StuartRussell曾接受的一场采访中,涉及到了一些,他在担心什么的表达。我们摘录了这场采访中的四个问题,如下:
Q
你认为人工智能演变成灾难可能的途径是什么?
StuartRussell:最典型的情况就是明显或者隐含的价值体系失调:人工智能系统被赋予的目标难以完全考虑和计算人类所关心的目标要素。
各个公司想要取得巨大技术优势的方法是多种多样和纷繁复杂的,国家之间也想尽力在敌国之前建立人工智能系统,或者以一种温水煮青蛙的方式渐渐使得我们变得越来越虚弱,不得不依赖人工智能才能生活下来,就像E.M.Forster的科幻小说《机器休止》(TheMachineStops)。
Q
阻止人工智能大灾难需要做些什么?
StuartRussell:首先,需要对技术方法潜在的风险和进展进行研究,消除风险。第二,调整AI和培养学生的目标,以使AI系统遵循人类的目标成为本领域内最重要的事,就像遏制在核聚变研究中很重要一样。
Q
但是在我们发展核聚变的同时,已经有了原子弹。但人工智能危险只是出于推测中,那我们是否真的处于人工智能「核聚变」的阶段?
StuartRussell:1939年,利奥·西拉特(LeoSzilard)在证明核链式反应后写道:「我们把一切都关掉,回家了。那天晚上,我毫不怀疑,世界正走向悲痛。」那些说:「嗯,我们可能永远都达不到人类水平的AI或超级AI。」我会回答:这就像开车直向悬崖边,然后说,「让我们祈求汽油尽快被烧完!」
Q
我们应该像监测易裂变物质(核燃料)一样监测AI研究吗?谁负责此类的监管?
StuartRussell:我认为正确的做法是把问题直接建立到从业者如何定义他们所做的事上。土木工程从业者没有谁会谈到「搭建不会倒塌的桥梁」他们只说「搭建桥梁」。基本上所有的核聚变研究者都认为遏制核武器是理所当然的事;不受限制的聚变反应对人类无益处。
所以,我们要从现在起聚焦在「可能有益的AI」上,今后才能单用「AI」来概括对人类有益的AI。这个领域目前致力于建立纯粹的智能,而不顾它们的目标和可能带来的后果。我们应该摒弃这样的想法,重新规划目标。
做更好、更安全的AI
_
2019年,StuartRussell的新书《人类兼容:人工智能及其控制问题》,再次回到了上本书最后的那一个问题:如果我们成功了呢?
这次,他不再退缩。
在书中,他有一章谈到滥用AI可能会出现的不好之处。Russell认为在AI安全和监管方面没有取得重大进展的情况下,会出现混乱局面。
现在,StuartRussell的实验室致力两件事,一是打造更好的AI(makingAIbetter),另一个是打造安全的AI(makingAIsafe)。”
关于打造安全的AI部分,他成立了人类兼容人工智能中心并专门写了《人类兼容:人工智能及其控制问题》一书。以此,来试图防止长期发展AI所可能产生不可控制、负面的问题出现,以及确保聚焦AI对人类社会有益。
StuartRussell还表示,他们要开发一个可证明有益人工智能的方法(provablybeneficialAI),并且基于三大原则:
第一个原则是利他主义(Altruism),机器人唯一的目标就是用尽全力实现人类的目标。二是谦逊法则(Alawofhumility),机器知道它需要讲人类价值最大化,但它不知道这价值究竟是什么。三是机器人的工作是要了解更多人们的需求,让它们观察人类进而学习,也可以透过阅读书籍、看电视等方式来达到。目前,全世界成千上万最最聪明的头脑都在开发AI。制造比人类更智能的机器可能是人类史上最重大的事件,也或许是最后一件事。
而关于“AI与人类未来”,也正有许多艺术试图描述各种可能的想象,比如电影。身为AI专家,StuartRussell认为电影《星际穿越》中拥有最好的人工智能,主要是基于两个理由:一、因为戏里头的AI机器人完全只执行人类下达的指令,甚至会为了救援人类而牺牲自己;二、一个很重要的原因是它们长得不像人。
人工智能到底该如何定义,它的边界是什么?2020年,最受关注的AI影像作品是HBO刚播出结束的《西部世界》第三季。在这部剧里,机器人与人类外型一模一样,并且正开始反击人类。
StuartRussell已确认参加「GMIC在线Pro」,并发表:「人工智能与人类如何兼容?」的主题演讲。
点击进入专题:GMIC在线Pro:用科技凝聚世界特别声明:以上文章内容仅代表作者本人观点,不代表新浪网观点或立场。如有关于作品内容、版权或其它问题请于作品发表后的30日内与新浪网联系。Stuart Russell:可证明有益人工智能的三大原则|GMIC确认嘉宾
2020/8/1916:32StuartRussell:可证明有益人工智能的三大原则|GMIC确认嘉宾GMIC美国加州大学伯克利分校(UCBerkeley)计算机科学教授StuartRussell被视为人工智能领域的领先人物,他负责带领伯克利的人类兼容人工智能中心(CenterforHuman-CompatibleAI,CHAI)。
他与Google研究总监PeterNorvig合著的《人工智能:一种现代方法》(ArtificialIntelligence:AModernApproach)被全球超千所大学选择为标准教科书。2019年,他的新书《人类兼容:人工智能及其控制问题》(HumanCompatible:ArtificialintelligenceandTheproblemofcontrol)再次引发全球关注。
StuartRussell教授将作为9月25日GMIC在线Pro-美国·硅谷站的开场嘉宾,就「人工智能与人类如何兼容?」发表主题演讲,全面分析“AI”和“人类”的兼容关系。
那么,StuartRussell对于AI的发展都有那些观点,他担心什么、提倡什么、以及正在做什么?希望下文能让你快速认识他。
如果我们成功了呢?
1995年,StuartRussell写了有关AI的书。他跟PeterNorvig合著的《人工智能:一种现代的方法》成为全世界最受欢迎的课程教材之一。在最后一章的最后几页,作者自己提出了一个问题:如果我们成功了该怎么办?也就是说,如果我们实现自己的目标,世界会发生什么样的改变?不过他们的答案几乎算不上认可。他们的答案是:“这种趋势似乎并不算太消极。”
其实在“AI与人类”这一问题上,StuartRussell本人始终倡议发展友善及安全的AI。2015年,他曾起草并率先在一份旨在呼吁学者多方面考虑人工智能研究的公开信上签字,信中指出:「我们建议扩大人工智能研究的范围,目的是确保日益强大的人工智能系统是稳定和对人类有益的」「坚持AI发展应基于社会利益,而不是一昧冒进打造强大的机器,其中最令人忧心的就是发展自主武器」。
这封公开信得到了来自全球7000多名学者与业界人士的支持,其中包括谷歌、Facebook、微软等科技巨头的核心人工智能研究者,以及全球顶尖的计算机科学家、物理学家和哲学家。
同年,他也受邀在《特定常规武器公约》(ConventiononCertainConventionalWeapons,CCW)大会上提供专家证词。他认为:“AI及机器人界必须采取立场,就像物理学家在面对核武、化学家或生物学家在使用化学或病毒武器一样.....什么都不做,就等同是投下赞成发展的一票。”
人工智能就好比核武器
那么,StuartRussell对于“人工智能与人类未来”的担心,到底是什么?何以至于,他无数次的在各个平台发声以及通过写书的方式不断诠释自己的想法。
在StuartRussell曾接受的一场采访中,涉及到了一些,他在担心什么的表达。我们摘录了这场采访中的四个问题,如下:
Q你认为人工智能演变成灾难可能的途径是什么?
StuartRussell:最典型的情况就是明显或者隐含的价值体系失调:人工智能系统被赋予的目标难以完全考虑和计算人类所关心的目标要素。
各个公司想要取得巨大技术优势的方法是多种多样和纷繁复杂的,国家之间也想尽力在敌国之前建立人工智能系统,或者以一种温水煮青蛙的方式渐渐使得我们变得越来越虚弱,不得不依赖人工智能才能生活下来,就像E.M.Forster的科幻小说《机器休止》(TheMachineStops)。
Q阻止人工智能大灾难需要做些什么?
StuartRussell:首先,需要对技术方法潜在的风险和进展进行研究,消除风险。第二,调整AI和培养学生的目标,以使AI系统遵循人类的目标成为本领域内最重要的事,就像遏制在核聚变研究中很重要一样。
Q但是在我们发展核聚变的同时,已经有了原子弹。但人工智能危险只是出于推测中,那我们是否真的处于人工智能「核聚变」的阶段?
StuartRussell:1939年,利奥·西拉特(LeoSzilard)在证明核链式反应后写道:「我们把一切都关掉,回家了。那天晚上,我毫不怀疑,世界正走向悲痛。」那些说:「嗯,我们可能永远都达不到人类水平的AI或超级AI。」我会回答:这就像开车直向悬崖边,然后说,「让我们祈求汽油尽快被烧完!」
Q我们应该像监测易裂变物质(核燃料)一样监测AI研究吗?谁负责此类的监管?
StuartRussell:我认为正确的做法是把问题直接建立到从业者如何定义他们所做的事上。土木工程从业者没有谁会谈到「搭建不会倒塌的桥梁」他们只说「搭建桥梁」。基本上所有的核聚变研究者都认为遏制核武器是理所当然的事;不受限制的聚变反应对人类无益处。
所以,我们要从现在起聚焦在「可能有益的AI」上,今后才能单用「AI」来概括对人类有益的AI。这个领域目前致力于建立纯粹的智能,而不顾它们的目标和可能带来的后果。我们应该摒弃这样的想法,重新规划目标。
做更好、更安全的AI
2019年,StuartRussell的新书《人类兼容:人工智能及其控制问题》,再次回到了上本书最后的那一个问题:如果我们成功了呢?
这次,他不再退缩。
在书中,他有一章谈到滥用AI可能会出现的不好之处。Russell认为在AI安全和监管方面没有取得重大进展的情况下,会出现混乱局面。
现在,StuartRussell的实验室致力两件事,一是打造更好的AI(makingAIbetter),另一个是打造安全的AI(makingAIsafe)。”
关于打造安全的AI部分,他成立了人类兼容人工智能中心并专门写了《人类兼容:人工智能及其控制问题》一书。以此,来试图防止长期发展AI所可能产生不可控制、负面的问题出现,以及确保聚焦AI对人类社会有益。
StuartRussell还表示,他们要开发一个可证明有益人工智能的方法(provablybeneficialAI),并且基于三大原则:
第一个原则是利他主义(Altruism),机器人唯一的目标就是用尽全力实现人类的目标。二是谦逊法则(Alawofhumility),机器知道它需要讲人类价值最大化,但它不知道这价值究竟是什么。三是机器人的工作是要了解更多人们的需求,让它们观察人类进而学习,也可以透过阅读书籍、看电视等方式来达到。
目前,全世界成千上万最最聪明的头脑都在开发AI。制造比人类更智能的机器可能是人类史上最重大的事件,也或许是最后一件事。
而关于“AI与人类未来”,也正有许多艺术试图描述各种可能的想象,比如电影。身为AI专家,StuartRussell认为电影《星际穿越》中拥有最好的人工智能,主要是基于两个理由:一、因为戏里头的AI机器人完全只执行人类下达的指令,甚至会为了救援人类而牺牲自己;二、一个很重要的原因是它们长得不像人。
人工智能到底该如何定义,它的边界是什么?2020年,最受关注的AI影像作品是HBO刚播出结束的《西部世界》第三季。在这部剧里,机器人与人类外型一模一样,并且正开始反击人类。
参考资料:
1.StuartRussell:人工智能就好比核武器
2.新书《HumanCompatible》书评:AI与我们的未来
3.StuartRusell专访:斯坦福百年报告否定人类水平AI,不可理喻
4.专访人工智能大师StuartRussell,AI现阶段瓶颈:人类不清楚怎么让机器做长时间尺度的决策
StuartRussell已确认参加「GMIC在线Pro」,并发表:「人工智能与人类如何兼容?」的主题演讲。
同时,他也将接受媒体采访,采访以线上远程连线或邮件采访的方式进行。若各媒体有参与嘉宾采访意向,请扫描下方二维码进行申请,诚邀各位媒体老师与我们一起就“AI与人类”展开探讨。
9月份的「GMIC在线Pro」舞台,将深度探讨“AI和人类的关系”,包括伦理关系、控制关系、兼容关系等。更多大咖嘉宾和亮点内容将陆续公布,欢迎大家持续关注。
给作者点赞0VS0写得不太好StuartRussell:可证明有益人工智能的三大原则|GMIC确认嘉宾
免责声明:本文仅代表作者个人观点,与C114通信网无关。其原创性以及文中陈述文字和内容未经本站证实,对本文以及其中全部或者部分内容、文字的真实性、完整性、及时性本站不作任何保证或承诺,请读者仅作参考,并请自行核实相关内容。
人工智能的三层基本架构
来啦,坐。
我是老杨,如约而至。今天我要来讲讲人工智能的知识了。
人工智能
请允许我先占用你一分钟讲个小故事:依稀记得2012年,老杨当时在做电商广告平台,广告平台嘛最核心的就是赚更多的钱,而提升广告的点击率又是最直接最有效的手段,提升点击率的目的当然也很明显,就是把广告推给最合适的人来促成更多的点击,所以我需要清楚的知道躲在电脑背后的用户是男是女还是隔壁邻居的二大爷的侄女的小狗狗,预测用户性别正好是一个典型的监督学习问题,为了赚更多的钱,我就头悬梁锥刺股的去啃了监督学习的东东:逻辑回归、决策树、支持向量机等,好在用起来的确是美不胜收的,大大的赚了一发,没白学。
这就是我与人工智能的初识,虽然目的有点俗不可耐,但是它让我领略到了人工智能的魅力,开启了我通往人工智能的大门,之后我又把非监督学习、神经网络等在广告点击率预估场景中进行了应用,也收获颇丰。仔细想想互联网广告行业在技术创新上一直是很领先的,看来金钱果然是进步的源动力,^_^。
故事告一段落了,言归正传,众所周知人工智能缘起于1956年达特茅斯大会,发展至今
人工智能
概述什么是人工智能?人工智能(ArtificialIntelligence),英文缩写为AI。它是研究、开发用于模拟、延伸和扩展人的智能的理论、方法、技术及应用系统的一门新的技术科学。人工智能是计算机科学的一个分支,它试图了解智能的实质,并生产出一种新的能以人类智能相似的方式作出反应的智能机器人工智能是对人的意识、思维的信息过程的模拟。人工智能不是人的智能,但能像人那样的思考,甚至超过人的智能。第一阶段:Python
利用Python解析数据速度,效率方面比较轻量级i.轻量级指的是部署到服务器里面,可以提高服务器访问并发ii.轻量级指的是业务与业务之间的逻辑性很强,兼容性很强,降低耦合度iii.轻量级指的是业务与数据之间的一种关系体现很轻,简单说:获取数据集的方式很快,多样化
Java语言也可以实现人工智能的数据操作—不建议—重量级i.重量级的操作不适合’数据集’的采集操作ii.重量级操作不适合数据集的清理操作iii.重量级的业务与数据之间很难进行数据解析操作
人工智能的历史
1956年夏天:达特茅斯会议,提出“人工智能“20世纪60年代:感知机20世纪70年代:专家系统、知识工程20世纪80年代:日本第五代机20世纪90年代:统计机器学习2006年:深度学习2012年:卷积神经网络…人工智能的分类弱人工智能ArtificialNarrowIntelligence(ANI):弱人工智能是擅长于单个方面的人工智能。强人工智能ArtificialGeneralIntelligence(AGI):人类级别的人工智能。强人工智能是指在各方面都能和人类比肩的人工智能,人类能干的脑力活它都能干。超人工智能ArtificialSuperIntelligence(ASI):知名人工智能思想家NickBostrom把超级智能定义为”在几乎所有领域都比最聪明的人类大脑都聪明很多,包括科学创新、通识和社交技能“。人工智能的机器学习机器学习需要’思考’
机器学习是一门从数据中研究算法的科学学科‘数据’---->>‘算法’如何实现’数据’到’算法’的过程?数据采集(Python)>>数据分析(Python)>>数据挖掘(Hadoop)>>模型建立(算法)>>预测未来
机器学习理性认识
机器学习的算法公式思想数据1:x轴x1,x2,x3…xn数据2:y轴y1,y2,y3…yn目标值:x---->y误差趋近于零的时候就是目标值,误差最小->数据输出
结果公式:{(x1,y1),(x2,y2),(x3,y3)…(xn,yn)}g:x->y备注:g表示最终的公式
导论结果:其实’数据集’就是一种算法的实现
算法(T):根据业务需要和数据特征选择的相关算法,也就是一个数学公式模型(E):基于数据和算法构件出来的模型评估/测试§:对模型进行评估的策略
训练数据:"训练"数据训练指的是是:一种学习行为----转化为:“经验”-----通过经验采集的数据才是训练数据!训练数据是存在很大的不合理性!并不能满足机器的学习使用!
数据集是训练数据吗?数据集可以让机器学习使用!
机器学习概念拟合构建的算法符合给定数据的特征x(i):表示第i个样本的x向量xi:x向量的第i维度的值
鲁棒性也就是健壮性、稳健性、强健性,是系统的健壮性;当存在异常数据的时候,算法也会拟合数据
过拟合算法太符合样本数据的特征,对于实际生产中的数据特征无法拟合,目标数据和预测数据差距太大!
欠拟合算法不太符合样本的数据特征
人工智能的3大框架sciket-learn(Python)基于Python语言开发的人工智能—大量使用(效率最高)http://scikit-learn.org/stable/
Mahout(Hadoop生态圈基于MapReduce)基于大数据Hadoop的人工智能—不建议(大数据直接与AI结合)—成本高http://mahout.apache.org/
SparkMLlib基于SparkMLlib处理数据解析数据集—处理数据集的速度高于hedoophttp://spark.apache.org/
OpenStack云机房很高端,但对技术要求过高
机器学习之商业个性化推荐:个性化指的是根据各种因素来改变用户体验和呈现给用户内容,这些因素可能包含用户的行为数据和外部因素;推荐常指系统向用户呈现一个用户可能感兴趣的物品列表。精准营销:从用户群众中找出特定的要求的营销对象。客户细分:试图将用户群体分为不同的组,根据给定的用户特征进行客户分组。预测建模及分析:根据已有的数据进行建模,并使用得到的模型预测未机器学习、数据分析、数据挖掘区别与联系数据分析:数据分析是指用适当的统计分析方法对收集的大量数据进行分析,并提取有用的信息,以及形成结论,从而对数据进行详细的研究和概括过程。在实际工作中,数据分析可帮助人们做出判断;数据分析一般而言可以分为统计分析、探索性数据分析和验证性数据分析三大类。
数据挖掘:一般指从大量的数据中通过算法搜索隐藏于其中的信息的过程。通常通过统计、检索、机器学习、模式匹配等诸多方法来实现这个过程。
机器学习:是数据分析和数据挖掘的一种比较常用、比较好的手段。
机器学习分类有监督学习用已知某种或某些特性的样本作为训练集,以建立一个数学模型,再用已建立的模型来预测未知样本,此种方法被称为有监督学习,是最常用的一种机器学习方法。是从标签化训练数据集中推断出模型的机器学习任务。
重点算法判别式模型(DiscriminativeModel):直接对条件概率p(y|x)进行建模,常见判别模型有:线性回归、决策树、支持向量机SVM、k近邻、神经网络等;
生成式模型(GenerativeModel):对联合分布概率p(x,y)进行建模,常见生成式模型有:隐马尔可夫模型HMM、朴素贝叶斯模型、高斯混合模型GMM、LDA等;
区别:
生成式模型更普适;判别式模型更直接,目标性更强生成式模型关注数据是如何产生的,寻找的是数据分布模型;判别式模型关注的数据的差异性,寻找的是分类面由生成式模型可以产生判别式模型,但是由判别式模式没法形成生成式模型无监督学习与监督学习相比,无监督学习的训练集中没有人为的标注的结果,在非监督的学习过程中,数据并不被特别标识,学习模型是为了推断出数据的一些内在结构。
无监督学习试图学习或者提取数据背后的数据特征,或者从数据中抽取出重要的特征信息,常见的算法有聚类、降维、文本处理(特征抽取)等。
无监督学习一般是作为有监督学习的前期数据处理,功能是从原始数据中抽取出必要的标签信息
半监督学习(SSL)考虑如何利用少量的’标注样本’和大量的’未标注样本’进行训练和分类的问题,是有监督学习和无监督学习的结合
主要考虑如何利用少量的标注样本和大量的未标注样本进行训练和分类的问题。半监督学习对于减少标注代价,提高学习机器性能具有非常重大的实际意义。
SSL的成立依赖于模型假设,主要分为三大类:平滑假设、聚类假设、流行假设;其中流行假设更具有普遍性。
SSL类型的算法主要分为四大类:半监督分类、半监督回归、半监督聚类、半监督降维。
缺点:抗干扰能力弱,仅适合于实验室环境,其现实意义还没有体现出来;未来的发展主要是聚焦于新模型假设的产生
机器学习分类2分类通过分类模型,将样本数据集中的样本映射到某个给定的类别中聚类通过聚类模型,将样本数据集中的样本分为几个类别,属于同一类别的样本相似性比较大回归反映了样本数据集中样本的属性值的特性,通过函数表达样本映射的关系来发现属性值之间的依赖关系关联规则获取隐藏在数据项之间的关联或相互关系,即可以根据一个数据项的出现推导出其他数据项的出现频率机器学习算法算法名称算法描述C4.5分类决策树算法,决策树的核心算法,ID3算法的改进算法。CART分类与回归树(ClassificationandRegressionTrees)kNNK近邻分类算法;如果一个样本在特征空间中的k个最相似的样本中大多数属于某一个类别,那么该样本也属于该类别NaiveBayes贝叶斯分类模型;该模型比较适合属性相关性比较小的时候,如果属性相关性比较大的时候,决策树模型比贝叶斯分类模型效果好(原因:贝叶斯模型假设属性之间是互不影响的)SVM支持向量机,一种有监督学习的统计学习方法,广泛应用于统计分类和回归分析中。EM最大期望算法,常用于机器学习和计算机视觉中的数据集聚领域Apriori关联规则挖掘算法K-Means聚类算法,功能是将n个对象根据属性特征分为k个分割(k