博舍

奇点大学人工智能讲座:AI如何增强人类能力 奇点人工智能科学实验室怎么样

奇点大学人工智能讲座:AI如何增强人类能力

每几个月举行一次总裁项目,我们邀请了全世界的企业领导出席。项目通常有80到100个人参加,持续时间约为5天。还有一个9周长的暑期项目,2009年开始我们就一直举办,通常有80人参加。参与者常常是因为在国内获奖而获得参加项目的机会。我很骄傲的是,项目中的女性比男性数量还要多一点,男女比例越来越平衡。参与者来自40多个国家,都是最优秀的最有竞争力的学生。付费是不能进来的。该项目由谷歌和其他公司以各种形式资助。参与者住在MoffettField的NASAresearchpark园区,首先他们会对指数级技术进行几周的了解,包括AI,机器人,合成生物学,纳米技术等以及依赖这些技术的技术,比如能源,制造业,3D打印,医药。然后与其他人或非盈利机构合作建立下一代企业。他们会使用指数级组织的原则,根据众包等迅速建设和扩大机构的规则组建团队。然后致力于解决气候变化,教育,贫穷,全球健康,能源,安全等重大挑战。应对这种大规模的问题,只有指数级科技有能力提供解决方案。夏季项目中,每个团队中的学生可能至多20个,会有大量教员和职工辅导。然后如果他们符合某些选拔标准,可能会去参加一个园区的孵化器项目。每年都会出现几个成功的企业。我们很骄傲能有这个项目,而且情况越来越好。

High:SalimIsmail所著的《ExponentialOrganizations》一书提到,AI和算法可以用来减弱和弥补人类认知能力中启发(heuristics)的不足,比如锚定偏差,能力偏差,确认偏见,成本偏差等。作为AI专家,能否解释下这个想法,以及AI和算法如何应对这些问题?

Jacobstein:现在虽然有几种AI辅助人类的方式,但未来会更直接,AI将成为人类决策制定的伙伴。可以想象,如果一个企业会以证据为基础制定决策,而不是依赖经理们和董事会自己一大把的想法,那么他们可能会用AI进行模式识别,这样可以更好地避免偏差,关注到人类自己难以观察到的模式。

AI可以用来识别人们论断的反事实。如果你有一个决策制定所需的问题表,你就可以识别反事实,使用AI构建一个模型,然后标出证据链中所有的薄弱环节。25年前,NASA挑战者号就是这样,好几次拖延发射,人们压力很大,当时天气也很寒冷。一个工程师表示天气寒冷的情况下,O形环可能失效,给运载火箭带来风险。测试结果也表明发射的压力比正常情况下要大。但Morton-Thiokol和NASA的一些代表仍然决定按原计划发射,导致后来7个飞行员全部牺牲。这场灾难过后,NASA重新检查了发射建议协议,改变了决策制定流程。他们并未立即使用AI技术,而是使用了性能优良,而传统的人类决策流程,并且更加细心。我相信,未来人们可以借助于模拟技术和人工智能检验人类的假设。我越来越觉得着这一定会发生,当然,军队已经使用这项技术很久了。

High:媒体中很多人都用“人类Vs机器人”这样的字眼。你曾说人类的大脑新皮层像餐巾纸那么大,在过去50000年来都没有变化,通过使用AI等新兴技术,有望演变成桌布般大小甚至更大,可否再说下你这个观点?

Jacobstein:澄清一下,过去50000年来人类大脑有所变化,但变化很慢。基本架构维持不变,而且人类大脑结构的历史不止50000年。大脑会在不同的环境下演变。几百万年前和50000年的自然选择压力与今天我们看到的绝对不同,现在对信息处理的需求非常多,我们真的需要有一些办法提升能力了。

“更大的晚餐桌布”指新皮层的表面积大小而不是整个大脑的大小。我说增大新皮层表面积,不是指让大脑的表面积增加,而是人类模仿新皮层或其行为的能力会增加,这些行为包括模式识别行为和问题处理行为等。一旦构建了人工新皮层,就可以在虚弱的部分扩大其面积,让人工新皮层达到桌布,房间,城市的大小甚至更大。也就是说,可以已有的计算机构将其人工扩大。

High:如果我理解正确,你是说人类的心智会和技术协同工作,而技术可以让我们以一些真正有趣的新方法处理问题。

Jacobstein:是的。我想告诉人们的是,他们应该将AI看做一种增强能力,看做人类信息处理的合作伙伴。AI有其他优势,如速度更快,处理信息更多,保留时间更久,内存更大等,人们可以利用它增加自己决策制定的能力和大脑的能力,而不用换一个大脑。或许我们可以用合成生物学换大脑,但是我认为目前提高大脑能力实用的方式是使用机器学习。

High:通过在奇点大学工作,你见了AI和机器人产业中很多高端机构,他们用很多有趣而让人激动的方式进行着创新。我们讨论的还处于初期阶段,然而很多例子都表明,技术正在带给我们价值。对于更传统的企业中的科技总监来说,你会给他们什么建议实现AI?你有没有见过没有AI投资或部门的大型机构开始与AI行业内的企业合作?目前状况如何?

Jacobstein:我是斯坦福大学的访问学者,还为纽约西奈山的HarrisCenterforPrecisionWellness德勤等机构做顾问。大约过去25年来,我曾见过很多用AI技术以各种方式提升业务能力的案例。

其中一个与改变用途药品有关。如果你能获取肿瘤序列和癌症患者的基因,就可以用机器学习寻找靶点,即细胞表面抗原(不同地方的肿瘤的细胞表面抗原相类似)。你或许会发现,如果一种药物对应某个目标细胞,而同一个肿瘤家族迁移后,如果细胞表面抗原相同,那么你可以改变使用该药物的方式,在这里也使用它,会得到同样的效果。这是斯坦福大学JoelDudley和AtulButte的杰作,已被验证成功多次,Joel现在仍然在进行研究。

还有好几个关于消费品公司的例子,这些企业需要购入各式食物和饮料,以及大量大豆,坚果等农产品,他们可以用AI改变购物比例,完全根据顾客的想法维持食物的酸度,香气等,根据市场中的价格购买不同商家的豆类。消费品和工业产业种类繁多,使用AI和机器学习有望让业务更高效。

还有一个广泛应用AI的例子是“金融科技”(fintech)。每年六月左右,奇点大学就会开一场关于指数级金融的会议,探讨金融产业应用AI和机器学习帮助人们做决策的案例,而这些技术是否能够帮助贸易商以光速作出金融决策,或帮个人得到真正有用的建议,则是由企业的参数选择和风险概况决定的。几乎所有的大型金融机构都会使用这些所谓的“机器人顾问”。比如嘉信理财(CharlesSchwab)启动系统的时候,使用金融建议的客户提升了20%,而且很多是新客户,这是机器人顾问的力量。这样的例子有很多。

High:这些案例很精彩。最后这个例子让我想到,很多情况下科技都在取代人类的工作。我觉得,曾经是金融咨询师的人,该做与科技互补的工作应该不会感到困难。然而,我感兴趣的是,你曾提到的这些创新可能会导致工作流失,你认为人们怎样如何思考这件事,政府应该承担怎样的责任。

Jacobstein:我认为我们需要谨慎而积极地进行规划,不能恐慌或者歇斯底里,我认为人们经常不积极面对。你可以将AI当作一种增强。很多时候人们需要和其他人一起做决定,他们会谈谈自己的家长里短,未来规划等,而AI还不能理解家庭状况,声音音调,还有人类沟通的微妙性等。因此很多机器人金融咨询师都被贴上了金融机构的白标(指一方提供产品,由另一方用自己的品牌进行销售),客户的前台界面则是由机器人咨询师增强的人类咨询师提供服务,这样效率会提高,咨询会更深入,因此有一些金融咨询师会失去工作,但不是所有人。

谈谈那些失去工作的人。我认为对于有工作的科技人员来说他们可能并不担心,但这个问题很重要。过去人们从农场转到工厂的时候,只是重新组织大脑和肌肉做不同的事情,工作需要的体力减少,而使用更多智力。工人们在工厂中培训以后可以过渡地很好。后来又发生了工厂到白领工作的转变,同样地体力劳动再次减少,而所需的培训教育等再次增多,做白领工作的人越来越多。

如果说白领工作趋势也会改变,我认为那个时候人工智能将会以合伙伙伴的角色,帮助人们大幅度提高工作能力。这是个可行的方式,意味着很多人将继续自己的工作。然而,这也意味着做(特别是在常规工作与需要高级技能的工作比例较高的发展中国家)常规工作的人面临的被自动化取代的风险更大。我认为,关键问题是,人们要进行关于机器的培训,学会与机器合作,增加人类的认知能力,而不是一味地与其竞赛。我认为如果人们能够这样做,同时政府更积极地为人们提供普及教育,而且网络和AI技术让这种教育越来越便捷,我们将能够更好地适应新工作和创造新的工作。我认为我们能让人们有这样的观点,创新能够带来更多可能性。还有很多领域充满创造新工作的潜力,比如改善环境,包括海洋状况等,可以有更多的人去清理海洋垃圾,照顾老人,小孩等。因此如果我们更有创造力,更加积极,我们还有很多事情要做。

AI,机器人,合成生物学甚至纳米技术,精密制造等各种指数级技术,将会创造出无数财富分享给需要的人们,我并不是说共产主义或者均分主义。人们工作越投入,就会有更有创造力。我认为在资本主义系统中人们非常需要被奖励,我就是一个资本主义者。但我认为需要为人们设好底线,确保人们能够接受一流的教育和医疗。科技在这方面发挥着重要的作用,比如AI通过移动健康应用让医疗更加便捷,3D打印技术有助于临时庇护所的建造等。虽然世界上的财富仍然不会平均地分配,但我们能够经济实惠地为人们提供教育,医疗,庇护所,会有更多高效的工具,不再缺少必要的物资。对每个人来说,世界将会更稳定和安全。

我们有很多人过着疲困疾苦的生活,导致很多人成了激进分子,这对他们自己和富裕的人都不好。我认为确保每个人都有好的生活是有远见的想法,长远来看对每个人都有利。

High:你提到很多人都不同程度地担心AI的安全问题,比如思想先锋马斯克,霍金,NickBostrom(牛津大学哲学家)等。你认为目前这些担忧有夸大吗?

Jacobstein:我认为Nick并不是要拉响AI的警铃,人们经常会错误理解其中的差别。他说的是未来超级智能的能力,他并不是说不能研发AI,而是应该更积极主动地将工程安全特征放到系统中,让机器听从人类指挥而不是自行其是。

去年1月在波多黎各的圣胡安,他,马斯克和JaanTallinn一同举行了一场会议,邀请了约50名AI研究人员。我们花了3天时间思考AI的风险,探讨可以直接解决问题的方法。我们确认了四个关键的研究领域。一个是查证(verification):确认AI软件非常精确地符合某个具体规格。第二是验证(validation):用数学证据确认规格本身有效,没有有害的行为漏洞。第三是安全(security):保护系统不会受到来自内部和外部的攻击。第四是控制(control):设计之初假设某个功能会出错,在不同的层面准备十几个冗余的方式重新设置控制指令。

安全工程不止这些方面,但这是个很好的开始。成为这些强大的技术领域的企业家和管理者,应该仔细思考AI的伦理性以及安全性。合成生物学,纳米科技,机器人等也是如此,每种技术都有正面与反面,我们需要取其精华去其糟粕。

超级智能方面目前的难题是,我们希望能够有超快的相应速度,也就是说我们将会让AI监控AI。这并不奇怪,我们已经这样做了。电脑上的抗病毒软件,就是监控AI代码片段即病毒的代码。目前虽不完善,但总的来说我们已能相对安全地操作计算器械和网络,虽然还有某些人试图构建恶意软件攻击这些系统。好的一方面是,创造世界保家卫国的人,比想破坏世界构建恶意软件或AI的人要多的多。基于这个比例,我认为可以这样做。我们不会居住在一个完美的世界,但坦白说,我认为会居住在一个比今天要好的多,干净的多,更加安全和健康的世界中。

High:作为一个对人工智能作出如此多思考,认为常规工作可能被科技取代的人,我想知道,在你自己的生活中,这些将会以什么形式体现。你会思考让科技做你一直做的事情?你在创新世界中的洗礼,对你日常生活有怎样的影响?

Jacobstein:很久以前,我就开始不再认为AI和机器智能只是一种工具,必须把什么都教给它的。如果还要提供一个标准的工具箱,有电钻,有扳手,斧头,那么基本上你也贡献了所有的脑力。通过使用AI和机器学习,我们能够将工作发放给这些系统,还可以控制不同任务的级别,提高任务的多样性。这点已经体现出来了,人们可分配的任务种类越来越多。当今的助理技术还比较基础,如Siri,谷歌的Now,亚马逊的Alexa,或者微软的Cortana。它们可以为用户做查找等相对简单的事情。有一个日程助理Amy可以执行相对复杂的行程安排任务,但还不熟练,最终一定会有应用达到这个水平。我认为我们逐渐不再将AI当成工具,而是视其为助理或同事。

很久以前,美国空军有一个名为Pilot’sAssociate的项目,其中大多数的飞行任务都由AI接管。现在我们的注意力转移到了汽车。比如我的特斯拉汽车,使用的是初级指令或简单的无人驾驶功能,并未完全自动化,我还不能直接跟它说带我到某处。谷歌无人驾驶汽车是真正的无人驾驶,能够以更高的安全记录执行人类之前操作的任务。谷歌的无人驾驶汽车已经总计安全行驶了100多万英里。目前美国每年都有33000人死于车祸,全世界则为120万人,但这些事故很多都是因为醉酒驾驶或者开车分心,都可以避免。使用AI技术我们可以大幅度地削减这个数字。商业航线的很多驾驶员都让自动驾驶功能执行大部分飞行任务。

High:很棒的例子。正如你跟那些有意应用这些技术的企业主管讨论的一样,你会建议IT工作者进行那些培训?

Jacobstein:是的,企业可以做很多事情。其中一个就是,进入到某个创新团体中,比如奇点大学的针对企业的LABS项目等,在这里,他们会与极具创新能力的团队生活在一起,时刻探讨着简明高效的创意,还会获得指数级创新或与指数及创新有关的严格的指导方法。

另外一个就是,他们可以请对AI有兴趣的人参加我们的项目面向企业总裁的项目或暑期项目等,或者去参加我们在世界各地举办的峰会,还有很多别的机会。比如,Coursera,Udacity,KhanAcademy,EdX上都有很棒的AI项目。通常情况下这些项目免费开放,用户可以付费获得认证。你在家就可以下载R编程套件学习,使用平板电脑学习机器学习。如果你没有对应的编程技能,可以使用Rstudio处理R套件的一些问题。有很多办法可以开始学习。还可以使用IBMWatson等面向多领域的高效平台,或者使用Sentient,Viv实验室(还在研发,但我认为将来可以使用)等。平台的意义在于,大量的基础设施编程都已准备好。如果你在企业工作,可以做更高级别的事情,比如解决特定问题时使用Watson,Sentient这些系统,大规模地处理问题,得到全局的解决方案等。我认为,有很多机会可以在该领域快速进步,而且可以既安全可靠又价格实惠。很多企业有内部顾问师,比如通用电气有一个非常棒的AI团队,现在几乎所有的汽车公司都有自己的AI团队,福特,丰田等也有。而且这些公司通常有实验室项目,其他与AI不相关的部门的人可以与实验室合作一起解决问题。

High:那么在这种机遇与危险并存的情况下,个人应该如何未未来做准备,比如说你会建议有孩子的家长应该做些什么?

Jacobstein:我认为家长可以鼓励孩子,发展对学习的喜爱,这应该是最重要的,还要发展他们的批判性思维。我认为不管是在吃饭,坐车旅行还是在森林中漫步都可以开始这种训练。让他们形成习惯。还有,帮助孩子提高问问题,设计全新问题的能力,学校在这方面做得不好,学生不知道抛出一个掷地有声的问题需要什么。我认为如果对其进行教导,孩子们完全可以做到。

指数级科技不断到来的世界中,还有一件事情很重要,孩子应该接受扎实的STEM教育,即科学,科技,工程,数学。我还想加上道德规范学。我注意到,新的一代人已经长大,但没有在学校中学到关于道德的知识,因为学校通常没有这种课程。他们不再去主日学校(基督教教会为了向儿童灌输宗教思想,在星期天开办的儿童班),吃饭的时候有时候没有礼貌,他们能去哪里学习道德知识呢?如果没有这方面的教育,我们的社会将会面临问题。因此我认为应该在孩子小的时候就培养他们的道德素养,不一定以宗教的形式,但是要根据日常市场生活中的例子和未来的情况进行教育。奇点大学为企业高管开放的工作室,和为学生开放的GlobalSolutions暑期项目中都有教授这种课程。

还有一个方面是,人们经常会问如果AI失去人类控制怎么办。我曾提到有一个团体正致力于这个问题,是一个名为AAAI(AssociationfortheAdvancementofArtificialIntelligence)的道德委员会。该协会中有人在写关于的安全工程的书籍或文章,让人们知道AI界并没有忽视这些问题。但我们还要知道,好莱坞电影很擅长吓人,因为人们喜欢害怕时内啡肽带来的刺激,喜欢让自己的神经系统经历一个半小时的过山车,这也是电影能卖票的原因。人们需要意识到,好莱坞电影描写AI的时候并不会以现实和客观为基础。人们经常问我是什么支撑着我晚上还能工作。我告诉他们我晚上熬着夜不是在担心AI或机器学习。我会熬夜思考人类的愚蠢,自私和不理性。正确地处理这些问题很重要,我们需要坚定地支持那些以理性和符合道德的方式处理问题的人。如果我们能够坚持这样做,我们的人工智能也会很有可能有这样的表现,特别是我们的安全工程也很优秀的时候。

欢迎报名6月28日创新项目微信群路演,面对近百位著名投资人展示

第一期“创新项目与风险投资家见面会”将在6月28日举行,AIE实验室欢迎创新科技项目负责人届时参加风险投资家微信群项目路演,报名请点击本文左下角”阅读原文“

AIE实验室邀请近100位著名风险投资家和天使投资人加入创新项目展示群,其中包括高榕资本合伙人张震、英诺基金创始合伙人李竹、峰瑞资本创始人李丰、真格基金创始人徐小平、360公司创始人周鸿祎、猎豹移动CEO傅盛、软银赛富投资基金合伙人羊东、老鹰基金创始人刘小鹰、前北京联众总裁,著名天使投资人鲍岳桥、罗辑思维创始人罗振宇、美团网创始人兼CEO王兴、诺基亚成长基金董事总经理及合伙人邓元鋆、紫牛基金合伙人张泉灵、金沙江创业投资基金合伙人朱啸虎等人。

创新项目获得风险投资关注

报名请点击本文左下角”阅读原文“

人工智能学家Aitists

人工智能学家是权威的前沿科技媒体和研究机构,2016年2月成立人工智能与互联网进化实验室(AIELab),重点研究互联网,人工智能,脑科学,虚拟现实,机器人,移动互联网等领域的未来发展趋势和重大科学问题。

长按上方二维码关注微信号Aitists

投稿邮箱:post@aitists.com返回搜狐,查看更多

人工智能“奇点”在即普通人该怎么办

(聚焦博鳌)人工智能“奇点”在即?普通人该怎么办?

中新社博鳌3月31日电(记者王晓斌)人工智能已经面临超越人类智慧和潜力的“奇点”了吗?在人工智能技术“爆炸式”发展的今天,普通人该如何面对?31日在博鳌亚洲论坛2023年年会上,中国的行业领袖分享各自思考。

从最早的规则计算、专家系统,到最近5年的深度学习、大模型,人工智能在认知层面的每一次重要产品发布或者技术进步,都会引起人们极大关注。当前,以ChatGPT为代表的新一代人工智能写文章、编代码、生成图片……看起来无所不能且快速迭代成长。如何判断最近人工智能领域的突破?

“从机器的视角看,人工智能可能根本就不知道你在问什么、它在回答什么。因为现在的人工智能产品基本上都是沿用过去60年以来相关领域的理论技术和框架,没有突破。”小i集团董事局主席兼首席执行官袁辉认为,人工智能的“奇点”不是当下,也不会是ChatGPT这样的产品。

即便如此,袁辉判断,未来10年是人工智能经过60年积累之后,相关技术的红利变现期。未来20年内,人们将看到人工智能“奇点”的到来,“几年前我们在博鳌讨论AlphaGo等人工智能的时候,普遍认为通用人工智能在短时间内不可能出现,今天反而有一些学者和科学家要求暂缓人工智能的发展”。

“当前版本的人工智能不是具有人类情感的智能体。”华为云人工智能领域首席科学家田奇介绍,人们开发人工智能就是想要机器具备通用的能力。当前技术的发展,“让我们看到这种通用人工智能诞生的曙光”。田奇认为,人工智能未来既像水和电一样,成为基础设施的一部分,也会像电脑从实验室大型机转变为个人设备一样,成为人人都拥有的产品。

就像自动驾驶技术的成熟会让一批职业司机失业,通用人工智能也将取代不少人的工作岗位。除了“饭碗”被抢的担忧,普通人该如何面对越来越强大的人工智能?

平安银行行长特别助理蔡新发注意到,当前一些人工智能产品在金融知识的广度上,已超越八九成金融服务领域的从业人员,人工智能势必重洗包括金融业在内的所有行业。蔡新发建议,在吃穿不愁的前提下,普通人应该做好自己,发展自己。企业需在利用人工智能创造正面产品的同时,与政府、社会一道,防止人工智能产生不利的影响。

“人类历史上所有的科技发展,都会对社会结构产生或多或少影响。如汽车的发明使马车夫成为历史,通信技术发展,过去挨家挨户送信的邮递员也成了边缘职业。”清华大学公共管理学院院长朱旭峰说,从人类长期的发展格局上看,每个人都会有自己的位置,对于普通人来说,需要不断学习,拥抱新的技术。

“从早上睁眼到晚上闭眼,你应该自问这一天像是一台机器还是更像一个人。如果更像机器但是能力又不如机器,我们应该怎么做呢?”袁辉认为,每一个个体和每一个群体都应回到人的本位上去,“我们做好‘人’本身,一定会继续保持人类生活的美好”。(完)

【编辑:刘阳禾】

人工智能70年:科幻和现实的交融

人工智能70年:科幻和现实的交融2019年6月10日图像来源,MEHAUKULYK/SCIENCEPHOTOLIBRARY

图像加注文字,

人工智能学科的奠基石之一是1940年代美国神经科学家和逻辑学家联合提出的神经元数学模型

人类飞跑着进入人工智能(AI)时代。粗略估算现在人们日常生活中有20多种寻常的AI,从垃圾邮件过滤器到叫车软件。

AI被分为两类,这些执行具体任务的AI属于“弱人工智能”;另一类“强人工智能”,又称“通用人工智能”(AGI),能够模仿人类思维、决策,有自我意识,自主行动。这一类目前主要出现在科幻作品中,还没有成为科学现实。

人工智能的起源可以追溯到哲学、虚构和想象。

作为计算机科学的一个分支,人工智能学科只有大约70年历史,不乏跌宕和学术门派之争,定义含混和因此造成的困惑、迷思仿佛层峦叠嶂,科幻和现实经常相互越界。

AI研发史上经历过两次“寒冬”,2018年人们又开始谈论第三个AI寒冬将至的可能性。

人工智能正在如何改变我们的生活?它将把我们带向何方?人类和机器的关系如何界定?看懂现在,展望未来,或许可以从回顾历史开始。

聊天机器人最难理解的十大词汇假如人工智能(AI)有灵魂:这意味着什么AI和媒体机器与记者编辑的多重关系人工智能面临的最大挑战不是技术?图像来源,AFP

图像加注文字,

古希腊荷马史诗中的铜制机器人塔洛斯据信是世界上第一个拟人机器人。托马斯·布尔芬奇一本关于希腊神话中的神祗和英雄故事的书(1920)中塔洛斯的彩色插图,插图作者是西贝尔·陶斯(SybilTawse)

古老的梦地球上第一个行走的机器人叫塔洛斯,是个铜制的巨人,大约2500多年前在希腊克里特岛降生在匠神赫菲斯托的工棚。据荷马史诗《伊利亚特》描述,塔洛斯当年在特洛伊战争中负责守卫克里特。诸神饮宴时有会动的机械三足鼎伺候。

埃德利安·梅耶(AdrienneMayor)在《诸神与机器人》(GodsandRobots)甚至把希腊古城亚历山大港称为最初的硅谷,因为那里曾经是无数机器人的家园。

除了古希腊、罗马,其他古文明也不乏人类对"复制自己"的探索。犹太人传说中有生命的泥人,印度传说中,守卫佛祖舍利子的机器人武士(模仿古希腊罗马自动人形机的设计);佛教传入前日本的神照神社,中国的兵马俑,后来又有了达芬奇的机器人武士、会下象棋的木头人"土耳其",等等。虽然跟现在一般理解的人工智能似乎风马牛不相干,但这些尝试都体现了人类复制、模拟自身的梦想。

不过,法国索邦大学计算机学教授让-加布里埃尔·加纳西亚(Jean-GabrielGanascia)认为,古代神话中人形物体被赋予生命,与今天人们想象和担忧的“通用人工智能”,即具有超级智能的机器,都更多属于想象而不是科学现实,至少目前如此。

在开创人工智能学科的先驱者心目中,AI的初衷是用机器来模拟人类、动植物和物种种群的演变,这个学科立足于这样一种猜想:所有认知功能都可以被精确描述,从而有可能在计算机上复制。

作为现代科技学科的AI历史很短,但不乏跌宕坎坷。

“无头尸”引发争议:杀死机器人是否可能人工智能公司为什么要不停的砸玻璃?“柔情”机器人:人类怎么对机器人动了真感情图像来源,ktsimage/GettyImages

1940年代——奠基1943年,美国神经科学家麦卡洛克(WarrenMcCulloch)和逻辑学家皮茨(WaterPitts)提出神经元的数学模型。后来有人说现代AI梦就诞生在那个时候。

那个梦是一篇题目绕口的论文,《神经活动中内在思想的逻辑演算》(ALogicalCalculusofIdeasImmanentinNervousActivity)。这篇论文被视为人工智能学科的奠基石。现在大热的“深度学习”,前身是人工神经网络,而其基础就是神经元的数学模型。

这篇论文的发表也标志着人工智能学科三大派之一的仿生学派诞生。这个学派从神经网络的连接机制着手来发展人工智能,被称为连接主义派,后来符号逻辑派占上风几十年,神经仿生派一直到二十世纪八、九十年代才翻身,以新连接主义面目复兴。

AI的另一块基石是加拿大神经心理学家赫布(DonaldHebb)1949年提出“赫布规则”,简单说就是两个细胞如果总是同时被激活,那么它们之间就有某种关联,关联度与同时激活概率成正比关系。这个规则今天用在机器自动学习算法中。

80年前有个机器人叫罗伯特会抽烟人工智能:机器人的科幻版vs现实版来见识一下机器人摩托车赛车手机器人刺秦皇—香港动画人的科幻狂想图像加注文字,

英国数学和密码奇才图灵曾设想是否可能让机器模仿人脑的学习过程

1950年代——起步现在人们普遍把1956年叫做AI元年。人工智能作为一门学科,在这个时期起步并取得了早期成功。

图灵和图灵机

英国电脑奇才、密码学家、逻辑学家、计算机与人工智能之父图灵(AlanTuring)曾想,机器能不能模仿人类的认知、学习过程,用逻辑推理和已有的信息来解决问题,作出决定?他1936年提出图灵机的设想,就是一种抽象计算模型,实质上是一种数学逻辑机。

1950年,图灵发表《计算机与智能》(ComputingMachinerayandIntelligence)论文,文中阐述了"模仿游戏"的设想和测试方式,就是后来大家熟知的图灵测试。这篇文章是对机器模仿人类智能的深度思考和系统论述。

达特茅斯人工智能夏季研讨会

人工智能(artificialintelligence)这个词1955年首次亮相。当时4位AI鼻祖写了一份提案,申请开一个研讨会研究人工智能。他们估计两个月,10个人参加,就足以取得重大突破。他们是麦卡锡(JohnMcCarthy)、明斯基(MarvinMinsky)、罗切斯特(NathanielRochester)和香农(ClaudeShannon)。

申请获准,暑期研讨会于1956年8月31日在新罕布什尔州达特茅斯学院召开。

研讨会被普遍视为人工智能作为一门学科的创立,所以这一年算AI元年。

图像来源,PETERMENZEL/SCIENCEPHOTOLIBRARY

图像加注文字,

明斯基是人工智能先驱之一。他1951年与同事一起设计制作了世界上第一台神经网络学习机,模仿的是人类脑细胞。他后来推动设立了MIT人工智能实验室,1985年又发起并成立了MIT的媒体实验室。明斯基毕业于哈佛大学。

早期成果

AI元年后,喜讯不断。1957年,GPS(通用问题解决器)设想问世。这个设想的原理是任何形式化的符号问题都可以用这个电脑程序来解决。提出设想的是美国卡内基梅隆大学教授、认知心理学和计算机专家纽厄尔(AllenNewell)、西蒙(HerbertA.Simon)和肖。这个设想属于逻辑、符号派。在短短60年时间里也经历了冷暖。

1959年,麦卡锡提出世界上第一个完整的AI系统。那是他在《具备常识的程序》中提出的能像人类一样学习的假想程序,"AdviceTaker"。同年,他和明斯基牵头在MIT成立了人工智能实验室。

也是在这一年,塞缪尔首创了机器学习这个概念。他1956年写的跳棋程序具有自学能力,是世界第一个。

人工智能:吓坏创造者的“深度造假写手”机器人能否终结令人抓狂的客服电话?养老危机:将来陪伴你的可能是机器人图像加注文字,

BBC科幻电视剧《神秘博士》里的盗梦故事

1960年——伊莉莎1961年,世界第一款工业机器人Unimate在美国新泽西的通用电气工厂上岗试用。1966年,第一台能移动的机器人Shakey问世,就是那个会抽烟的机器人。跟Shakey同年出生的还有伊莉莎。

1966年问世的伊莉莎(Eliza)可以算作今天亚马逊语音助手Alexa、谷歌助理和苹果语音助手Siri们的祖母,可以跟人进行书面交流。

“她”没有人形,没有声音,就是一个简单的机器人程序,通过人工编写的DOCTOR脚本跟人类进行类似心理咨询的交谈。Eliza的“父亲”,后来成为MIT教授的维森鲍姆(JosephWeizenbaum)解释说,用这个名字,是因为人们可以教这个程序学习掌握新的语言技能,谈吐越来越优雅,就像《窈窕淑女》里被调教得十分出色的卖花姑娘伊莉莎。

伊莉莎问世时,机器解决问题和释义语音语言的苗头已经初露端倪。但是,抽象思维、自我认知和自然语言处理功能等人类智能对机器来说还遥不可及。

半个多世纪后的今天,机器人索菲亚仍需依靠事先输入的内容才能与人交流,但能说能笑能哭,而且是美女形象。

图像加注文字,

《窈窕淑女》中的伊莉莎出身贫穷,但在希金斯教授的调教下成了谈吐优雅的“窈窕淑女”。

批评声鹊起

这个时期出现了对人工智能的尖锐批评。

《炼金术与人工智能》发表于1965年,作者德雷弗斯把这篇著名的檄文跟后来陆续写的文章集成《计算机不能干什么》一书,后人凡批评AI必提此书。

另一个刺耳的声音来自古德(I.J.Good)。他1965年发表了一篇对人工智能未来可能对人类构成威胁的文章,可以算“AI威胁论”的先驱。他认为机器的超级智能和无法避免的智能爆炸最终将超出人类可控范畴。后来著名科学家霍金、发明家和实业家马斯克对人工智能的恐怖预言跟古德半个世界前的警告遥相呼应。

法国计算机学家加纳西亚把这段时间称为AI发展史上的"预言者时期",因为学科初创并取得早期成果令人欣喜,难免说些头脑发热的话。

流传较广的包括美国经济学家西蒙(HerbertSimon司马贺)1958年预言,再过10年机器就能问鼎国际象棋世界冠军;结果是1997年才成真。另外,AI鼻祖明斯基在1968年《2001太空漫游》记者会上说机器智能30年内可赶超人类,现在只是设想。

1968年,科幻大片《2001太空漫游》上映,导演库布里克对人类心灵深处那个古老的渴望做了太空时代的演绎。

图像来源,EMI

图像加注文字,

库布里克的《2001太空漫游》1968年上映

1970年代-机器人问诊1970年,世界第一个拟人机器人WABOT-1在日本早稻田大学诞生。

除此之外,这段时间AI领域基本上是埋头科研,主要侧重研究机器模拟记忆心理学和理解机制、知识和推理。因此,这个阶段AI语义知识表示技术有长足进展,进而推动了专家系统的研发。

专家系统利用一流专家的知识来再现他们的思维过程;从1980年代早期开始在医疗诊断和其他一些领域广泛应用。

1972年,针对细菌感染的医疗诊断系统MYCIN问世,准确率69%,专科医生是80%。1978年,用于电脑销售过程中为顾客自动配置零部件的专家系统XCON诞生。XCON是第一个投入商用的AI专家,也是当时最成功的一款。

1979年,斯坦福大学开始研发自动驾驶技术,但世界上第一次无人驾驶汽车完成首秀是在1986年;那是一辆奔驰面包车,德国联邦大学研制,车上有摄像机和感应装置。它在无人的街道上行驶速度达55mph。

1980年代——《终结者》数据和知识积累推动计算机学习算法发展,使机器能够利用自己的经验自动调整编程,AI的应用突飞猛进,如指纹、语音识别等。人工智能、计算机和人造生命开始和其他学科交融,生出混合系统。

1984年,美国普林斯顿大学教授、物理学家、分子生物学家和神经学家霍普菲尔德用模拟集成电路实现了自己两年前提出的神经网络模型,这个模型带动了神经网络学派的复兴。深度学习大热并取得突破。

视频加注文字,

机器战警设计者的真实世界机器人

同年,深度学习"三巨头"辛顿(GeoffreyHinton)、本吉奥(YoshuaBengio)和杨立昆(YannLeCun)发表反向传播算法论文,开启深度学习潮流。

那年,卡梅隆大片《终结者》上映,作家布鲁克斯(RodneyAllenBrooks)发表《大象不下棋》,提出更高层次的AI系统设想:在与环境互动的基础上打造人工智能。

人工智能三大源头之一,哲学,又站到聚光灯下。1981年,美国哲学家、数学家与计算机科学家普特南(HilaryW.Putnam)发表《理性、真理与历史》,提出著名的“缸中脑”假象试验。

这本身是一个哲学命题,缸中靠营养液存活、通过电脑接收各种刺激而产生感知的大脑,实际上就是虚拟现实。这个假想为人工智能提供了启示,也引发了对人工智能的哲学思考,也催生了许多科幻作品,比如《盗梦空间》、《源代码》和《阿凡达》。

图像来源,TristanFewings/GettyImages

图像加注文字,

来自日本的拟人机器人Alter会学跳舞。图为伦敦巴比肯中心“AI:超越人类”展览上的Alter。

AI的两个冬季1974-1980年,1987-1993年,AI遭遇两次寒冬。

第一次是因为两份学术报告发表,导致AI领域研究经费锐减。一份是1966年在美国自动语言处理顾问委员会(ALPAC)的《语言与机器:翻译和语言学中的计算机》(LanguageandMachines:ComputersinTranslationandLinguistics),另一份是英国莱特希尔教授(SirJamesLighthill)1973年发表的《人工智能普查报告》。这两份报告都表达了对先前的投资未能产生预期受益的失望,结论是不应该继续往AI这个无底洞砸钱。

不过,一线的科研仍在继续,但直接说AI的少了,诸如机器学习、信息数学、基于知识的系统和模式识别之类新词开始涌现。

出现第二个冬季则是因为桌面电脑迅速普及,AI系统的金主,包括美国国防部,觉得投资AI性价比不高,兴趣大减。但到20世纪末,AI领域再度春暖花开。标志性事件是1997年IBM深蓝大胜世界象棋冠军卡斯帕洛夫。

历史上这两次“钱荒”,跟AI研究资金来源较单一,主要来自政府给学术机构的科研拨款。随着AI产业化加深,越来越多研发资金来自企业。但AI领域内部的混乱、门派纷争、各自为政的问题依然存在。

视频加注文字,

“深度仿冒”情色视频正在崛起

1990年代——聊天机器人1990年代后期,人工智能与机器人和人机界面结合,产生了具有情感和情绪的智能代理,情绪/情感计算(即评估情绪的变化然后在机器上再现)得以迅速发展,尤其是对话代理(聊天机器人)。

1993年,维诺尔·温奇发表《即将来临的技术奇点》(TheComingTechnologicalSingularity)一文,预言30年后人类将能够创造具有超级智慧的机器,由此走上人类终结之路。这个时刻就是后来很多人说的“奇点”。数学家霍金和企业家马斯克都是机器终结人类说法的信众。

但对于这个奇点究竟是否存在目前仍有不同看法。

1997年,IBM的深蓝超级电脑击败世界象棋冠军卡斯帕洛夫,西蒙1958年的预言算是实现了,尽管晚了近40年。

21世纪——深度学习进入21世纪,许多人工智能的能力已经超越人类,比如围棋、德州扑克,比如证明数学定理,比如学习从海量数据中自动构建知识,识别语音、面孔、指纹,驾驶汽车,处理海量的文件、物流和制造业的自动化操作。

机器人可以识别和模拟人类情绪,可以充当陪伴和护理员了。AI的应用也因此遍地开花,很快进入人类生活的各个领域。

深度学习和强化学习成了时代强音。

一个普遍认同的说法是,2012年的ImageNet年度挑战开启了这一轮AI复兴浪潮,把深度学习和大数据推到前台,大量投资资金涌入。ImageNet是为视觉认知软件研究而设计建立的大型视觉数据库,由华裔AI科学家李飞飞2007年发起;她当时是普林斯顿大学教授。

ImageNet挑战是每年一度的全行业比武,比谁家的电脑视觉算法最强。2012年夺冠的多伦多大学团队的图像识别软件AlexNet错误率比第二名低10.8%。观察人士总结秘密武器有3个:大数据、更强的电脑、更聪明的算法。

李飞飞现为美国斯坦福大学教授、斯坦福大学人工智能实验室与视觉实验室负责人、谷歌云人工智能和机器学习首席科学家,斯坦福以人为本人工智能研究院共同院长。

另一个值得一提的名字是樊麾,生于中国,围棋手,职业二段,现任法国围棋队总教练。他2015年10月与谷歌人工智能AlphaGO较量0:5败于对方。他对BBC中文网表示,输给机器的感觉终身难忘。

音频加注文字,

职业围棋手樊麾败给阿尔法狗之后的感悟

过去10年中,人工智能开始写新闻、抢独家,经过海量数据训练学会了识别猫,IBM超级电脑沃森战胜了智力竞赛两任冠军,谷歌阿尔法狗战胜了围棋世界冠军,波士顿动力的机器人Atlas学会了三级障碍跳。沃森和阿尔法狗的秘诀都是强化学习。

这个领域的镇海宝典《深度学习》2015年发表,作者辛顿、本吉奥和杨立昆1980年代就合写了同样开行业先河的经典论文,阐述反向传播算法,2019年获图灵奖。

不得不提的是索菲亚。2017年这个拟人机器人亮相时艳惊天下,与人交谈语言生动、深刻,沙特抢先给"她"发公民证,后来被杨立昆揭露是个骗局。

因为,索菲亚虽然具备不少先进的技术,包括仿生材料做的皮肤和逼真的面部表情,与人互动时的共情反应,但她只会说事先输入和设置的话,不具备人们以为她拥有的应用语言智能和思想意识。很快,索菲亚销声匿迹。

图像来源,SciencePhotoLibrary

图像加注文字,

进化论更新版?

現代科学诞生前,世界上有迷信,有工匠。然后科学和技术融合,科技和迷信并存;科技和迷信之间有一片宽阔地带,繁茂地生长着科幻,小说、影视和艺术。

深度学习似乎表明人类向复制自己的原始意愿又迈进了一步;人工智能的发展将继续跌宕起伏,而人与机器的关系、人工智能带来的伦理挑战日益成为AI领域的焦点话题。

音频加注文字,

樊麾:我怎么看人和人工智能的关系

有人预言,几百年后,世界上的智慧智能将由3部分组成:人类智能(AI)+人类可控的人工智能+人类不可控的机器智能。

这一切又都离不开人类文明曙光初现时一个古老的梦想。

想象和现实从来不可能一刀两断切割,科技和商业更是如影随形,但区分人工智能(AI)和通用人工智能(AGI),或许有助于减缓第三次“AI寒冬”将至的担忧和焦虑。

版权声明:本文内容由互联网用户自发贡献,该文观点仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌抄袭侵权/违法违规的内容,一经查实,本站将立刻删除。

上一篇

下一篇