人工智能变成“人工智障”,聊天机器人Bug频出要凉了
Bug问题频出聊天机器人变成“人工智障”?
类似的情况,在聊天机器人身上已经不是第一次发生。两年前,微软在Twitter上的聊天机器人Tay变成了“种族主义者”。去年,它的后续产品Zo又再次出现问题。
尽管微软通过编程让Zo忽略政治和宗教话题,但BuzzFeed的编辑尝试让Zo对某些受限话题做出了令人惊讶、充满争议的回应。在交流中,Zo将古兰经称作“非常暴力”。此外,它还对本·拉登的死亡做出评论,称抓住本·拉登是“不止一个政府多年情报收集”的结果。
到现在为止,聊天机器人依然存在着众多问题。2016年,FacebookMessenger开放其程序接口后,收到的用户反馈很少。众多机构确实可以在短时间内拥有自己的智能聊天机器人,但当此类机器人无人类干预时,应答失败率高达70%,用户体验更是相当糟糕。
从“图灵测试”到Eliza的精神治疗,聊天机器人发展至今已经走过了近70年,在漫长的发展历程中,聊天机器人并未得到真正的普及,并且依然存在着诸多弊病。
在各类问题中,复杂语言识别困难、个性化适配之痛、隐私安全隐忧成为最突出的问题。语言作为一种主观性较强的表达方式,人们说话的规则可以说是千变万化的。这和电脑程序不同,人们表达不会完全受制于规则,能够自由的遣词造句,并以此来传递信息。
除了地方方言外,每个人也会有自己独特的表达方式,例如心照不宣的“暗语”,或者某些特定的“梗”。结构化语言系统将难以满足大量用户的需求,这对聊天机器人的系统提出了更高的要求。
个性化适配问题体现在两个方面,一方面人机信任是聊天机器人个性化发展的一个攻坚点。另一方面,聊天机器人很容易对人的需求产生误读。
目前聊天机器人语音识别主要基于语音识别的基本架构、声学模型、语言模型并进行解码,而真正通过用户画像来实现个性化适配的聊天机器人少之又少。其实,不同用户的性格、特点、知识层次都不相同。如果有预设的用户画像,那出现适配失误的可能性也会大大减小。
最近,Facebook泄露5000万用户数据,成为史上最大数据泄露案,特朗普被指利用AI竞选成功,这也让更多的聊天机器人用户对自身的隐私感到担忧。“Alexa发笑”事件中,亚马逊对该事件闪烁其词,似乎用户数据已经进入了“围墙花园”模式。
语音分析和人工智能软件存在于一个黑匣子中,而这些软件只有开发人员才能真正理解。很难想象,如果将一切的智能家居与聊天机器人连接起来时,涉及到的数据、信息都存储在一个用户无法拥有也无法控制的计算机上,这将是一件多么危险的事。如果将人工智能进一步拓展到金融、医疗等领域,1%的错误率导致的可能就是财产的损失和生命的安全。
聊天机器人发展走进死胡同哪些方面需要回炉重塑?
2018年初,Facebook关闭了虚拟助理M,成了压死骆驼的最后一根稻草。M于2015年8月推出,用户可以通过Messenger得到人工智能的回复、建议等。
在推出时,Facebook为其打上了“测试”标签,但随着时间的推移,M并没有获取Facebook预期的用户量,而直到下线前,M仍然处于beta测试状态。许多互联网公司对聊天机器人已经不感兴趣了,聊天机器人的发展也走进了死胡同。
如果要要让聊天机器人重新焕发生命力,不仅需要其在自动学习中“更聪明”,还将帮助它建立起独立的三观,辨析什么是对什么是错,同时也要更为深层地引入人类世界的规则。
能够独立表达喜欢、不喜欢和偏好的性格,在聊天的过程中展示出诚实和值得信任等可贵品质,是塑造聊天机器人“独立三观”的重要体现。正如聊天机器人被引入日常生活,我们还能训练机器人去识别我们的语言,挖掘我们的喜好,甚至还能分析我们的口音,推测人类的情绪。
此外,还要让聊天机器人脱离模仿层面,进入主动思考的阶段。在此过程中,需要建立更加丰富的知识图谱。知识图谱的建立需要从静态和动态两个方面出发,真正将聊天对话场景从垂直领域拓展到开放领域。同时,构建知识图谱的重点在于语义理解、知识表示、QA、智能对话和用户建模。
作为人工智能产品的重要代表,聊天机器人在跨领域智能客服、智能呼叫中心解决方案、智能营销解决方案、智能语音交互解决方案等多个方向还是大有可为。这显然不仅是聊天机器人或个别互联网公司的任务,也是整个行业的义务。
【科技云报道原创】
微信公众账号:科技云报道返回搜狐,查看更多
为什么没有贝叶斯公式,人工智能将变成人工智障?
2019,4G将慢慢成为过去,5G正在缓缓到来,5G时代,AI(人工智能)和物联网将会成为热词,尤其是随着5G的网络延迟大幅降低,以AI为核心的物联网将实现真正的万物互联。那么AI的智力是怎么来的呢?AI的智力主要来源于贝叶斯-拉普拉斯公式,可以说是AI的大脑组成!
什么是贝叶斯-拉普拉斯公式
18世纪英国有一位英格兰长老会牧师,他很喜欢数学,所以也可以称得上是一位业余数学家,他的名字叫托马斯·贝叶斯,他为了证明有上帝的存在,发明了概率统计学原理,可惜,他到死也没有证明成功,反而因此诞生的许多概率统计学术语折磨了无数大学生。
他提出过一种看上去似乎显而易见的观点:“用客观的新信息更新我们最初关于某个事物的信念后,我们就会得到一个新的、改进了的信念。”
它的数学原理很容易理解,简单说就是你如果很喜欢去某家菜馆吃饭,那么你可能会非常喜欢这家的菜,也就是说当你不能准确知悉一个事物的本质时,你可以依靠与事物特定本质相关的事件出现的多少去判断其本质属性的概率。
由此,贝叶斯分析方法诞生了,它建立在主观判断的基础上,你可以先估计一个值,然后根据客观事实不断修正。
当然了,这还只是一个理论,看起来的确很简单!
但是在1774年,法国数学家皮埃尔-西蒙·拉普拉斯根据这个研究成果提取出来了贝叶斯公式。拉普拉斯关心的问题是:当存在着大量数据,但数据又可能有各种各样的错误和遗漏的时候,我们如何才能从中找到真实的规律。拉普拉斯研究了男孩和女孩的生育比例。有人观察到,似乎男孩的出生数量比女孩更高。这一假说到底成立不成立呢?拉普拉斯不断地搜集新增的出生记录,并用之推断原有的概率是否准确。每一个新的记录都减少了不确定性的范围。从而诞生了“贝叶斯-拉普拉斯公式”。
P(A/B)=P(B/A)*P(A)/P(B),该公式表示在B事件发生的条件下A事件发生的条件概率,等于A事件发生条件下B事件发生的条件概率乘以A事件的概率,再除以B事件发生的概率。公式中,P(A)也叫做先验概率,P(A/B)叫做后验概率。
很多人一看到这个公式觉得特别头疼,其实我给大家翻译一些就明白了,其实大家在生活中就经常使用贝叶斯分析方法,只不过大家并没有意识到罢了,比如我们去一个陌生的地方吃饭,我们的手机又没有电了,你没有办过通过手机APP了解这个地方的哪个餐厅最好吃,这样我们似乎只能随机选择,但实际上并非如此,我们会根据贝叶斯方法,利用以往积累的经验来提供判断的线索。经验告诉我们,通常那些坐满了客人的餐馆的食物要更美味些,而那些客人寥寥的餐馆,食物可能不怎么样而且可能会被宰。这样,我们就往往通过观察餐厅的上座率来选择餐馆就餐。
当然了,生活中还有很多这样的例子,我们淘宝的时候,看到下面购买人数多,就会觉得这家店更可靠一些,购买人数太少,就不太放心以及突然发现老公的公文包里突然有了一支口红,进而怀疑他出轨等等等等。。。
这其实就是我们在生活中不自觉地运用了贝叶斯分析方法。
AI时代,贝叶斯-拉普拉斯公式
大家可能会觉得这个公式和AI有啥关系。其实这个公式刚刚出来的时候,大家也觉得没有什么用,但是随着互联网的不断发展,科技的不断进步,在被冷落200年之后,贝叶斯-拉普拉斯公式的存在感也就越发凸显。甚至在热门美剧《生活大爆炸》中谢耳朵也秀了一下。
这就要多亏了香农了,这位大数学家也是信息论的创始人,提出了想用数学方法处理自然语言的想法。(自然语言处理就是让计算机代替人来翻译语言、识别语音、认识文字和进行海量文献的自动检索。)
然而那个时候的计算机,因为时代和技术水平的原因,根本无法满足大量信息处理的需要。你要知道即使在1982年,640K内存对微型计算机来说显得绰绰有余,人们甚至认为,640K的内存可以用来干任何事。你就可以知道当时的计算机有多弱鸡了!
所以香农的想法并没有得到重视,然而时代在发展,科技在进步,后来大家才知道香农的话多么具有前瞻性!
1994年,比尔盖茨坐在一堆纸上,告诉全世界:我手上的光盘能装下下面所有纸记录的信息
随着计算机的不断更新迭代,一路升级,很多人力很麻烦的东西都可以通过计算机来解决,很多在手工条件下看起来不可思议的进行模型训练的巨大工作量通过计算机来实现变得轻而易举,而如何让计算机来处理这些东西呢?贝叶斯-拉普拉斯公式就隆重登场了!
打一个比方,我们给人工智能看一个菜刀的图谱,问它这个是什么?人工智能又不是人,它不像我们在社会中成长,对于任何物体都有约定俗成的叫法,我们可以通过大脑思考,去判定事物,它又没有脑子。那么贝叶斯-拉普拉斯公式这个时候就成为了人工智能的脑子。
当看到菜刀的形状之后,可能是金属制品。
一侧十分锋利,可能是用来分割物品。
一端还有刀柄,可能是厨具
。。。
最后得出结论是菜刀。
人工智能不断地搜集自己储存的信息,并用之推断原有的概率是否准确。每一个新的推断都减少了不确定性的范围,从而得出正确的结论,所以说,贝叶斯-拉普拉斯公式可以说是AI进化论的基石。
还有人工智能识别我们的语音,我们对人工智能说了一句话,假设这句话是a,人工智能就需要判定它出现的意思e哪个是最靠谱的。即我们需要计算:P(e|a)。根据我上面给出的公式,从而得出:
P(e|a)∝P(e)*P(a|e)
最后人工智能就会判定出你说的话是什么意思,为什么现在的很多品牌的手机语音助手经常翻车,包括Siri也是经常翻车,就是在这个的计算上出现了问题。
所以,你明白了吗?为什么人工智能的“智能”来自贝叶斯-拉普拉斯公式。
当然了,这还只是初级,由此为一个点,慢慢不断延伸,比如深度学习+贝叶斯网络。这些就太深了,就不细说了。
贝叶斯-拉普拉斯公式作用很多,广泛应用生活
贝叶斯公式在生活中的运用非常常见,比如我们非常了解的大数据、人工智能、海难搜救、生物医学、邮件过滤、疾病诊断,企业的资质评判,诉讼,市场预测等等等。
我们最为熟知的马航搜救工作,也利用了贝叶斯-拉普拉斯公式。
可以说贝叶斯-拉普拉斯公式就好像是整个信息网络化社会的大脑一样。当随着互联网的不断深入发展,技术的不断成熟,贝叶斯公式与计算机结合的真正威力我们还无法预估。
不知道人工智能是否真的能从贝叶斯-拉普拉斯公式跳脱出,从而可以独立地思考,甚至与人类之间发生战争。
然而,我们终归要相信,人类之所以珍贵,是因为我们有血有肉,拥有真正的感情。
可以说在如今的社会,在以贝叶斯为基础的算法已经成为了社会的血管,万事万物都拖离不了算法,大数据需要算法、自动化机器的运转需要算法、手机拍照需要算法调教、彩票的机器需要通过算法筛选大奖等等等等。
注:因为受众原因,讲的比较粗略简单,贝叶斯分析方法和贝叶斯-拉普拉斯公式之间的关系和联系,还有贝叶斯和深度学习、机器学习之间,以及贝叶斯在算法中的作用等等,都没有深入去谈,有兴趣的朋友可以多去了解一下。有任何错漏欢迎指正!
特别声明
本文为自媒体、作者等在百度知道日报上传并发布,仅代表作者观点,不代表百度知道日报的观点或立场,知道日报仅提供信息发布平台。合作及供稿请联系zdribao@baidu.com。
从人工智能变成“人工智障”,聊天机器人殇在哪
文|柯鸣
来源|智能相对论(aixdlun)
试想一下,一个静谧的午夜,你和家人正在熟睡,家中突然响起毛骨悚然的笑声,时远时近,这困扰了大人,惊吓了孩子。而这一切的怪笑,都是由Alexa发出的。作为Amazon的主推产品,Alexa这一动作让许多用户陷入恐慌之中。
目前,亚马逊方面并没有对此次Alexa出现故障的原因进行详尽解释,并且它强调这是在“极少数情况”下才会发生的,尽管网上反映的问题代表不了Echo的数千万用户,但可以看出亚马逊对此事的态度其实不以为意。
类似的情况,在聊天机器人身上已经不是第一次发生。两年前,微软Twitter平台的聊天机器人Tay变成了“种族主义者”,不到一年,它的后续产品Zo又再次出现问题。Zo将古兰经称作“非常暴力”,并且它认为抓住本·拉登“不止一个政府多年情报收集”的结果。
Zo发表的不宜言论
之前,Facebook关闭了虚拟助理「M」,团队相关成员分散到其他部门任职。聊天机器人的发展,道阻且长。
智能机器人变成“人工智障”?
「我们可能都希望能生活在这样的世界里:和机器人有着最自然的对话,它将一切任务都执行得完美无瑕。这一路走来确实不容易,而且说实话我们已经发展得很快了。」Politibot的Suárez认为:「但不幸的是,我们还没有到那个理想的生活状态,还要好几年,机器人才能好到普罗大众都能接受。」
然而,现实却远不及Suárez的预期,聊天机器人依然存在着众多问题。2016年,FacebookMessenger开放其程序接口后,收到的用户反馈却远不及预期。众多机构确实可以在短时间内拥有自己的智能聊天机器人,但当此类机器人无人类干预时,这些机器人的应答失败率高达70%,用户体验更是相当糟糕。
从“图灵测试”到Eliza的精神治疗,聊天机器人发展至今已经走过了近70年,在漫长的发展历程中,聊天机器人并未得到真正的普及,现今依然存在着诸多弊病。
是谁让聊天机器人变成了这样?智能相对论(ID:aixdlun)认为,是人类,更是机器本身。部分核心技术及适配性问题,依然是聊天机器人的阿喀琉斯之踵:
1.复杂语言识别困难
现代化聊天机器人的对话界面主要依赖于语音识别,从而根据用户命令做出便捷迅速的反应,比如“下午三点去参加会议”、“今天的天气怎样”等。
语言作为一种主观性较强的表达方式,人们说话的规则具有一定的变化性。这和电脑程序不同,人们表达不会完全受制于规则,能够自由的遣词造句,并以此来传递信息。除了地方方言外,每个人也会有自己的表达方式,例如心照不宣的“暗语”,或者某些特定的“梗”。这就需要聊天机器人“去陌生化”,仅仅完美keyword/keyword地理keyword/keyword解结构化语言的系统将难以满足大量用户的需求,这对聊天机器人的系统提出了更高的要求。
以RichardS.Wallac设计的Alice聊天机器人为例,其在中文处理问题上,就存在一些问题。这是因为汉语不像英语等语言,用空格或其他标记分词,这就加大了ALICE对中文支持的难度。此外,其对于汉语分词采用的一般匹配法、词频统计法、同义句的处理等方面也存在着许多技术难题。
“人工智障”般的聊天机器人
2.个性化适配之痛
个性化适配的问题体现在两个方面,一方面人机信任是聊天机器人个性化发展的一个重点攻坚点。调查显示,许多公司领导对于聊天机器人处理待办事项是并不看好的,聊天机器人程式化的语言会让许多人觉得“乏味”、“没有人气”,这也是公司助理一职并未被取代的原因。
另一方面,聊天机器人很容易对人的需求产生误读。比如对Siri发出“区块链”的指示,Siri提供的是关于区块链的百度百科,这与用户想要了解区块链的最新发展动态的初衷大相径庭。
目前聊天机器人语音识别主要基于语音识别的基本架构、声学模型、语言模型并进行解码,而真正通过用户画像来实现个性化适配的聊天机器人少之又少。其实,不同用户的性格、特点、知识层次都不相同,如果有预设的用户画像,那出现适配失误的可能性也会大大减小。
当前语音识别的通常模式
纵观历史上机器学习能够做到的事情,都是一些字符识别(OCR),语音识别,人脸识别一类的,这些称之为“识别系统”。这些系统存在的问题在于难以变通,简单的语音识别难以真正为用户较为复杂的工作助力,线性的识别方式也难以适用于更开放式的应用场景。
3.隐私安全终成隐忧
Facebook爆史上最大数据泄露案,特朗普被指利用AI竞选成功,这也让更多的聊天机器人用户对自身的隐私感到隐忧。“Alexa发笑”事件中亚马逊公司对于事件原因的闪烁其词,似乎用户数据已经进入了一个“围墙花园”的模式。语音分析和人工智能软件存在于一个黑匣子中,而这些软件只有硅谷的开发人员才能真正理解。很难想象,如果你将一切的智能家居与聊天机器人连接起来时,这一切都在一个你无法拥有也无法控制的计算机上控制着你的生活以及你的家。
作为语音识别领域的领军人物,微软于2016年也仅仅将错误率控制在5.8%左右。可是随着人工智能进一步拓展到金融、医疗等领域,1%的错误率导致的可能是财产的损失和生命的安全。
微软语音识别错误率(2016年)
此外,配套设施的不完善难以让聊天机器人发展成了一个严密的体系,这使得初次试水的用户对此颇有微词。聊天机器人何时能够完善到能够大范围普及,这也是产品长足发展需要认真思考的问题。
死地而后生,聊天机器人或许需要“洗心革面”
曾经火遍全球的索菲娅机器人最近摊上大事了。YanLeCun(机器人专家)指责索菲娅与人类堪称完美的聊天是一场彻头彻尾的骗局,以目前人工智能的技术来看,此种对话是不可能达到的。然而能像人那样自然地聊天的机器人一直以来都是机器人学者所追求的目标之一,这是一个漫长的过程。
而在2018年年初,Facebook关闭了虚拟助理「M」,这像是压死骆驼的最后一根稻草,许多品牌对聊天机器人已经不再感兴趣,聊天机器人的发展走进了一个死胡同。曾经热极一时的聊天机器人似乎遭遇了滑铁卢,死地而后生,智能相对论(ID:aixdlun)认为,可以从三个方面“洗心革面”。
1.塑造聊天机器人的“独立三观”
能够独立表达喜欢、不喜欢和偏好怎样的人类性格,在聊天的过程中展示出诚实和值得信任等可贵品质是塑造聊天机器人“独立三观”的重要体现。正如聊天机器人被引入日常生活,我们还能训练机器人去识别我们的语言,挖掘我们的喜好,甚至还能分析我们的口音,推测我们的情绪。
通过自然语言和情感分析,Quartz公司尝试着让Quartzy来指导特定用户做面包。Quartzy会以一种友好且有趣的方式和用户聊聊「怎么做一个免揉面包」,这项体验会持续两天,一旦用户完成了第一个步骤,Quartzy会在大概12小时后,用FacebookMessenger给你「叮」一个通知,提醒你完成后续的步骤。这是机器人独立三观的一个体现,当然希望以后这样的尝试会更加普及。
2.从“鹦鹉学舌”到“乌鸦喝水”
“鹦鹉学舌”是借由人类语言的模仿行为,其类似于当前由数据驱动的机器人。“乌鸦喝水”则是一个完全的自主行为,其含括了感知、认知、推理、学习、和执行,这是聊天机器人朝想象力、创造力更高层次的进阶。目前,要真正实现聊天机器人的“乌鸦喝水”模式主要从两个方面努力:
一方面,让人工智能在自动学习中“更聪明”。伊恩·古德费洛用两个神经网络,进行数字版的“猫鼠游戏”——一个负责“造假”,一个负责“验真”,从而在对抗中不断提高。首先,依据“见过”的图片生成新图片,需要机器人总结规律、发挥想象力和创造力;其次,判别某张图片是否是真实事物,这需要它凭训练积累的“经验”。
另一方面,建立更加广博的知识图谱。知识图谱的建立需要从静态和动态两个方面出发,真正将目前聊天机器人聊天对话场景从垂直领域拓展到开放领域。同时,构建知识图谱的重点在于语义理解、知识表示、QA、智能对话和用户建模。
3.学会更快更多元的赚钱
聊天机器人作为一个虚拟助理,其最终目的是为了简便工作方式或者直接盈利。目前的聊天机器人主要分为两种:单纯聊天的机器人以及垂直领域的定制机器人,如小i机器人就衍生出了全渠道跨领域智能客服机器人、智能呼叫中心解决方案、智能营销解决方案、智能语音交互解决方案等多个发展方向。就当下来看,聊天机器人主要利用于内置商业场景中,如用机器客服代替人工客服。
事实上,聊天机器人盈利方式的开发还远远不够。作为人工智能类产品的重要代表,其在聊天机器人+原生内容、利用聊天机器人做联盟网络营销、用聊天机器人做用户调研等方面是大有可为的。
这显然不是聊天机器人自己的任务,也是整个行业的工作。
智能相对论(微信id:aixdlun):深挖人工智能这口井,评出咸淡,讲出黑白,道出深浅。重点关注领域:AI+医疗、机器人、智能驾驶、AI+硬件、物联网、AI+金融、AI+安全、AR/VR、开发者以及背后的芯片、算法、人机交互等。
人工智能怎么改变了劳动
何云峰 | 上海师范大学知识与价值科学研究所所长、教授、博士生导师
人工智能的出现一开始的时候,主要是人类为了弥补自身劳动能力的不足。因此也可以说,人类创造人工智能的目的就是要替代人类去完成某些人类自己无法完成的事情,或者是为了减轻人的劳动负担,抑或是为了提高劳动的效率。这样的替代挑战了人们的劳动权利,但带来的却是人的劳动解放和自由而全面发展的机会,并推动人类劳动向真正的自由劳动复归。
人类创造人工智能的目的就是要替代人类劳动,帮助人类完成某些人类无法完成的任务,代替人类执行危险的任务。这样的替代尽管在广泛的领域里可能给人类的劳动机会带来挑战,导致部分人失业,但是人们却获得了前所未有的劳动解放,繁重的、单调的、枯燥乏味的、危险性的劳动不再折磨人类;而且,人们获得了大量的时间去自由而全面地发展自己。因此,人工智能挑战的是劳动权利,带来的是人的劳动解放和自由而全面发展的机会。
人工智能为替代人类劳动而生
人工智能的出现一开始的时候,主要是人类为了弥补自身劳动能力的不足。因此也可以说,人类创造人工智能的目的就是要替代人类完成某些人类自己无法完成的事情,或者是为了减轻人的劳动负担,抑或是为了提高劳动的效率。
其一,人工智能的初始目的是代替人类完成人类无法完成的任务。人工智能就是沿着工具发展的智能化逻辑而衍生出来的结果。最早的类似于人工智能的东西是工具。人与动物区别开来的最根本标志就是人能够制造生产工具。所以,马克思说:“劳动是从制造工具开始的。”人在自然面前显然有很多无法控制的因素,于是人类通过创造工具来提升自己对自然的控制能力。比如说我们肉眼可见的范围有限,我们听到的东西也有一定的限度,但是人希望把这些缺陷加以克服,我们要弥补这些不足,所以从制造弥补人类进化不足的东西开始,人工智能就已经开始萌芽了。人类有运算能力,但对大数字的运算却非常费劲。于是,人类就去发明计算器,替代了算盘、口算等人类劳动形式。
其二,人工智能的初始目的也可能是为了减轻人类的劳动强度或者劳动负担。人类的体力非常有限,一般无法搬动二倍于自身体重的物体。但大量超重物体要搬运。一开始人们发明了杠杆工具,助力于人力搬运。后来,制造放大人力型的工具,类似于起重机、挖土机以及交通运输工具之类的东西,使人类(特别是单个个体)无法完成的任务变得十分轻松。可以说,大量的机器都是为了助力于人类劳动而发明的。它们跟真正的人工智能注重于模拟人类思维不同,主要注重于体力任务的分担,而且也以一定方式模拟人类承担的体力劳动,主要是模拟人或者动物的体力功能发挥作用而加以设计的。甚至到了人工智能非常发达的今天,有许多人工智能机器仍然致力于体力型模拟,并且越来越智能化地以“聪明的”方式完成本应该由人类完成的劳动任务。
其三,人工智能的初始目的还可能是为了提高劳动的效率。人类在尝试到各种机器的“好处”以后,便进一步致力于制造人力集成型的劳动工具,就是要把人类不同的优点甚至包括动物的优点都集成在一起,成为超越单个人的存在物。这两种类型的工具都会模拟人的某些功能。第二种是模拟人或者动物的思维功能发挥作用而设计的。但无论哪种工具的制造都不是复制人或动物的某种(些)功能,而是要使这种功能得到放大或者集成,从而突破单个人类个体的现有能力限度。换句话说,超越人类劳动能力的限度是人工智能的最初诱因。当劳动生产率得到大幅度提高以后,实际上,对劳动力的需求就自然而然会减少。
今天,人们创造了大量的智能机器人,既要做人类无法完成的事情,减轻人类的劳动强度,并不断提高劳动效率,又要努力向人类“学习”,力图像人一样聪明。真正的人工智能是从模拟人类思维开始的。体能形式的模拟相对而言比较容易,但思维模拟,让机器学会像人一样有头脑、有自主性,则是相当困难的。现在,我们一般说到“人工智能”的概念,主要指的“是研究使计算机来模拟人的某些思维过程和智能行为(如学习、推理、思考、规划等)的学科,主要包括计算机实现智能的原理、制造类似于人脑智能的计算机,使计算机能实现更高层次的应用”。不过,人工智能虽然是模拟人类智能,但并不是简单复制人类智能。人工智能一开始就是要代替人类劳动的,只不过是局部功能的替代而已。不超越人类智能,根本不可能产生人工智能。现代人工智能已经远远超越了思维模拟的阶段,已经朝更全面或更多方面同时超越人类智能的方向迈进。人工智能有多种形式。例如,人类智能弥补型、人类智能代替型、人类智能集成型、人类智能优化型等。无论哪种形式,都具有弥补人类智能进化缺陷的效果。人工智能本质上是人类针对自身能力不足而提出来的一种解决方案。自然语音识别及处理、物体识别、计算机视觉、翻译机器等,这些都不断地在我们身边演进着,随着我们的思维创造力的发挥而进步,并多层次地影响着我们的生活。
人工智能的飞速发展和广泛运用,对人类智能的挑战是多方面的。
首先,它挑战了人类的自我优越性。人工智能的大量使用,使单个人自身的劳动能力显得越来越渺小,甚至微不足道。人工智能越强大,人类自身的低位感就会越突出,人类劳动的局限就会显露无遗。尽管我们可以说,迄今为止,“能够思维的人脑的存在就仍然是一个奇迹”,但在人工智能面前,我们的许多劳动能力实在无法比拟。当然,人类也不是一无是处。人类在很多方面也仍然有劳动优势。不过,人类劳动能力被人工智能超越以后,人类感到越来越自卑,这并不是唯一的一种情绪反应。人工智能对人类劳动权利似乎正在进行前所未有的挑战,人力的付出所带来的饭碗正在被智能机器人卷走。
其次,人工智能也使人类的自信心受到前所未有的挑战。随着科技深入的发展,人工智能越走越远。在这种情况下,人类感受到人类自身的地位受到了威胁。人类的无上优越性地位受到了前所未有的挑战。人类发现,人类创造出来的东西比自身强大无数倍。于是,人类自身开始自卑了。
再次,从劳动挑战的角度来说,人工智能的迅猛发展,的确会对人类社会生活的方方面面产生非常深远的影响。尤其是,智能化机器人的大量使用虽然有望填补人口减少导致的劳动力缺口,但过度取代也有可能严重破坏可选职业的多样性。史蒂芬·霍金甚至警告大家说,人工智能机器人可能在100年之内取代人类。由于机器人的大量使用,专家们还预测说,人工智能20年内将取代日本近半职业。据媒体报道,剑桥大学已经可以制造出母体机器人,它可以制造新机器人,而且可以按照不断优胜劣汰的方法提升自己。最近,日本有人搞了一个调查,结果也令人担忧。研究人员总共调查了601种职业,想看看各种职业中哪些工作可以被机器人取代,算下来49%的人类现在从事的工作可以让给机器人去做。所以,如果智能机器人被广泛应用,许多人会面临失业的现实。尽管如此,笔者还是以为,应该冷静对待被机器人替代的挑战。如果是单调的、劳作性的工作岗位,被机器取代对人类来讲可能也是一种好事,那样的话人类可以去做其他事情。举例来讲,你要去写文献很麻烦,但现在有一个软件,如文献管理软件Note Express、End Note、Ref Works等,这些软件可以帮你克服文献管理方面的繁琐,这就大大提高我们的工作效率,也能减少文献标注的错误。
人工智能为实现劳动解放创造了条件
尽管人工智能对人类劳动有诸多挑战,但是总体来说,多数人还是比较乐观的。笔者也属于乐观派。在笔者看来,人工职能的发展给我们带来的更多是便捷和高人性化物理世界的层出涌现。人工智能与其说是对人类的劳动主宰地位的挑战,倒不如说是对人类劳动的解放和超越。
首先,人工智能的大量运用,使劳动越来越复归到“自由的生命表现”上来。劳动之于人类而言,具有多重的意义。在人类的产生和进化中,劳动是原动力。正是劳动创造了人本身。人的自我实现,是一个通过劳动而自我诞生、自我创造和自我发展的历史过程。所以,劳动成就人的生命本质,没有劳动就没有人本身。劳动正是人的本质力量的展现。所以,在本源意义上,劳动是与人的本质相一致的。从这个意义上来说,劳动本身就是人的本质需要,是人生存的目的,是人的自我实现、自我创造、自我升华。马克思说:“我的劳动是自由的生命表现,因此是生活的乐趣。”换言之,真正的人类劳动应该是体现人类快乐和享受、实现人的价值,展示人的本质规定性的过程。更为重要的是,人工智能大量采用之后,使劳动生产率得到前所未有的提高。过去,需要几十个人甚至几百人干的活,现在一个智能机器人可能就完全足够,甚至比人类干得更好。这意味着,一个智能机器人干活可以养活许多人。在这种情况下,社会必须大力完善社会福利和保障体系,个体生存被完全社会化,也就是由整个社会用福利和保障体系来保证每个人能够解决生存问题。当生存问题解决后,人类就不必要为使自身保持生命体形式存在而烦恼,从而被迫地去劳动。劳动的被迫性将降低到最低限度。于是,劳动的合意愿性,真正实现“自由的生命表现”,就成为可能了。其次,人工智能的大量运用,使劳动越来越充满快乐性,人们将从劳动厌恶情绪中逐渐获得解放。虽然劳动在其本真意义上应该是快乐的,但不可否认的是,劳动对人的脑力和体力又会产生消耗,在一定意义上损耗人的脑力和体力。如果过度地劳累,不恰当的劳动时间消耗和不及时的功能恢复,过分地超强度劳动等等,都会对人本身产生不必要的摧残。尤其是那些繁重的体力劳动和危险性高的劳动,对人类的影响无疑是十分负面的。在这种情况下,大量的智能机器人引入之后,人类可以得到很大程度的解放,从不必要的奴役中摆脱出来。
在这个意义上,智能机器人的大量运用更多地是人类解放的实现,是人类彻底摆脱奴役劳动的标志。其实,不仅摆脱繁重体力型劳动和危险型劳动,是人类自由发展的必然要求,而且简单的单调型劳动和低水平重复性劳动所带来的枯燥乏味,也会严重影响劳动的快乐。这样的劳动如果能够由机器人取而代之,对于人类自由发展来说,肯定也是极其有利的。劳动本来应该是快乐而幸福的,劳动应该是通向幸福的桥梁,让机器人去承担那些不能带给人类幸福和快乐的劳动,复归劳动的快乐本质,是自由劳动的表现。由于劳动展现人的本质,人要成为人,就必须劳动。而且由于劳动实现了人的本质,所以劳动应该是快乐和享受的过程。离开劳动,人就不成其为人。人需要劳动,不仅仅是因为劳动创造能够满足人类需要的物质生活资料,更主要的是因为劳动实现人的本质,带给人最高尚的幸福和快乐。所以,在劳动意义上的人类解放,是要摆脱劳动的摧残性、危险性、单调性和枯燥性,但这不是指人什么事情都不干,而是指人要干能够给自己带来快乐和享受的劳动。
再次,人工智能的大量运用,使劳动选择性越来越高,人们成为越来越自由的劳动者。在智能化的助推下,人类社会生产能力会迅速提升。劳动生产率的迅速提升,使生产力水平达到前所未有的高度,这为产品的丰富化创造了良好的条件。当产品能够在占用很少劳动力的条件下生产出来的时候,大部分人则可以享受幸福的劳动成果,从繁重的劳动中解放出来,选择自己喜欢和感兴趣的职业去参加享受性劳动。特别是,生产率极大提高后,劳动保障水平可以更加显著地得到提高。个体的生存问题,可以非常容易地以社会化的方式加以解决。社会化生存之后,个体可以更有尊严地参与劳动,享受到劳动的真正价值,从而为其劳动复归到自由劳动创造了条件。
马克思曾在《哥达纲领批判》中提出了“劳动成为人的第一需要”的概念,这是共产主义社会的基础。但是在现代社会中,人们看到的现实却是劳动不仅不是人的第一需要,而且是给人带来痛苦、折磨的苦役,仅仅是人为了谋生而不得不去做的事情。因此,劳动如何成为人的第一需要,是马克思主义者必须回答的一个问题。劳动形态是一个历史范畴,不同社会形态下的劳动具有不同的性质和内涵。智能机器人的出现可能并不是取代了人类劳动的神圣地位,而是带来劳动形态的变革和进化。在人工智能和机器人大量运用的时代,过去那种依靠简单的工具进行低效率生产的劳动形态正在消失,人类将在更加科技化、更加延伸的生产工具辅助下超高效率地劳动。这是因为,智能机器人从纵横两个维度同时延伸了人类的活动空间。智能机器人在许多情况下弥补了人类生理上的不足和缺陷。由于人类自身的天然局限,人类的活动空间受到极大限制。人类只能在很有限的宏观世界里生活,只能感知到很有限的物理世界。微观世界、宇观世界和更广大的宏观世界,人类几乎不能直接感知,必须依赖于一定的仪器和专门工具。而这些仪器和工具,在很大程度上都跟人工智能具有不可分割的联系。人的感官和身体能力被延伸之后,人类改造自然的能力会大大提高,人化自然在现实的合目的性过程中进一步确证人自身的价值和能力。
最后,人工智能的大量运用,使各种威胁人类生命的因素不断降低威胁程度。拿战争来说,任何战争都会有伤亡。这成为人类最大的悲剧。然而,随着战争不断地发达,今天战争已经在某种意义上来讲超越了原来战争的观念。今天的战争实际上追求的不光是打赢,打赢的同时还要追求己方零伤亡,且不伤害平民。过去是不择手段打赢就好了,将来的战争不是这样的,减少对人类自身的伤害,这起码在保护人类自身,为人类的尊严以及生命做最大的保护。这种追求表明,人类通过人工智能的运用例如精准制导武器的运用、无人飞机、智能机器人、虚拟战争、理性地避免战争等,使战争越来越不再成为人类生命的最主要剥夺者。这实际上标志的是人类的一定程度的解放。智能化高科技产品在医疗、健康、人类日常生活等领域的广泛运用,人类越来越能够自主地控制各种疾病或者其他自然的威胁,最终使人类能够更加自主地决定自己的命运。这样的人类解放,是以往大机器时代根本无法比拟的。
由上可见,智能机器人与其说是挑战了人类劳动的神圣地位,还不如说解放了人类劳动,并推动人类劳动向真正的自由劳动复归。
人工智能替代人类劳动,促进人的全面发展
在人工智能的作用下,人类劳动得到解放,每个人能够自由支配的时间将越来越多;同时,工作的固定性越来越减少,人们不再会为了生存而委曲求全,而是将劳动尊严看得越来越重要,从而需要不断地再教育再发展。此外,物质条件的丰富,社会保障的完善,又能够创造多种多样的条件使每个人自由而全面发展。可见,人工智能将带给人类的不是失业,而是自由选择工作;不是剥夺人类的劳动权利,而是激发人的多方面潜能。
首先,人工智能促使每个人更有尊严地参与劳动,以真正的人的方式存在,为人的自由发展提供了可能性。在人工智能大量普及的社会里,每个人的生存不是自己去挣扎,社会奉行的不是丛林法则,而是共生法则。于是,每个人都不需要为基本生存而被迫地劳动。在生存问题没有以社会化的方式解决的时候,人们不得不卑躬屈膝,低三下四地求资本家赐给自己工作机会。这是一种迫不得已的屈服,因为没有工作就没有生存的基础。但是,当人工智能大量运用从而能够极大地提高生产率的时候,个体的生存被社会化就成为可能。在那样的情况下,资本逻辑猖獗所导致的除了出卖劳动力什么都没有的无尊严状态将不复存在。在那样的社会里,“将给所有的人提供健康而有益的工作,给所有的人提供充裕的物质生活和闲暇时间,给所有的人提供真正的充分的自由”。部分人即使没有工作,也照样能合人道地活着。人们的劳动尊严不再是一个问题了。人们能够真正作为人有尊严地去选择性地劳动。自由发展是真正符合人的发展之必然要求的。“任何人都没有特殊的活动范围,而是都可以在任何部门内发展,社会调节着整个生产,因而使我有可能随自己的兴趣今天干这事,明天干那事,上午打猎,下午捕鱼,傍晚从事畜牧,晚饭后从事批判,这样就不会使我老是一个猎人、渔夫、牧人或批判者。”所以,人工智能可能带来的是人成为真正自由的人,从而使该未来社会成为“自由人联合体”。“各个人在自己的联合中并通过这种联合获得自己的自由。”
其次,人工智能最大可能地增加了人类的自由支配时间,从而为全面发展提供了可能性。当人们从繁重的劳动中解放出来的时候,就会获得大量的自由支配时间。这些时间不应该被滥用或闲置,而必须用于人的自我发展、完善和提高,特别是用于劳动技能的再培训。那样,人们不会固定不变地以某种教育成果的形式拿着文凭从事一个工作。在人工智能时代,一劳永逸地解决自我发展的问题,是不可能的。许多单调、烦躁的劳动岗位会被智能机器人取代,人们不得不重新学习,去适应新的劳动要求。人的发展变成了终身发展,人的学习变成终身学习的过程。当人类劳动得到解放的情况下,尽管“所有的人都必须劳动”,但是“过度劳动者和有闲者之间的对立消灭了”,从而使得“所有的人都将有可以自由支配的时间,发展自己的自由时间”。所以,闲暇时间越多意味着人们自我发展的时间越多。
最后,人工智能被大量运用于劳动中有助于异化劳动的克服,从而最大限度地消除各种不利于人的全面发展的因素。当劳动不再是迫于生计而从事的活动的时候,就可以在一定程度上促使“我在劳动中肯定了自己的个人生命”,“我的劳动是自由的生命表现,因此是生活的乐趣”。换言之,劳动会逐渐变成快乐的事情。于是,人们就愿意通过发展自己而参与劳动。当人工智能没有普遍采用的时候,各种阻碍人的发展的因素极大地限制了人的发展的可能性空间。按照荷华德·加德纳(Howard Gardner)的多元智力理论,人有多重智能,因而人的潜能是多方面的。这使有闲暇时间者获得自由而全面发展成为可能。当客观条件具备的时候,人们就能将自己的多种潜能发挥出来。在传统劳动组织形式下,人们不得不娴熟地专于某一项劳动技能,因而其他潜能很可能得不到应有的发展。这表明,传统社会里人的发展往往具有单向度性,是适应劳动竞争需要不得不顺从地发展起来的技能。而人工智能时代,人们可以最大限度地全面发展。
总之,人工智能替代人类劳动之后,让人们有更多的时间和机会去自由而全面地发展自己,人将愈来愈全面地实现自己的本质。这正是人工智能带来的巨大社会变化。所以,我们没有理由在人工智能面前胆战心惊,应该张开热情的双臂去拥抱它。
人工智能还是人工智障
这个过程并非一帆风顺。
上世纪80年代前后,日本人研究了一种能够模拟人类专家决策能力的计算机系统,称为专家系统。这个专家系统实际上就是一个巨大的知识库,再通过一些推理规则让这个系统能够根据提问找到答案。
这种专家系统能够根据输入的问题,提供回答是当时人工智能技术的代表,一定程度上也是计算机“智能化”的表现。因此这个项目得到日本政府的高度重视,投入了大量的人力物力研究,希望能打造一个计算速度更快、知识储备量更高的专家系统。受到日本人的刺激,同期美国和许多欧洲国家也纷纷进入到这个赛道中。
可以预见的是,专家系统最初取得的成功是有限的,因为它无法自我学习并更新知识库,维护成本极高。就像以前没有联网的车载导航系统一样,每年都需要更新地图否则这个系统一年以后就废掉了,无法给出正确的指引。
专家系统的失败,也让人们对于人工智能的信任产生了巨大的危机,硬件市场的溃败和理论研究的迷茫,加上各国政府和机构纷纷停止向人工智能研究领域投入资金,导致了数年的低谷。
好在资本不再关注人工智能的时候,人工智能的理论研究还在缓慢进行中。1988年,美国科学家JudeaPearl将概率统计方法引入人工智能的推理过程中,这对后来人工智能的发展起到了重大影响。1989年,AT&T贝尔实验室的YannLeCun和团队使用卷积神经网络技术,实现了人工智能识别手写的邮政编码数字图像。
在此后近二十年,人工智能技术逐渐与计算机技术、互联网进行深入融合。得益于大规模并行计算、大数据、深度学习算法和人脑芯片这四大催化剂的发展,以及计算成本的降低,使得人工智能技术突飞猛进。
它利用计算机和互联网的发展机遇,化名为商业智能、数据分析、信息化、自动化等等,渗透到社会发展的每个角落。
一方面,互联网的推广为人工智能创造了很多落地应用的场景,体现出真正的价值;另一方面,计算机软硬件的升级为人工智能提供了强大的运算力,以前在理论上才能实现的算法得以落地,让人工智能在越来越多赛事上创造奇迹,甚至超越人类。2011年沃森在自然语言常识问答比赛中战胜人类选手,ImageNet挑战赛上图像识别算法准确度超越人类;2016年,AlphaGo战胜李世石,成为第一个战胜世界围棋冠军的AI机器人…
二、人工智能还是人工智障?
近两年人工智能被人们诟病最多的地方是:人工智能体现不出智能。
很多人对人工智能的认知都是分裂的。一方面媒体不断报道人工智能又取得了什么样的新成果,国外各路大咖让人们要警惕人工智能的发展,人工智能还被纳入我国发展的规划中等等。
另一方面,新闻里经常传出自动驾驶又发生事故,家里的智能家具表现地像个智障一样,资讯平台总是傻傻地推同样类型的新闻等,这些现象都让我们疑惑,人工智能到底智能在哪里?
回答这个问题之前,我们有必要搞清楚,强人工智能和弱人工智能的区别。
最初,在达特茅斯会议提出人工智能一词时并没有强与弱之分。普遍认为人工智能就是让机器拥有思想,能够像人类一样决策。当时各种算法的研究也是奔着这个目标而去,希望能够模拟人类决策的方式赋予机器真正的智能。
但很快就有人发现:在这种方式下实现的人工智能并非真正的智能,只是对人类智能的模拟。美国哲学家JohnSearle提出了一个思维实验:中文房间(ChineseRoomArgument),它是这样的:
想象一位只会英语的人身处一个房间之中,这间房间除了门上有一个小窗口以外,全部都是封闭的。他随身带着一本写有中文翻译程序的书。房间里还有足够的稿纸和铅笔。
写着中文的纸片通过小窗口被送入房间中。房间中的人可以使用他的书来翻译这些文字并用中文回复。虽然他完全不会中文,Searle认为通过这个过程,房间里的人可以让任何房间外的人以为他会说流利的中文。
想象一位只会英语的人身处一个房间之中,这间房间除了门上有一个小窗口以外,全部都是封闭的。他随身带着一本写有中文翻译程序的书。房间里还有足够的稿纸和铅笔。
写着中文的纸片通过小窗口被送入房间中。房间中的人可以使用他的书来翻译这些文字并用中文回复。虽然他完全不会中文,Searle认为通过这个过程,房间里的人可以让任何房间外的人以为他会说流利的中文。
值得注意的是,这本书仅仅是语法的对应,并不涉及到任何语义的说明。房间中的人,只需要按照对应的回答,拼凑出相应的中文字符递出去即可。在这个过程中,他并不理解问题和他所写的答案是什么意思。
Searle认为,人工智能就是这样工作的。他认为计算机根本无法真正理解接收到的信息,但它们可以运行一个程序,处理信息,然后给出一个智能的印象。
例如图像识别技术,它的工作原理就是将颜色变成数字编码,再从这些数字编码中找到特征,查找字典,找到对应的解释然后显示出来。实际上计算机压根不知道自己识别的到底是飞机还是兔子,只是字典告诉它这个特征很大概率对应的是“飞机”这个单词。
绝大部分算法在本质上都是在玩概率的游戏,不同的方式只是在模型训练时需要的信息不同,以及计算出来对应“飞机”的判定方式不同。
当前所有被广泛应用的知名模型都是通过矩阵运算训练数据来获得某种概率分布。复杂模型的概率分布通常是高维的,这里又会引申出各种数学方法,但本质的思想依旧是想通过概率分布来描述训练数据的特征。有了这些,对于同类的数据,就可以使用相同的概率分布去描述,从而实现所谓的“识别”或“预测”。
实际上并非模型真的像人类一样理解了什么是“飞机”,只是通过这种方式,模型能够大概率把长得像飞机的图片识别出来。
后来业界也普遍认识到这一点。因此把人工智能这个概念又划分为强人工智能与弱人工智能。
强人工智能流派仍然追求让计算机拥有人类的心智与意识,具有自主选择行为。就像西部世界中从固化程序逐渐演化出自我意识的梅芙一样。但是强人工智能的研究难度较大,市面上还没有成熟的应用。
而弱人工智能更像是一个解决特定问题的工具。这类问题的特点是可以通过统计,归纳出经验并形成解决方案,而这种解决问题的实现方法被称为“机器学习”。
机器学习最基本的做法,是使用算法解析数据、从中学习数据的规律,然后对真实世界中的事件做出决策。与传统的编程方式不同,机器学习是用大量的数据进行训练,通过各种算法从数据中学习“如何完成任务”。
例如量化交易、人脸识别和AlphaGo都是擅长于单个方面的机器学习模型。在训练模型时,我们只教会AlphaGo下围棋的技巧,所以它只能会下围棋。如果你把一道数学题丢给AlphaGo,显然它是无从下手的。
所有的机器学习模型都只能完成特定的任务,很多时候我们通过组合的方式满足更多的场景。例如智能音箱本质上是一个语音识别的模型结合NLP(自然语言处理)模型,它并非真的能听懂我们说的话代表什么含义,仅仅是能够把接收到的信息转化为模型的输入,在字典中找到对应的输出而已。
从机器学习的特点可以看出来,如果想通过统计归纳经验,数据的数量与质量是决定性条件。没有数据,就没有人工智能。
也就是说在你没有作出同类别行为,或者是与你行为相近的人群较少时,人工智能是没有办法作出判断的,这也是人工智能变成人工智障的重要原因。当行为增加,数据慢慢变多,数据质量逐渐上升时,你会发现预测越来越准确,人工智能通过大数据也能做到真正的“想你所想”。
三、什么问题适合用机器学习解决?
前面我们说弱人工智能像工具,专门解决某个特定的问题。但是否所有问题都适合用机器学习去解决呢?很明显答案是否定的。
适合用机器学习去解决的问题,主要有三个基本条件。
(1)有规律可以学习。这类问题必须存在共性,有内在的规律等待被发现;
(2)编程难以实现。数据之间关联关系复杂,很难通过穷举的方式列清楚规则;
(3)有足够多能够学习到规律的数据。没有数据支撑,机器学习就像搭好了结构少了砖瓦的房子。
举个栗子:
我们熟知的垃圾邮件检测是一个使用机器学习解决的经典场景。最常见的垃圾邮件是各种类型的营销邮件,并且这种邮件的发送方通常是各类用邮箱注册过的网站。在这个场景中我们发现,营销邮件一定是包含某些产品信息或推广信息,所以这类邮件有一定的规律。
但是因为不同产品种类各异,我们很难用编程的方式把所有规则写出来。就算能写出来,发送方也会设计各种规则躲避系统的检测,同时我们很容易找到大量垃圾邮件与正常邮件作为样本数据。因此这个场景非常适合用机器学习的方式解决。
但如果我们想判断新邮件包含多少个字符,恐怕就不太适用。虽然这个问题同样难以用编程解决并且有大量历史邮件支持,但包含多少个字符这个问题的随机性太强,没有规律可循,因此不适合。
由此可见,机器学习不是万能的,不是所有的问题都能用它去解决。机器学习擅长的是通过已知经验找到规律去解决问题。如果面对的问题没有任何规律可循,完全是一个随机事件,那么就算使用多复杂的机器学习算法也是无济于事。
值得注意的是,很多问题看似没有规律,实际上是因为人类处理不了数据量太大的情况,看起来杂乱的数据掩盖了背后的面目,这类问题并非真的无迹可寻,只是需要用正确的方法。
我们通过机器学习可以对大量数据进行分析获得规则,并利用规律对未知数据进行预测。不但能从数据中看到人类能看到的规律,更重要的是能在更短的时间内发现人类看不到的规律,我想这就是机器学习最大的应用价值。
在医学领域,通过图像识别技术,已经实现让计算机自动识别肿瘤细胞,帮助医生快速进行医学诊断;在制造业,通过强化学习的方式自动检测产品缺陷提高出品率,帮助企业加快生产周期降低生产成本;在金融领域,通过神经网络技术可以避免传统程序化交易因为无法根据实时发生的市场变动调整算法,从而造成资产损失的风险。还有在零售、安防、航空、互联网等等不同领域,机器学习都有广泛的应用,它已经对我们生活的产生了巨大的变化。
最后我们必须认识到,目前的人工智能并非真正的智能,只是一种模拟人类行为的智能。而真正的智能,离我们的生活还非常遥远。但值得庆幸的是,仅仅是模拟人类行为的智能已经能够给我们的生活带来了如此大的便利,相信随着技术的发展,我们能够做出更多超越想象的场景。
#专栏作家#
阿翘,微信公众号:阿翘AKIU。平安科技资深产品经理,《产品经理进阶:100个案例搞懂人工智能》作者;擅长人工智能技术在金融领域的商业化应用,实践经验丰富,对产品设计方法论有深入洞察。
题图来自Unsplash,基于CC0协议返回搜狐,查看更多