人工智能,还是人工智障
本文来自公众号:卫夕指北(ID:weixizhibei),作者: 卫夕,互联网专栏作者、商业产品经理,原文标题《人工智能还是人工智障?——大型算法翻车现场》,题图来自电影《机器人总动员》
你相信算法吗?
无论你的答案是什么,我们的生活已经被算法彻底改变了——我们聊微信、刷抖音、逛淘宝的背后都是无数个算法在支撑,算法从开始简单的If、then、else规则变成了越来越复杂以至于连程序员也不清楚内部运作规则的深度神经网络,它在变得复杂的同时也在彻底的变革每一个产业,人们离不开算法,媒体喜欢算法,在一个个故事的渲染下,算法似乎变得无所不能,卫夕今天先带大家一起看一些算法让人叹为观止的案例——
1.近年来美国马里兰州等地出现一种新型的毒品犯罪:在豪宅里关起门来,利用LED灯种大麻。
在美帝,没有证据根本不可能破门搜查,警察非常头疼,然而在2010年一个警察局通过电力公司搞到了当地智能电表的数据,通过对用电量和用电模式的算法分析,他们成功地判断并抓到了一批毒贩!
2.2017年,硅谷的一位工程师想去Reddit工作,他思路清奇——首先写了一篇水平很高的、关于如何改进Reddit推荐算法的文章,接着他通Reddit网站CEO霍夫曼在Facebook公开账号、寻找到一些独特的广告定向,比如霍夫曼的性别、年龄、居住地、关注了哪些主页等等,然后他通过Facebook的广告系统、使用这些定向算法把自己写的文章投放给了197个人,居然就精准命中了霍夫曼,而这次推广仅仅花了他10.6美元,最后他的文章被霍夫曼认可,而他也被成功录取。
3.2012年7月,一位愤怒的爸爸走进了美国零售巨头塔吉特的弗吉尼亚分店,要求见经理,原因是他还在上高中的女儿收到了塔吉特寄送给她女儿的婴儿床和婴儿衣服的优惠券——“你们这是什么意思?我的女儿只有16岁,你们是在鼓励她怀孕吗?”
塔吉特的经理匆忙道歉表示可能是他们的工作失误,然而2个月后,这位父亲打电话过来为自己之前的行为表示抱歉——她女儿的确怀孕了,原来,塔吉特设计的一套特别的算法系统,它会根据零售用户的购买历史来判断一个女生是否处于孕育期,这个算法是如此准确,以至于它居然比孩子的父亲更早地知道女孩是否怀孕。
的确,这三个故事只是算法应用的冰山一角,如今,算法可以识别我们的声音和图像,算法似乎在变得无所不能。
然而,算法真的有那么美好吗,在算法给我们带来便利的同时我们是否真的认真思考过算法带来的弊端,我们是否真的思考过如何面对算法给可能给我们带来的灾难。
今天的算法其实还远没有到完善的地步,很多被称之为人工智能的东西某种意义上只能算人工智障,卫夕带大家看几个大型算法翻车现场——
一、翻车的超级计算机2017年3月19日,香港地产大亨李建勤(LiKin-Kan)在迪拜饭店的午餐中第一次遇见到了意大利金融家科斯塔(RaffaeleCosta),科斯塔向李描述了一个机器人对冲基金,他的基金由奥地利的AI公司42.CX开发的一款名为K1的超级计算机管理,K1通过抓取实时新闻和社交媒体的数据,以深度学习算法评估投资者的情绪并预测美国股票期货,然后发送指令进行交易。
香港地产大亨李建勤(Li Kin-Kan)李看到之后非常感兴趣,在接下来的几个月中,Costa与Li共享了K1的模拟结果,数据表明K1取得了超过两位数的回报,李很兴奋,把自己的25亿美元的资产交给了K1来打理,准备在金融市场中大赚一笔。
然而现实是残酷的,超级计算机K1并没有给李带来丰厚的回报,相反到2018年2月,它经常亏损,甚至一天有时候就亏损超过2000万美元,李建勤终于明白算法在金融市场是不起作用的,他一怒之下将科斯塔告上了法庭,声称他夸大了超级计算机的作用。
二、失控的亚马逊智能助手2017年7月5日,德国汉堡一名叫奥利弗的普通居民在朋友家住了一个晚上,他不知道的是,在他离开的那个晚上,家里的亚马逊智能音箱Alexa突然开始在凌晨1:50以最高的音量开始播放摇滚乐,熟睡的邻居被震天的音箱吵醒,无奈的邻居们最终只能选择报警。
警察到达现场选择撬开门锁破门而入,才发现罪魁祸首只是一个小小的智能音箱,他们拔下了Alexa的插头,然后给奥利弗安装了新的锁,而在朋友家过了一夜的奥利弗对此事件一无所知,再次回到家时,一头雾水的奥利弗只能跑一趟警局并且支付了一笔并不便宜的换锁账单。
无独有偶,2017年1月,加利福尼亚州的CW6电视频道报道了一个AmazonEcho扬声器的漏洞,说的是Alexa识别不了家里的成员,于是一位加州5岁的小女孩就用智能音箱给自己买了超过300美元的饼干,当他们父母收到货的时候都傻眼了,而让人啼笑皆非的是,主持人播这条新闻的时候为了演示说了一句:“Alexa,给我订购一个玩具屋”,结果圣地亚哥多人报告说,他们的音箱收到了电视的语音真的下单购买了玩具屋,亚马逊后来不得不为此道歉。
三、变坏的微软机器人2016年3月,微软在Twitter上开发了一个名为Tay的AI聊天机器人,该机器人是通过挖掘网民对话而构建的,Tay的第一句话是“helloooooooworld!!!”,起初它善解人意、活泼可爱,和Twitter上的网民聊得非常开心。
然而,在短短的12小时之后,Tay从一位友好的机器人变成了一个满嘴脏话、充满种族主义并说出“女权主义者都应该死在地狱里烧死”恶魔机器人,这让开发它的微软经历了场公关噩梦,微软被迫迅速将Tay关闭,而这离它上线还没有超过24小时;
Tay是人工智能映射人类偏见的一个缩影,目前的人工智能算法最本质的规则就是它需要有大量的数据对其进行训练——如果训练的数据本身就带着偏见、错误以及极端的思想,训练的结果就会偏离正常的结果........
四、危险的沃森癌症机器人2013年,IBM与德克萨斯大学MD安德森癌症中心合作开发“WatsonforOncology”,即沃森的癌症机器人,它的目标是识别并治愈癌症,IBM在新闻稿中宣称“沃森癌症机器人的使命是让临床医生能够从癌症中心丰富的患者和研究数据库中发现宝贵的见解”,然而最后的结果怎么样呢?
新闻机构StatNews在2018年7月查阅了IBM的内部文件,发现IBM的Watson有时候会给医生提出错误的、甚至是危险的癌症治疗建议,其中包括Watson建议医生给有严重出血症状的癌症患者使用会加重出血的药物........
于是2017年2月,在花费了6200万美元之后,德克萨斯大学宣布终止和IBM合作的这个项目,算法有时候对医疗行业而言并不管用;
五、充满歧视的再犯罪算法在美国,罪犯在出狱之前会进行一个再犯罪的评估,用于判断是否合适出狱已经出狱后是否需要采取必要监视措施。
那么如何评估一个罪犯的再犯罪概率呢?答案是——算法!美国司法体系采用了一家名为Northpointe的公司推出的风险评估产品,Northpointe的核心产品是根据137个问题的答案通过特定的算法得出的一组分数,这些问题一些是和罪犯本身相关的直接个人信息,比如之前犯罪的类型、日期、频率、出生年月、性别等等,有一些则是提问由罪犯本人回答,比如“您的父母或者兄弟姐妹中有一个曾经被送进监狱或监狱吗?”、“您有多少朋友碰过大麻?”、“你是否同意饥饿的人有权偷窃?”之类的问题。
值得注意的是,在这些问题中种族不是问题之一,即所有的这些问题都不会提及罪犯的种族;
然而近年有学者发现,该算法给黑人带来的高再犯风险评分是白人的两倍,在洛杉矶市,一名轻微犯罪的黑人妇女被标记为“高风险”,而一名曾两次武装抢劫的白人被标记为“低风险”,而结果也证明那位妇女并没有犯罪,但那名男子则继续进行盗窃,这一风险评估产品目前在美国引起了黑人团体广泛的质疑;
六、形形色色的人工智障事实上,算法造成的啼笑皆非甚至危险的故事广泛存在,至少在现阶段,在很多领域,人工智能在某些时候只能称之为人工智障——
美国911以后反恐成为国家安全的重点,美国安全部门会根据姓名、出生地、宗教信仰、人脸识别算法、历史行为数据——例如所有旅行数据等等,会对每一位航空旅客是恐怖分子的嫌疑度进行打分,而经常出现一些无辜的人因为疑似恐怖分子,而经常在机场被羁留检查,多次错过飞机,这样的事件每年会超过500起;
谷歌的安卓系统会自带一个App——Photos,这个加入了人工智能算法的应用能自动识别人脸、物品等,功能十分强大,然而2015年6月,一位网民在Twitter上发帖称:“谷歌,我的女朋友不是大猩猩”,原来,谷歌Photos将他女朋友的照片识别成了大猩猩;
Facebook具有一项称为“回忆”的功能,可以向用户突出显示前几年在此日期发生的事情,想起令人难忘的回忆,但Facebook还是低估了一些极端情况,例如它会在家人死亡的周年纪念日显示家人的照片,或者它可能会要求自己向已经去世的朋友说生日快乐。
2011年,一本有关苍蝇的生物学教科书在亚马逊上的定价为2300万美元。后来发现原因是两个卖家,他们设置了算法来观察彼此的价格,然后重置自己的价格。
2012年,《华尔街日报》报道了办公用品公司史泰博的算法歧视行为,史泰博先判断用户所在的位置附近有没有卖很多卖办公用品的实体店,如果20公里之内没有,则判断用户大概率只能在网上买,于是它的网上商城就会给这些顾客显示一个很高的价格,在这个场景里,它针对的不是一个人,而是这个区域里的一群人,即使附近的人互相交流也看不出来。
中国很多城市的智能交通摄像头配备了人工智能算法,用来检测和识别在红灯时乱穿马路者,然而最近宁波的摄像头意外曝光了格力总裁董明珠乱穿马路的照片,原来摄像头将董明珠在公交车广告上的头像识别成了行人;
2018年3月20日凌晨,Uber公司在美国坦佩市进行自动驾驶道路测试时,撞到一名叫伊莱恩的49岁中年女子,致后者当场死亡,当时,伊莱恩正走在人行横道,汽车在发生撞击前5.6秒钟将其错误识别为汽车,撞击前5.2秒时又将其识别为其他物体,此后系统发生了混乱,在“汽车”和“其他”之间摇摆不定,浪费了大量的时间,因此车辆没有及时刹车,酿成悲剧;
好,看到了如此多“人工智能”变“人工智障”的车祸现场,我们需要思考的是——这些匪夷所思的问题是如何产生的?看过卫夕长文的朋友都会很熟悉,卫夕通常更感兴趣的是背后那个更加深层次的底层逻辑,接下来我们就一起看一看算法故障背后的原因,我把它总结为三类——
1.算法本身或者算法背后的人产生技术错误——只要是人写的算法,就一定有出错的概率,比如德国居民那个凌晨发飙的智能音箱、失控的Uber自动驾驶汽车就是程序上的Bug导致的,这一类我们克服的办法其实相对简单。
但对于另一种人为算计消费者的算法有时候可能我们就无能为力了,比如上边的办公用品网站史泰博的价格歧视;滴滴曾经也被公众投诉“同一段距离不同的人打车价格不一致”的“大数据杀熟”现象,无论真实与否,这类问题往往很难识别,因此也加大了监管的难度;
2.算法对于人性部分的忽略——你可能听过这个段子:一个美女通过一个最现代的人工智能设备找男朋友,输入条件是:1、要帅;2、有车,人工智能给出的结果是象棋;这尽管是一个段子,但从某种意义上也说明了现在的人工智能离真正理解人类的感情和行为依然有巨大的鸿沟,Facebook提醒你给去世的亲人发生日祝福背后本质的原因在于AI无法真正理解死亡对于人类意味着什么;
3.算法训练数据本身的偏见——目前人工智能的基本逻辑是先构建一个合适的机器学习模型,然后用大量的数据去训练模型,然后用训练好的模型再来预测新的数据,这里边有一个非常重要前提就是输入数据的重要性,比如上边再犯罪率的预测之所以产生问题就是因为输入的数据中本身就存在偏见,如果现实世界数据本身就存在偏见,那么预测结果也一定会有偏见;
总结一下,人工智能的大趋势必然会继续发展,但我们也需要清醒地意识到它现阶段的局限性和问题,不要夸大和渲染它的神奇性,如何从系统的角度解决算法带来的这些匪夷所思的问题,欢迎在留言区发表你的看法!
本文来自公众号:卫夕指北(ID:weixizhibei),作者: 卫夕,互联网专栏作者、商业产品经理,专门生产硬核互联网内容,致力于用简洁的语言剖析互联网及广告的底层逻辑
为什么说人工智能其实是人工智障
我们所举的例子是机器学习中的有监督学习。
人工智能机器学习分为有监督学习,无监督学习,强化学习和蒙特卡洛树等。这一句你看不懂完全可以忽略,因为不影响下面的解释。
我就是传说中的大boss,人工智能!怕了吧!
其实,人工智能基本等于人工智障!人类一目了然的事情,它得算半天,而且未必能搞定。
首先,我们来说说,人工智能和传统计算机原理之间的关系。
最传统的计算机,就是这玩意——
它的工作原理就是有一个确定的输入,就有一个确定的输出。
对于机器,原理也一样。比如这个
但人类,被输入一个刺激后,其实是往往这样的
在现实世界中,我们看到女朋友的脸,无论她化了什么样的妆,你一眼就能认出来。
但传统计算机的单一输入值,单一确定输出的模式,就傻眼了。
但怎么让机器模仿出人的输入输出能力,有类似人类的智能。这就是人工智能问题的核心。
其实,要做的就是对复杂的输入信号进行分解计算,对计算中的不同因子进行不同的处理,无论输入的有怎样变化,都能做出大致合理的输出。
用专业的说法,就是在输入输出之间的隐藏层进行一系列权重调整,建立一个模型。
这样无论人脸加上什么伪装,只要落在一个范围内,机器都能认出这张脸。
这时候,机器就变得像人一样能认人了,就成了人工智能。
看到这儿,其实你就比百分九十以上的人更了解人工智能了。但人工智能怎么具体调整权重,我们可以讲个机器人按脸杀人的故事。
第一步先要让机器可以认出人脸。
所以我们要拿很多包含人脸的图片喂给它:
脸上不同的部位分别被抽象为一组数字,比如鼻子可以极度简化为为长度和宽度两个数据,
然后发送给程序去处理——人工神经网络现在特别流行,我们就用它好了。这些数字的流动,的确有点像人类脑神经的工作方式:
这个图看起来不知所谓,其实特别简单,就是挨个把输入的数字乘以那些系数,最后加起来。
对,这些系数就是所谓的“权重”。
输出层输出的就是一个普通的数字。我们给他设定一个阈值,比如20;把牙齿,鼻子和眼睛都算出来,等于28,大于20,就判定输入的是人脸。
这差不多是一种很原始的人工神经网络,叫做感知机。
不过现在的神经网络会引入一种叫做激活函数的东西,把这种一刀切的智障变成一个稍稍聪明一点的样子:
这个图像有什么意义呢?
就是把一个简单到弱智的“是不是”的问题,转化为有“百分之多少”的概率问题。看上去是不是智能了不少?
同时,聪明的你一定发现了,决定成效的关键其实就是那些“权重”。
怎么获得恰当的权重组合?
这就是机器学习的意义:让机器自己根据每一次考试的结果去修正自己的权重。
慢着,它自己怎么知道对错?
这还是要人类事先给这些照片进行分类:哪些是人,哪些是狗,哪些是ET……
这就好像人类在给他出有标准答案的考试,所以叫做“有监督学习”。
然后我们只要不断重复这个过程,权重就会逐渐调整到更恰当的组合,输出结果就会越来好,判断越来越准。
如此不断重复同一过程,达到改进的方式,就叫做“迭代”。
只要我们的神经网络设计的没问题,最终,就可以准确识别出人类。
现在最先进的算法,已经可以达到各种状况下98%以上的正确率了!
这整个过程就叫做“训练”。
我们用来训练它的图片和每张图片对应的标签,就叫做“训练集”。
一般介绍人工智能文章到这里就不会再往深里说了,如果继续往下看,你对人工智能的了解就会远远99.99%的人类。
所以,你做好准备成为砖家了吗?
首先,大家最好奇的应该是:程序到底怎么调整权重的?
这个被称作“反向传播”的过程是这样的:在每一次训练中,我们都要确定程序给出的结论错的有多远。
我们已经说过,程序的猜测和答案都可以转化为数值,
把所有的错的平方都加起来,再平均一下,就得到一个“损失函数”。
损失函数当然越小越好,这代表我们的神经网络更厉害。
我们一开始可能在山顶,这意味着“损失”特别大,所以我们要尽快下山止损。
怎么做呢?一种最常用的也很有效的办法就是,永远选择最陡的路线,这样很容易就会到达某个山谷。
当损失函数达到某个最小值,不怎么变化了,就说明训练差不多了。这种方法就被叫做“梯度下降”。
具体而言,其实就是求导数:
看到这个公式有没有一点想崩溃的感觉?
如果还没有彻底崩溃,就稍微解释一下吧:
这个式子的意思就是,把某个权重减少这么多,损失函数对相应权重的偏导数乘以α。
至于怎么求这个偏导数的数值……你确定你真的想知道?
而这个α呢,也很重要,叫做“学习速率”。
它的意思是:发现错误之后,改变的幅度太大或太小都不好。比如学开车,转弯
至于改的幅度(系数)多大最好,这就要靠悟了。
好吧,说了这么难的东西,再来点八卦吧。
为啥要让人工智能杀那么多猩猩、海豚、蜥蜴?
因为如果没有这些负样本,人工智能随手一抓都是对的。
这样,就不存在学习和积累经验(调整权重)的过程,也不会有在现实世界中真正找到人脸的能力。
不要被那些所谓人工智能专家神神鬼鬼的术语所迷惑,其实人工神经网络的有监督学习的整个过程,无非就是在做自动化的回归分析罢了。
从最简单的一元线性回归到多元非线性回归,就是越来越看起来越来越智能的过程。人工智能的专家也是这么循序渐进掌握机器学习的。
最后,如果你能坚持到这里,
恭喜,你已经成为半个机器学习的专家了!
关注PingWest品玩(微信号:wepingwest)
发现更多有趣好玩的内容返回搜狐,查看更多