2018,警惕AI对人类带来的负面作用
随着AI技术在各个产业场景中逐渐运用开来,带来的边界问题、责权问题、道德选择问题很可能被引发。
二、算法歧视
2016年,微软曾推出一款聊天机器人Tay,却因为用户教给它大量种族歧视语言和脏话,一天内就被迫下线。这引出了一个极具争议的话题:机器学习会汲取人类的知识和信息来塑造自己,但若这里面含有不良元素该怎么办?
2017年,算法歧视问题非但没有被解决,还冒出了各种各样新问题。比如谷歌大脑会给女性图片打上很多关于家庭、弱势的标签;而把黑人识别为大猩猩,更是点燃了AI种族歧视的话题关注度。
所谓的算法歧视,对于普通消费者来说,最有可能在内容推荐和电商推荐这两个地方感觉到。
比如说消费者刚看过宽大的衣服,电商就推荐减肥药,很可能让消费者联想到算法在歧视自己胖;再比如打开某些软件的时候,偶尔点了一个推荐过来的猎奇内容,然后再一刷新……好嘛,一堆类似内容蜂拥而至,这就是因为算法的归类方式给你贴上了标签。
这类问题的根源,是机器学习技术进行个性推荐现在还必须建立在两个逻辑的基础上:以过去算将来,以群体算个体。算法会汲取以前的经验来给你特定的某些东西,但很有可能歧视信息就包含在机器汲取的经验里。
在个性推荐系统越来越多场景应用可能的今天,根治算法歧视在短期内还很难实现。
三、矛盾重重的私人数据与机器学习
AI和个人隐私,似乎从来都是一对天敌。
因为AI技术若想要提供个性化、完全符合个人习惯的服务,就必然要学习和理解用户本身。而这其中,就涉及对用户私人数据的学习。
但出于隐私的考虑,以及对网络安全的不信任,大部分用户显然是不希望把自己的数据透露给机器的。
这样一来,矛盾就产生了。
近两年,用AI来读取用户个人数据这件事一直处在被压制的状态。更早一些时候,苹果和谷歌都曾推出过让AI读懂用户的产品,但很快就受到了舆论的猛烈抨击。以谷歌的AI相机为例,马斯克曾公开指责道:一点也不注重隐私。
谷歌AI相机
在2017年下半年,我们看到了AI芯片拉开了风云际会的争夺序幕。但是搭载AI芯片的硬件一定要有的放矢,有任务可以完成。于是让硬件读懂用户、让系统根据用户数据提供千人千面的服务,势必会重新回到公共视野里。
而从大趋势来看,把个人数据交给机器似乎是人类不可避免的归宿。无论是医疗健康、金融服务还是社会安全,机器肯定都比人类更靠谱。只是这其中经历的不适感和安全风险确实不小。
2018年,无论是手机、音箱、穿戴设备、VR,在启用了机器学习能力后,似乎都会踩上隐私数据这条红线。
究竟怎么处理这个矛盾,确实是个大问题。
四、真假难辨
就目前来看,利用AI来造假,看上去问题已经不大了。
来看看视频和直播换脸,其实从整个技术进度来看,基于GAN的仿真和替换技术正在整体成熟。无论是模拟替换音频还是视频文件,AI都已经能够得心应手地处理。
但这意味着什么?在Face2Face软件被推出的时候,有网友就惊呼:假如跟我视频聊天的人被替换了怎么办?
而在开发框架和数据资源越来越丰富、算法越来越强劲的今天,我们可以很有信心地说:2018年,用AI来伪造视频音频将更加天衣无缝。
这是AI对未来技术的探索,却很可能引发社交媒体和网络传播的动荡:亲眼所见的东西都可以完全造假,这个世界还有什么可以相信呢?
如今,只能期望反AI造假的AI系统也尽快现身江湖吧。
五、花样百出的黑客攻击
2017年年末,谷歌TensorFlow被爆出框架漏洞,虽然后面被找到,没有造成危险,但依旧给人们敲响了警钟:AI并不安全。
至此,我们已经见识过了各种黑客攻击和AI技术结合的可能性:用AI技术来伪造文件信息实施攻击和诈骗;用AI技术来提升黑客攻击效率;以AI系统为目标的攻击。随着AI和物联网体系的结合,未来对物联网的攻击中很可能也会出现AI的身影。
AI技术的成熟,让网络黑客们找到了更多的目标、更多的工具以及更多的技巧。虽然AI给我们提供了各种保护互联网安全的方式,但无论如何,AI带给了黑客更多武器是确定无疑的。
2017年的网络世界并不太平,各种各样的病毒和黑客群魔乱舞。进入2018,我们很可能会在这个战场看到更加惨烈的搏杀。
尾声
就像其他任何一种技术革新一样,AI在带来价值的同时也创造了危险。而且凭借识别和学习能力的特征,AI带来的负面影响有可能大得令人难以想象。
但是无论如何,技术就是这么一步步向前推进的。更美好的风景总是伴随着更艰险的路途。认识风险并探索解决方案,或许才是人类与AI相处的王道。
来源:上海转型发布返回搜狐,查看更多