来自人工智能的拷问:人的独特性到底是什么
这是一个撕裂的时代,60年代生人还不能很好地和互联网握手,80年代生人熟悉并依赖互联网,而00后已经把电子产品看作他们最亲密的朋友。从第一次工业革命到人工智能时代,人类的技术革新间隔越来越短,技术的迭代越来越快。如果说工业革命是为了补充人类有限的生产力,将人类从繁重的体力劳动中逐渐解脱出来,那么人工智能则是让技术更好地理解和服务于人。至此,甚至让人产生一种错觉:社会期待机器更像人(快速识别、模糊处理、善解人意等),同时期待人更像机器(超强记忆、输出稳定、更加理性等)。人工智能的迅速发展,使得人们对它又期待又害怕——期待的是,有很多产业的智能化正在改变着人们的生活,进一步把人类从不必要的体力劳动中抽离开,并能提供越来越丰富的精神助力;害怕的是,人工智能能够处理的业务越来越多,可能会引起某些行业的大规模失业,于是有人开始担心自己会被人工智能替代,从而变得一无是处,最终被社会淘汰。随着人工智能技术的不断进步,人工智能将会变得越来越像人,也许最终,它将和人一样拥有人性化的一面,既能作恶,也能行善。目前对于人工智能的发展究竟能达到什么样的高度,都只是猜测。但可以肯定的是,人工智能像洪水般涌来,渗透进我们生活的点点滴滴,已经势不可挡。这一切不禁让我们发问,面对人工智能,人的独特性到底是什么?
一、恐怖谷理论(Theun-cannyvalley):人们为何害怕人工智能?
发明家爱迪生说:“地球上的一切工具和机器,不过是人肢体的知觉的发展而已”。这句话点明了工具的内涵,即工具是人脑和人手的延伸。某些理论认为,能够制造和使用工具是人和动物的根本区别,这使得人类的大脑越来越灵活,最终发展成“人类”。当然,近期的科学研究有了新的说法,认为人并不是为了使用工具而直立行走,相反,人是直立行走后,手得到了解放,才开始使用工具。而直立行走为大脑重量的增加提供了条件,人才变得越来越聪明。无论哪一种说法,工具对于人的意义都是重大的。人如果不会使用工具,就永远不可能成为地球霸主,垄断地球上的资源,并发展出各种思想和文化。因此,人对于科学技术的发展,亦即工具性能的提升,是有自然的需求的。
第一次工业革命之后,蒸汽机引爆了各种机器的诞生和使用,这是一次替代“人手”的革命,把人类从无数繁重的体力劳动中解放出来一部分,而这一次革命,也理所应当地造成了大量的工人失业。与此同时,新的岗位正在被创造——工人在接受培训之后,学会了如何操作机器,从亲自从事体力劳动到操作机器从事生产。应当注意到,在那个时候,技术的迭代速度不像现今这么频繁,失业的工人经过简单培训是可以再就业的,也就是说,培训的时间要小于技术迭代的时间。因此,人类更多享受到了机器生产带来的生产力的提高、物质生活的丰富,而极少产生对于机器的恐慌情绪。
而这一次,面对人工智能,情况变得不一样了。如果说之前的革命是替代“人手”的革命,那么这一次,技术试图替代“人脑”。相比“人脑”,人工智能具有很多先天的优势,如高速计算能力、超强记忆能力等,这些能力是人类力不可及的,但是这些能力并不让人类害怕,因为它们更倾向于“工具”的特质,它们毫无创造力,只是在算法的支持下机械地完成人类的命令。然而,如今人工智能的发展突破到令人难以想象的地步,人工智能开始具备学习能力、模仿能力、沟通能力等,虽然还很初级,但已经能够轻易击败人类最顶尖的棋手(用一种完全不同于人类学习模式的方式)。照这种趋势发展下去,就很令人恐慌了。
根据恐怖谷理论(图1),机器越像人,会越受到人们的喜爱,但是在临近“健康人”的曲线附近,会突然遭到人们的极端反感,给人带来恐怖的感觉,形成“恐怖谷”。这是因为,在进化的过程中,接近健康人又有所差异的一般来说都是携带不良基因或身怀恶疾的人,因为这部分人不利于进化,因此人类对这一部分人带有恐惧和排斥的心理。但是,在机器人和人的相似度达到95%以上时,人类又会重新产生喜爱和亲近的心理。图2是世界首个获得公民身份的机器人,或许在外形上落入了恐怖谷?恐怖谷理论主要是从外形来判断的,在此处,我们把这个理论引申到智力和心理层面。当机器的智力和心理(尤其是心理)接近人类但和人类又有一定程度的差别时,人类同样会产生恐惧心理。
此外,这种心理的另一面还来自对于未知的恐惧。普通人对人工智能技术并不了解,只能想象,将来的发展是未知的。人们会想,人工智能什么都可以做了,那么我就会失业。这种担忧并非杞人忧天,人工智能技术一旦爆发,人类就有可能面临大面积的失业,而且新岗位的培训时间又可能长于技术迭代的时间——也就是说,人类在通过学习胜任新岗位后,这个新岗位又被技术淘汰了——这种失业就会是断崖式的。高学历的人群也在恐慌人工智能。有人在某高知论坛上做了一个思想实验,实验本身充满了复杂的逻辑,其核心是对未来出现的高级且恶意的人工智能的勒索的担忧——这个思想实验被列为“禁术”,因为版主认为这会提高这种人工智能出现的概率。看,高知对未来高级人工智能的出现也充满了恐慌,因为一旦出现并具有了自我意识,这种人工智能就会是一种超越人类的存在。而这样的情况究竟会不会发生呢?无法预测。
二、当下之拷问:如何避免被人工智能取代?
人工智能将会对市场和劳动力产生巨大影响——无人驾驶汽车将迫使司机转行;诸如特斯拉的机器人流水生产线将吞噬无数制造业岗位,如今1200万制造业岗位已经开始锐减。然而这个数据仅仅是个开始。人工智能飞速崛起,脑力行业受到了极大的波及。几年前,我们还没法想象,有些行业没有受到培训的专业人员参与会是什么样子,尤其是教师、医生、财政咨询师、股票经纪人、营销人员和商业咨询师等职位。如今,这已成为现实。
那么人类应当具有什么样的能力,才不会被人工智能取代呢?目前主流的想法是,因为人工智能的基础是算法,而算法是固定的,不具有创造力,因此,人们应该注重培养自己的“非理性能力”,如创造力、想象力、同情能力等。之前人类社会构建的基础是理性,为了让社会构架更稳定,会人为地在基层治理体制中加入限制或剥夺人类情感的约束,如父慈子孝、三从四德、包办婚姻等。随着生产力的发展和现代社会制度的确立,这些礼法开始被社会淘汰,而新的理性(如同经济学中的理性人假设)开始建立,社会分工要求人们更加具有确定性、专业性和职业化。而人工智能时代又在告诉人们,应该适当释放某种有益的感性,因为这种“人味儿”是稀缺品,是人工智能永远不会具备的。
人工智能也在改变我们的教育方式,儿童的很多启蒙教育是用电脑完成的。据心理学家研究表明,儿童会模仿成人的动作,而不是机器的动作。真人面对面的教学对于儿童来说是必不可少的,否则儿童永远无法真正学会。然而,就我亲身经历而言,我家孩子的很多技能,比如算数、拼音等是用ipad学会的,我不知道这对他会有何种影响,但有一点可以肯定,那就是,未来的人类会把和机器交流当作理所当然。我们现在珍惜的“人味儿”将来可能会被新的一代排斥,因为他们也许更喜欢并习惯于和机器交流了。
如何避免被人工智能取代?我认为以下四类工作难以被人工智能取代:1.某些创造性极强的高端工作,2.某些深入人类社会的研究工作,3.某些专门为人类设计的文体活动,4.服务于人类情感交流的工作类型。但人工智能也是在不断发展的,以上四类工作只是基于目前对人工智能前景的想象,之后剧情的发展也许会让人难以预料。对此,应该持开放的态度。
三、人的独特性到底是什么?
在写这篇文章之前,我非常简单地想,相比机器,人的独特性有很多啊,比如创造力、想象力、爱的能力、非理性、出错、情绪化、自主性等等。这些机器总不能模仿吧?人工智能有什么可怕呢?它们永远不可能超过人类啊。
事实是这样么?我也不知道。进一步想,生命本身不是一种程序么?我们所携带的DNA不就是编码么?根据这套编码和编码之间的交叉融合,有的时候再发生点变异,人类就这样一代一代传承,生命根据编码工作,周而复始。既然是编码,为什么人工智能不行?人类有感情,那么加入类似于影响感情的激素编码就可以了;人类会犯错,那么加入随机扰动就好了;人类有创造力,机器完全可以通过学习来达到创新。目前的人工智能受到计算能力和存贮能力的限制,以上这些设置看上去有点遥不可及;而一旦突破计算能力的限制,人工智能拥有的潜力是不可低估的,其拟人化的程度也会迅速加强。人的大脑是一种神经元链接的结构,如果未来人工智能可以模仿出人类大脑这样量级的计算能力,那么人和人工智能将无限接近。这也是为什么,前文那种思想实验是那么令高知人群恐慌,因为他们知道,这种具有自我意识的超级人工智能不是不可突破的技术。据说,北大的工学院和哲学系已经开始研究“机器人伦理学”了,听上去很可笑,但或许非常有前瞻性。
所以,人的独特性到底是什么?以我的见识,我能想到的,人的独特性不在于其它,而是所有有机生命的共性,即其生命的有限和其繁衍的本能。是这种生命的有限,促使人类向死而生,格外珍惜生命,格外具有求生的欲望。这种繁衍的本能,让人类代代更替,曲折向上,并发展出庞大而复杂的人类网络。这些,是机器永远体会不到的。没有死亡的概念,就不曾存在“生”的概念,也就不会真正具有自我意识,哪怕具有超级强大的大脑,那也不过仍旧是一个工具。当然,这种想法是现下的刻舟求剑,也许有一天,机器会相当程度地拟人化,从人类身上学习到求生的本能,而真正萌发出自我意识。到那时候,人类就不得不承认,人工智能不再是机器,而是另一种形式的“生命”了。
科学网—人工智能的基石是数学
中国科学院院士徐宗本:人工智能的基石是数学
■本报见习记者程唯珈
“人工智能的基石是数学,没有数学基础科学的支持,人工智能很难行稳致远。”近日,由联合国教科文组织和中国工程院联合主办的联合国教科文组织国际工程科技知识中心2019国际高端研讨会上,中国科学院院士、西安交通大学教授徐宗本在题为《AI与数学:融通共进》的主题报告上如是说。
在他看来,目前人工智能所面临的一些基础问题,其本质是来自数学的挑战。
数学家眼里的人工智能是什么?徐宗本给出的答案简洁明了:当下主要指机器学习。
如果给这个名词赋予一个说明,他认为这是人或者智能体,通过与环境的交互来提升自身行为和解决问题能力的智能化操作。“机器学习是把这种智能形式化为数学公式,转换成计算机可以操作的算法和软件。”他说。
进一步说,人工智能实际上是一个将数学、算法理论和工程实践紧密结合的领域。将其剖开来看,就是算法,也就是数学、概率论、统计学、各种数学理论的体现。
不过徐宗本认为,作为人工智能基石的数学,还存在五大核心问题待解,而这也是制约人工智能进一步发展的“绊脚石”。
第一是大数据的统计学基础。徐宗本认为,人工智能和大数据是一对“孪生姐妹”。人工智能更多指应用模式,强调与领域知识的结合。大数据则是最底层的信息技术,强调机器和机器、机器与人之间的内容交互与理解。但是当前,分析大数据的统计学基础面临颠覆,应用于复杂大数据分析的极限理论、统计推断方法、真伪判定等数学基础尚未完全建立起来。
第二是大数据计算基础算法。一般而言,理解和分析大数据都是通过数据处理或数据分析来实现的,而无论是数据处理还是数据分析,最终都归于求解一系列基本的数学问题,如线性方程组求解、图计算、最优化计算、高维积分等。不过,这些看似早已解决的问题在大数据情形下却成了“拦路虎”。
他以旅游为例,打了一个生动的比方来解释这种挑战。“比如从西安到北京,怎么走最近?过去地图分辨率不高,根据普通的地图可以获取基本的路线。但现在大数据背景下,地图的分辨率越来越高,不可能一次就涵盖西安至北京之间全部城市与道路的数据,只能一次一次地提供其中某些城市间的道路信息。到达北京需要多少时间,怎样走最近?要带多少钱?现在的机器还回答不了这些问题。这是由于在分布式图信息环境下,图计算的基础算法问题还没有解决。”徐宗本说。
第三是深度学习的数学理论。徐宗本认为,这个问题在当下尤为关键。新一轮的人工智能多以深度学习为基本模型,然而深度学习的设计基础在哪里,什么样的结构决定了什么样的性能,能不能有台劳公式和富里埃级数这样的数学表示理论,这些基本的理论问题还没有解决。正是由于这个原因,现在的人工智能还得靠“人工”来换“智能”,这也是造成当下“人工智能=人工+智能”的原因。
第四是非常规约束下的最优输运。人工智能的很多问题都可归纳为两个领域数据打通问题,即让两个对象在满足某一个特定的不变量情况下互相转移。“比如中英文互译,就是在保持语义的情况下将中文数据转换成英文数据。”
应用到现实,徐宗本畅想,将医院的CT和核磁共振图像相互转移或能很好地解决医疗诊断的信息不足问题。“因为照的是同一个人,这里人就是不变量。要解决这些问题,建立特定约束下实现最优传输的数学理论与方法是基本的。”
第五是关于学习方法论的建模与函数空间上的学习理论。徐宗本表示,研究生阶段学到的机器学习理论,需上升到方法论学习的阶段。
“从数学上说,无论函数空间上的学习理论怎么建立,本质是要适应不同的任务。由于任务本身是函数,是无穷的,那么就需要把过去机器学习中对样本、数据的选择、泛化,推广到对任务的选择、泛化中。”
如果辩证地看待数学和人工智能的关系,相辅相成可能是其最好的诠释。徐宗本表示,不仅数学可为人工智能提供基础,人工智能也为数学研究提供新的方法论。
“比如解偏微分方程,过去人们可能会使用计算机,现在用人工智能可以做得更好。”他认为,让数学中的模型方法与人工智能的数据方法结合,可将机器的深度学习应用得更加精确。
面对如今发展得如火如荼的人工智能产业,徐宗本也道出了自己对从业者的希冀。
“人工智能想要做得好,要靠数学问题尤其是算法的解决。”徐宗本再次强调,从业者应潜心从基础研究抓起,使我国的应用场景优势真正转化为技术优势和产业优势。
《中国科学报》(2019-11-04第4版综合)人工智能的安全、伦理和隐私问题
人工智能的安全、伦理和隐私问题一、人工智能的安全问题1.人工智能网络安全问题众所周知,很多行业在应用入工智能这项技术以及相关的知识的时候都是依附于计算机网络来进行的,而计算机网络这个行业是错综复杂的,很多计算机网络的安全问题也是目前我国面临的很严重的问题之一,相应的人工智能的网络安全问题也是还存在问题的,比如机器人在为人类服务的过程中,操作系统可能遭到黑客的控制,机器人的管理权限被黑客拿到,使机器人任由黑客摆布;亦或突然源代码遭受到攻击,人工智能的信息基本通过网络进行传输,在此过程中,信息有可能遇到黑客的篡改和控制,这就会导致机器人产生违背主人命令的行为,会有给主人造成安全问题的可能性。不仅如此,在人工智能的发展过程中,大量的人工智能训练师需要对现有的人类大数据进行分析和统计,如何防止信息的泄漏和保护个人信息的隐私也是人工智能领域需要关注的问题。
2.人工智能应用范围限定的问题对一些发展不成熟、会有引起安全问题的可能性的领域以及技术的应用范围给出一定的限定,这是保障人类与社会和谐发展的一种手段,也是不能或缺的一个步骤。目前,人工智能的发展也是如此的,这也是人工智能目前安全问题所面临的问题之一。目前各行各业都有人工智能的应用,比如无人驾驶、各类机器人等,很多行业都会看到人工智能的存在,小到购物APP中的客服机器人,大到国际比赛中机器人的应用,在许多危险的领域,如核电、爆破等危及人类生命安全的场景,发挥了至关重要的作用。这些领域的应用如果应用的成功那没什么问题,一旦出现问题就会产生很严重的安全性问题。对于人工智能应用的范围,目前并没有给出明确的界定,也没有明确的法律依据,这就需要相关组织和机构,尽快对人工智能的适用场景进行梳理,加快人工智能标准和法律的建设步伐,防止一些不法分子,利用法律漏洞将人工智能运用到非法的范围中,造成全人类不可估量的损失。
3.人工智能本身的安全标准人工智能的产生以及应用的本身目的并不是为了赶超人类或者达到人类的智力水平,它本身存在的价值是服务于人类,可以成为人类生活的更好的一种工具,人类需要对其有着一定的控制的能力。但是近几年来,很多人工智能的存在是为了与人类的智力水平以及人类为标准,忽略了部分人类伦理的问题,甚至涉及到部分人权问题,这就偏离了人工智能本身存在的目的,而这种的偏离会产生一定的安全问题,从而影响人工智能的发展。所以人们应对机器人的道德和行为判断力进行判定,确保其在人类的道德伦理范围中,避免人工智能产物做出危害人类安全的行为。人类必须对人工智能的行为进行严格的监管,也要大力发展人工智能自身的伦理监督机制,使其为人类所用。
二、人工智能的伦理问题1.人工智能算法的正义问题依托于深度学习、算法等技术,从个性化推荐到信用评估、雇佣评估、企业管理再到自动驾驶、犯罪评估、治安巡逻,越来越多的决策工作正在被人工智能所取代,越来越多的人类决策主要依托于人工智能的决策。由此产生的一个主要问题是公平正义如何保障?人工智能的正义问题可以解构为两个方面:第一,如何确保算法决策不会出现歧视、不公正等问题。这主要涉及算法模型和所使用的数据。第二,当个人被牵扯到此类决策中,如何向其提供申诉机制并向算法和人工智能问责,从而实现对个人的救济,这涉及透明性、可责性等问题。在人工智能的大背景下,算法歧视已经是一个不容忽视的问题,正是由于自动化决策系统日益被广泛应用在诸如教育、就业、信用、贷款、保险、广告、医疗、治安、刑事司法程序等诸多领域。从语音助手的种族歧视、性别歧视问题,到美国犯罪评估软件对黑人的歧视,人工智能系统决策的不公正性问题已经蔓延到了很多领域,而且由于其“黑箱”性质、不透明性等问题,难以对当事人进行有效救济。
2.人工智能的透明性和可解释性问题人工智能系统进入人类社会,必然需要遵守人类社会的法律、道德等规范和价值,做出合法、合道德的行为。或者说,被设计、被研发出来的人工智能系统需要成为道德机器。在实践层面,人工智能系统做出的行为需要和人类社会的各种规范和价值保持一致,即价值一致性或者说价值相符性。由于人工智能系统是研发人员的主观设计,这一问题最终归结到人工智能设计和研发中的伦理问题,即一方面需要以一种有效的技术上可行的方式将各种规范和价值代码化,植入人工智能系统,使系统在运行时能够做出合伦理的行为;另一方A面需要避免研发人员在人工智能系统研发过程中,将其主观的偏见、好恶、歧视等带入人工智能系统。算法歧视与算法本身的构建和其基于的数据样本数量及样本性质密不可分。算法歧视问题其实取决于底层数据的积累,数据积累越多算法计算就越准确,对某一人群的算法描述就越精准。同时,随着算法复杂性的增加和机器学习的普及导致算法黑箱问题越来越突出。美国计算机协会公共政策委员会在《算法透明性和可问责性声明》中提出七项基本原则,第一项基本原则即为解释,其含义是鼓励使用算法决策系统对算法过程和特定决策提供解释,并认为促进算法的可解释性和透明性在公共政策中尤为重要。未来人工智能系统将会更加紧密地融入社会生活的方方面面,如何避免诸如性别歧视、种族歧视、弱势群体歧视等问题,确保人工智能合伦理行为的实现,这需要在当前注重数学和技术等基本算法研究之外,更多地思考伦理算法的现实必要性和可行性。
三、人工智能的隐私问题1.个人隐私的过度收集互联网的发展以及人工智能技术的应用在很大程度上降低了大数据在分析应用方面的成本,摄像头已经遍布我们生活的大部分角落,走在街上我们的一行一动,都随时随地在电子监控的掌控之中;计算机被广泛利用来准确地记录人们的浏览记录:移动通信设备随时跟踪人们的通话记录,聊天记录等。在人工智能时代,在收集个人信息面前,人们面对无处可逃的命运。在人工智能的应用中,监控发生了根本性的变化,融合了各种类型的监控手段,监控的力度也变的越来越强大。以CCTV视频监控为例,它不再是单一的视频监控或图像记录和存储,其与智能识别和动态识别相结合,大量的视频监控信息构成了大数据,在此基础上通过其他技术的智能分析就能进行身份的识别,或是与个人的消费、信用等的情况进行关联,构成一个人完整的数字化的人格。人工智能应用中的数据米源于许多方面,既包括政府部门也有工商业企业所收集的个人数据资料,还包含着用户个人在智能应用软件中输入和提供的数据资料,比如在可穿戴设备中产生的大量个人数据资料,以及智能手机使用所产生的大量数据资料都可能成为人工智能应用中被监控的部分,它在不改变原有形态的前提下对个人的信息进行关联,将碎片化的数据进行整合,构成对用户自身完整的行为勾勒和心理描绘,用户很难在此情况下保护自己的个人隐私。视频监控还可能借助无线网络通信,使隐私遭遇同步直播成为现实,一些非法的同步录像行为,具有侵犯隐私利益的可能性。此类人工智能技术的广泛应用,让我们隐私无处安放,不仅超出了公众所能容忍的限度,也是对整个社会隐私保护发起的挑战。
2.个人隐私的非法泄露在人工智能不断发展,应用领域不断拓展,人工智能技术在各行各业中都发挥着越来越重要的作用,渗透在各大领域之中,带动着产业的发展,同时我们也必须承认该项技术的发展和应用无法避免的隐患。很多情况下,我们在不自知或不能自知的状态下向智能应用的运营商或者服务提供商提供我们的数据信息,每个人的数据都可能被标记,被犯罪分子窃取并转卖。以“Facebook”数据泄露为例,2018年3月17日,美国《纽约时报》曝光Facebook造成5000多万的用户隐私信息数据被名为“剑桥分析(CambridgeAnalytica)”的一家公司泄露,这些泄露的数据中包含用户的手机号码和姓名、身份信息、教育背景、征信情况等,被用来定向投放广告。“而在此次事件中,一方面是由于使用智能应用的普通用户对自身隐私数据缺乏危机意识和安全保护的措施,另一方面Facebook应用中规定只需要用户的单独授权就能收集到关联用户的相关信息,其将隐私设置为默认公开的选项给第三方抓取数据提供了可乘之机。同样Facebook之所以受到谴责的一个重要原因就是未能保护好用户的隐私数据,欠缺对第三方获取数据目的的必要性审查,对第三方有效使用数据缺乏必要的监控,使个人数据被利益方所滥用,欠缺网络安全事件的信息公开和紧急处理的经验,不仅会侵害网络用户个人的合法权利,也会对社会的发展进步产生消极的影响。Facebook在对数据使用和流转中,并未对个用户数据提起重视、履行责任。在向第三方提供数据共享的便利同时并没有充分考虑到用户隐私保护的重要性和必要性,以及没有采取必要的预防策略,极易对平台数据造成滥用的风险。不难看出,从分析用户的隐私数据来定向投放广告追求商业价值和经济利益,到一再发生的泄密事件使得用户隐私数据信息泄露变得更加“有利可图”。一方面,人工智能应用由于在技术上占有优势,在获得、利用、窃取用户的隐私数据时有技术和数据库的支撑,可以轻松实现自动化、大批量的信息传输,并在后台将这些数据信息进行相应的整合和分析;另一方面,后台窃取隐私数据时,我们普通的用户根本无法感知到,在签订隐私条款时很难对冗长的条文进行仔细的阅读,往往难以发现智能应用中隐藏着的深层动机。在此次数据泄露事件中,该平台本身并没有将用户的数据直接泄露出去,而是第三方机构滥用了这些数据,这种平台授权、第三方滥用数据的行为更加快了隐私泄露的进程。
3.个人隐私的非法交易在人工智能时代,个人信息交易已形成完整的产业链,在这个空间中,一个人的重要隐私信息几乎全部暴露在外,包括身份证号,家庭住址,车牌号,手机号码和住宿记录,所有这些的信息都成为待出售的对象。在人工智能技术广泛应用的同时,人们常用的智能手机、电脑以及社交媒体平台都在无时无刻的记录着我们的生活轨迹,各种垃圾广告和邮件可以实现精准的推送,推销电话、诈骗短信等成为经常光顾的对象,尽管我们没有购买理财产品,没有购房需求,没有保险服务等,也没有向这些公司提供过自己的隐私数据信息,但无法避免而且能经常接到理财公司、房地产商、保险公司等的推销电话。探究这些公司对用户偏好和兴趣精准了解的缘由,那便是人工智能应用中个人隐私的非法交易行为,我们保留在网站或企业中的个人信息,除了由该企业本身使用外,这些企业还经常与其他的个人和企业共同分享、非法交易,而忽略了公民的个人隐私安全。目前,人们的个人数据,如电话号码,银行卡信息,购车记录,收入状况,网站注册信息等,已成为私人非法交易的严重灾区,这些个人信息被不法分子通过非法交易获得并通过循环使用来获利。现阶段,这类专门进行个人信息买卖的公司在国内不计其数,大大小小的分布在各种隐蔽的角落,甚至有一些正规的大型企业也免不了买卖个人信息的行为。当今社会,公民的很多日常行为都不得不提供自己的私人信息,如应聘工作、参加考试、购买保险、购买车票、寻医看病等等。这些信息提供给企业商家后,他们就有义务对用户的信息进行保密,而目前对用户信息保密的相关法律规定还比较欠缺,因此往往寄希望于企业商家通过自律行为来保护用户的隐私。但是目前的现状是大多数企业的自身素质不高,单纯将对隐私保护寄希望于商家企业的自律是不现实的,这些数据往往会被企业商家非法买卖,甚至将这些非法买卖的个人信息用于诈骗、传销。