势所必然:兼顾人工智能应用和隐私保护
作为新一轮科技革命和产业变革的重要驱动力量,人工智能正在深刻影响社会生活、改变发展格局。同时,人工智能如同一把“双刃剑”,如果应用不当,就可能带来隐私泄露的伦理风险。如何在人工智能应用中兼顾隐私保护,确保安全、可靠、可控,是一项亟须关注的伦理课题。
人工智能应用存在隐私泄露的伦理风险。人工智能应用需要以海量的个人信息数据作支撑。数据是人工智能的基础,正是由于大数据的使用、算力的提高和算法的突破,人工智能才能快速发展、广泛应用,并呈现出深度学习、跨界融合、人机协同、群智开放、自主操控等新特征。人工智能越是“智能”,就越需要获取、存储、分析更多的个人信息数据。可以说,海量信息数据是人工智能迭代升级不可缺少的“食粮”。获取和处理海量信息数据,不可避免会涉及个人隐私保护这一重要伦理问题。今天,各类数据信息采集无时不有、无处不在,几乎每个人都被置于数字化空间之中,个人隐私极易以数据的形式被存储、复制、传播,如个人身份信息数据、网络行为轨迹数据以及对数据处理分析形成的偏好信息、预测信息等。可以预见,在不远的未来,越来越多的人工智能产品将走进千家万户,在给人们生活带来便利的同时,也会轻易获取更多有关个人隐私的数据信息。借助获取的数据信息,基于日益强大的数据整合、处理能力,人工智能技术可以为用户精准“画像”,而其中就潜藏着不容忽视的隐私泄露风险。如果人工智能应用得不到合理管控,人类将被置于隐私“裸奔”的尴尬境地,从而产生严重的伦理风险。
人工智能应用与隐私保护并非不可兼得。尽管人工智能应用在一定程度上存在隐私泄露的风险,但这并不意味着它与隐私保护之间是绝对对立的关系。一方面,人工智能应用决不能以隐私泄露为代价。隐私权不容侵犯,它既是公民的基本权利,也是社会文明进步的显著标志。有效保护隐私有利于人们维护人格尊严、保持心情舒畅,有利于促进人的全面发展。人工智能技术无论如何发展、发展到什么程度,归根结底都是为了辅助人、服务人,为使用者提供便利,而不能成为肆意损害人格权利、恶意泄露个人隐私的工具。这是人工智能应用必须坚守的底线,否则人工智能技术就会失去价值,也难以走远。另一方面,不能因为存在隐私泄露的伦理风险,就延缓甚至放弃人工智能应用。目前,人工智能应用得到世界主要国家的高度重视,被认为是科技创新的下一个“超级风口”,具有溢出带动性很强的“头雁”效应。在一定程度上讲,谁把握住了人工智能技术,谁就把握住了未来。加快发展新一代人工智能技术,是我国发展必须牢牢抓住的宝贵机遇。我们既要有效防范伦理风险,又要加快人工智能技术发展。事实上,人工智能应用与个人隐私保护之间并不是非此即彼的关系,完全可以通过多种手段从伦理层面对人工智能应用加以正确引导,将隐私泄露的风险降至最低。作为一种新兴技术,人工智能本身并无善恶、对错之分,关键在于使用者能否在符合伦理规范的前提下对其进行正当应用。隐私泄露现象是人工智能应用不当导致的,从深层看则大多是利益驱动的结果。所以,不能将隐私泄露简单归为技术层面的问题,也不能简单归咎于人工智能。
在推进人工智能应用中加强隐私保护。习近平同志强调,要加强人工智能发展的潜在风险研判和防范,维护人民利益和国家安全,确保人工智能安全、可靠、可控。在人工智能应用中加强隐私保护,需要加强人工智能应用的风险研判和防范,综合运用技术创新、伦理规范、法律制度等手段方式,防止其“野蛮生长”,确保在符合伦理规范的前提下实现人工智能健康发展。在技术层面,要加快研发和应用隐私保护的安全技术,可将用户隐私保护需求嵌入人工智能系统设计中,让最大限度保护隐私成为系统的默认规则。在伦理层面,要探索和确立保护个人隐私的原则。2019年6月17日,我国新一代人工智能治理专业委员会发布《新一代人工智能治理原则――发展负责任的人工智能》,要求人工智能发展应尊重和保护个人隐私,充分保障个人的知情权和选择权。人工智能从业人员要树立社会主义核心价值观,加强自律,规范技术应用的标准、流程、方法,最大限度尊重和保护个人隐私。在法律层面,应加快制定加强隐私保护的法规制度。当前,我国隐私保护法律体系还不能完全适应人工智能发展需求,应在相关法律法规中进一步强化隐私权保护,并在条件成熟时制定针对人工智能应用中保护公民隐私的法律条文细则,充分保障公民在人工智能应用中的知情权和选择权,严格规范人工智能应用中个人信息的收集、存储、处理、使用等程序,反对窃取、篡改、泄露和其他非法收集利用个人信息的行为。
(作者为南京艺术学院教授、江苏省伦理学会执行会长)
《人民日报》(2019年07月12日09版)
兼顾人工智能应用和隐私保护
作为新一轮科技革命和产业变革的重要驱动力量,人工智能正在深刻影响社会生活、改变发展格局。同时,人工智能如同一把“双刃剑”,如果应用不当,就可能带来隐私泄露的伦理风险。如何在人工智能应用中兼顾隐私保护,确保安全、可靠、可控,是一项亟须关注的伦理课题。
人工智能应用存在隐私泄露的伦理风险。人工智能应用需要以海量的个人信息数据作支撑。数据是人工智能的基础,正是由于大数据的使用、算力的提高和算法的突破,人工智能才能快速发展、广泛应用,并呈现出深度学习、跨界融合、人机协同、群智开放、自主操控等新特征。人工智能越是“智能”,就越需要获取、存储、分析更多的个人信息数据。可以说,海量信息数据是人工智能迭代升级不可缺少的“食粮”。获取和处理海量信息数据,不可避免会涉及个人隐私保护这一重要伦理问题。今天,各类数据信息采集无时不有、无处不在,几乎每个人都被置于数字化空间之中,个人隐私极易以数据的形式被存储、复制、传播,如个人身份信息数据、网络行为轨迹数据以及对数据处理分析形成的偏好信息、预测信息等。可以预见,在不远的未来,越来越多的人工智能产品将走进千家万户,在给人们生活带来便利的同时,也会轻易获取更多有关个人隐私的数据信息。借助获取的数据信息,基于日益强大的数据整合、处理能力,人工智能技术可以为用户精准“画像”,而其中就潜藏着不容忽视的隐私泄露风险。如果人工智能应用得不到合理管控,人类将被置于隐私“裸奔”的尴尬境地,从而产生严重的伦理风险。
人工智能应用与隐私保护并非不可兼得。尽管人工智能应用在一定程度上存在隐私泄露的风险,但这并不意味着它与隐私保护之间是绝对对立的关系。一方面,人工智能应用决不能以隐私泄露为代价。隐私权不容侵犯,它既是公民的基本权利,也是社会文明进步的显著标志。有效保护隐私有利于人们维护人格尊严、保持心情舒畅,有利于促进人的全面发展。人工智能技术无论如何发展、发展到什么程度,归根结底都是为了辅助人、服务人,为使用者提供便利,而不能成为肆意损害人格权利、恶意泄露个人隐私的工具。这是人工智能应用必须坚守的底线,否则人工智能技术就会失去价值,也难以走远。另一方面,不能因为存在隐私泄露的伦理风险,就延缓甚至放弃人工智能应用。目前,人工智能应用得到世界主要国家的高度重视,被认为是科技创新的下一个“超级风口”,具有溢出带动性很强的“头雁”效应。在一定程度上讲,谁把握住了人工智能技术,谁就把握住了未来。加快发展新一代人工智能技术,是我国发展必须牢牢抓住的宝贵机遇。我们既要有效防范伦理风险,又要加快人工智能技术发展。事实上,人工智能应用与个人隐私保护之间并不是非此即彼的关系,完全可以通过多种手段从伦理层面对人工智能应用加以正确引导,将隐私泄露的风险降至最低。作为一种新兴技术,人工智能本身并无善恶、对错之分,关键在于使用者能否在符合伦理规范的前提下对其进行正当应用。隐私泄露现象是人工智能应用不当导致的,从深层看则大多是利益驱动的结果。所以,不能将隐私泄露简单归为技术层面的问题,也不能简单归咎于人工智能。
在推进人工智能应用中加强隐私保护。习近平同志强调,要加强人工智能发展的潜在风险研判和防范,维护人民利益和国家安全,确保人工智能安全、可靠、可控。在人工智能应用中加强隐私保护,需要加强人工智能应用的风险研判和防范,综合运用技术创新、伦理规范、法律制度等手段方式,防止其“野蛮生长”,确保在符合伦理规范的前提下实现人工智能健康发展。在技术层面,要加快研发和应用隐私保护的安全技术,可将用户隐私保护需求嵌入人工智能系统设计中,让最大限度保护隐私成为系统的默认规则。在伦理层面,要探索和确立保护个人隐私的原则。2019年6月17日,我国新一代人工智能治理专业委员会发布《新一代人工智能治理原则――发展负责任的人工智能》,要求人工智能发展应尊重和保护个人隐私,充分保障个人的知情权和选择权。人工智能从业人员要树立社会主义核心价值观,加强自律,规范技术应用的标准、流程、方法,最大限度尊重和保护个人隐私。在法律层面,应加快制定加强隐私保护的法规制度。当前,我国隐私保护法律体系还不能完全适应人工智能发展需求,应在相关法律法规中进一步强化隐私权保护,并在条件成熟时制定针对人工智能应用中保护公民隐私的法律条文细则,充分保障公民在人工智能应用中的知情权和选择权,严格规范人工智能应用中个人信息的收集、存储、处理、使用等程序,反对窃取、篡改、泄露和其他非法收集利用个人信息的行为。
(作者为南京艺术学院教授、江苏省伦理学会执行会长)
《人民日报》(2019年07月12日09版)
(责编:邢郑、庄红韬)分享让更多人看到
人民日报:兼顾人工智能应用和隐私保护
原标题:兼顾人工智能应用和隐私保护(势所必然)
作为新一轮科技革命和产业变革的重要驱动力量,人工智能正在深刻影响社会生活、改变发展格局。同时,人工智能如同一把“双刃剑”,如果应用不当,就可能带来隐私泄露的伦理风险。如何在人工智能应用中兼顾隐私保护,确保安全、可靠、可控,是一项亟须关注的伦理课题。
人工智能应用存在隐私泄露的伦理风险。人工智能应用需要以海量的个人信息数据作支撑。数据是人工智能的基础,正是由于大数据的使用、算力的提高和算法的突破,人工智能才能快速发展、广泛应用,并呈现出深度学习、跨界融合、人机协同、群智开放、自主操控等新特征。人工智能越是“智能”,就越需要获取、存储、分析更多的个人信息数据。可以说,海量信息数据是人工智能迭代升级不可缺少的“食粮”。获取和处理海量信息数据,不可避免会涉及个人隐私保护这一重要伦理问题。今天,各类数据信息采集无时不有、无处不在,几乎每个人都被置于数字化空间之中,个人隐私极易以数据的形式被存储、复制、传播,如个人身份信息数据、网络行为轨迹数据以及对数据处理分析形成的偏好信息、预测信息等。可以预见,在不远的未来,越来越多的人工智能产品将走进千家万户,在给人们生活带来便利的同时,也会轻易获取更多有关个人隐私的数据信息。借助获取的数据信息,基于日益强大的数据整合、处理能力,人工智能技术可以为用户精准“画像”,而其中就潜藏着不容忽视的隐私泄露风险。如果人工智能应用得不到合理管控,人类将被置于隐私“裸奔”的尴尬境地,从而产生严重的伦理风险。
人工智能应用与隐私保护并非不可兼得。尽管人工智能应用在一定程度上存在隐私泄露的风险,但这并不意味着它与隐私保护之间是绝对对立的关系。一方面,人工智能应用决不能以隐私泄露为代价。隐私权不容侵犯,它既是公民的基本权利,也是社会文明进步的显著标志。有效保护隐私有利于人们维护人格尊严、保持心情舒畅,有利于促进人的全面发展。人工智能技术无论如何发展、发展到什么程度,归根结底都是为了辅助人、服务人,为使用者提供便利,而不能成为肆意损害人格权利、恶意泄露个人隐私的工具。这是人工智能应用必须坚守的底线,否则人工智能技术就会失去价值,也难以走远。另一方面,不能因为存在隐私泄露的伦理风险,就延缓甚至放弃人工智能应用。目前,人工智能应用得到世界主要国家的高度重视,被认为是科技创新的下一个“超级风口”,具有溢出带动性很强的“头雁”效应。在一定程度上讲,谁把握住了人工智能技术,谁就把握住了未来。加快发展新一代人工智能技术,是我国发展必须牢牢抓住的宝贵机遇。我们既要有效防范伦理风险,又要加快人工智能技术发展。事实上,人工智能应用与个人隐私保护之间并不是非此即彼的关系,完全可以通过多种手段从伦理层面对人工智能应用加以正确引导,将隐私泄露的风险降至最低。作为一种新兴技术,人工智能本身并无善恶、对错之分,关键在于使用者能否在符合伦理规范的前提下对其进行正当应用。隐私泄露现象是人工智能应用不当导致的,从深层看则大多是利益驱动的结果。所以,不能将隐私泄露简单归为技术层面的问题,也不能简单归咎于人工智能。
在推进人工智能应用中加强隐私保护。习近平同志强调,要加强人工智能发展的潜在风险研判和防范,维护人民利益和国家安全,确保人工智能安全、可靠、可控。在人工智能应用中加强隐私保护,需要加强人工智能应用的风险研判和防范,综合运用技术创新、伦理规范、法律制度等手段方式,防止其“野蛮生长”,确保在符合伦理规范的前提下实现人工智能健康发展。在技术层面,要加快研发和应用隐私保护的安全技术,可将用户隐私保护需求嵌入人工智能系统设计中,让最大限度保护隐私成为系统的默认规则。在伦理层面,要探索和确立保护个人隐私的原则。2019年6月17日,我国新一代人工智能治理专业委员会发布《新一代人工智能治理原则——发展负责任的人工智能》,要求人工智能发展应尊重和保护个人隐私,充分保障个人的知情权和选择权。人工智能从业人员要树立社会主义核心价值观,加强自律,规范技术应用的标准、流程、方法,最大限度尊重和保护个人隐私。在法律层面,应加快制定加强隐私保护的法规制度。当前,我国隐私保护法律体系还不能完全适应人工智能发展需求,应在相关法律法规中进一步强化隐私权保护,并在条件成熟时制定针对人工智能应用中保护公民隐私的法律条文细则,充分保障公民在人工智能应用中的知情权和选择权,严格规范人工智能应用中个人信息的收集、存储、处理、使用等程序,反对窃取、篡改、泄露和其他非法收集利用个人信息的行为。
(作者为南京艺术学院教授、江苏省伦理学会执行会长)
人工智能应用和隐私保护如何兼得
让人工智能在保障用户隐私安全的轨道上有序发展。来源:中国科学报
在人们越来越看重个人隐私和信息安全的当下,人工智能技术是把双刃剑。如何让人工智能在保障用户隐私安全的轨道上有序发展,正成为国内外共同关注的焦点和难点。
5月16日,美国旧金山市政府通过《停止秘密监察条例》法案,禁止旧金山的政府机构使用人脸识别技术,并将“靠人脸识别技术获得某些信息”列为违法行为。这无疑是一种隐私保护的措施,但也引起诸多争议。
国内某著名计算机视觉创业公司一位要求匿名的副总裁在接受《中国科学报》采访时反问:“旧金山已经不再是一座能让人感到安全的城市,人脸识别作为提高安全系数的基础工具,反而禁止使用,不知道什么技术手段可以保证安全?”
人工智能和隐私安全不可兼得?
有意思的是,最近亚马逊公司的股东以压倒性多数票,否决了该公司停止向政府机构出售其人脸识别技术的一项提议,只有2.4%的股东投票赞成这项禁令。
“这两件事情放在一起看非常有意思。”上述副总裁说,这说明围绕个人隐私、群体安全问题,对于人脸识别技术的使用需要一个平衡。“这个平衡,就是一个好的规则规范——不仅要去规范人脸识别技术企业,还要去规范使用这些技术的机构。”
实际上,人脸识别技术所创造的价值是被认可的。该副总裁认为,假使只是因为不确定使用人脸识别技术能够带来什么后果就直接禁用,那么这只能是一种短视或者短期行为。
“在满足某些条件的情况下,这种技术当然是可以应用的。”他说道,“作为发明和使用新技术的人,都要去认真思考这些问题,并且一起努力促使新规范的形成,而不是直接禁止掉。”
随着大数据的使用、算力的提高和算法的突破,人工智能正变得无处不在。由此带来的问题是,人们一方面享受人工智能带来的“红利”,另一方面则面临隐私被当做“资源”过度和非法使用的困境。如何应对人们隐私“裸奔”的挑战变得越发严峻。
技术手段:区块链技术被派上场
以“人工智能+医疗”为例,人工智能技术在医疗健康领域的应用潜力巨大,但也面临着数据的问题——用以训练人工智能模型的大量医学数据,可能是图像、基因组、电子健康记录等这些非常敏感的信息。
基于医院的数据进行训练的人工智能算法有望获得诊断、预防疾病和甚至治疗疾病的能力。但在许多国家,由于法律原因,医疗记录无法轻易共享并提供给算法。这使得利用人工智能在医学图像或数据中发现疾病的研究通常只能涉及相对较小的数据集,极大地制约了技术应用前景。
美国加州大学伯克利分校一家创业公司“绿洲实验室”(OasisLabs),致力于探索利用云计算和区块链等技术确保用于研究的医疗数据等信息不被泄露或滥用。目前,斯坦福大学医学院已经批准绿洲实验室与相关的研究人员一道在该院开展实验,测试他们的技术对解决上述两难问题是否有效果。
绿洲实验室首先将患者的个人数据存储在一款合作设计的安全芯片上,并保存在云端。外部人员——希望以数据集训练算法的工程师们,可以在该系统(安全芯片+云端)下,利用数据运行算法并输出结果。该系统也会在接收到数据访问请求时,触发基于区块链的软件上的智能合约系统,智能合约不仅会记录数据的使用方式,还能检查机器学习计算是否被正确执行。
绿洲实验室联合创始人兼加州大学伯克利分校教授DawnSong介绍说,该技术还可以推及人工智能在其他领域的应用,例如财务记录、个人购买习惯或网页浏览数据。不过他表示,在探索其他领域之前,他们的计划是先推动此技术在医疗领域的应用。
尽管绿洲实验室的技术探索展现出了潜力,但美国弗吉尼亚大学专门研究机器学习与安全问题的专家埃文斯仍持保守态度。他指出,在安全硬件中存储数据也有失败的风险。一旦硬件制造方遭遇攻击,它所处理的数据就会面临风险。并且,现在也没有证据证明,区块链一定就是可靠的技术。
立法约束:让合规应用有章可循
在没有好的技术措施解决问题之前,使用法规法律保护隐私和个人信息安全,是全球通用的做法。
2018年5月,欧盟颁布的被称为“史上最严”的《通用数据保护条例》(GDPR),就对企业获取及使用数据的方式进行了严格的限定。GDPR要求经营者告知并获得客户同意才可记录用户搜索等记录,且不能使用模糊、冗长的语言政策来获取用户数据使用许可等。并且,GDPR对违法企业的惩处力度也是空前的。
中国科学院自动化研究所研究员曾毅认为,GDPR值得我国借鉴。虽然GDPR在实施初期,遭到很多企业质疑且难以推行,但随着企业接受并按要求落实,他们将得到更多用户的认可和信任。
曾毅告诉《中国科学报》,如果人工智能系统不能尽力确保个人数据的安全性,不但无法赢得用户信赖,而且将触犯相关法律。人工智能的研发者、服务提供者、使用者都应充分了解有关个人数据安全的行业共识、规范、管理办法、法律,以促进人工智能的健康发展。
“加快立法的同时,还应考虑我国国情,保护人工智能的发展‘土壤’。”国内智能设备体系安全服务提供商同余科技创始人袁开国对《中国科学报》举例说,比如要明确数据的所有权属于用户,企业不能非法使用、兜售用户数据;但如果企业是为了更好地服务用户,在经过用户授权允许下,可以对用户数据进行深层次分析,明确数据的使用权。
“隐私保护是对公民基本人权的保护,也影响着国民经济的发展。”中国社会科学院哲学研究所研究员、北京协和医学院生命伦理学研究中心学术委员会主任邱仁宗在接受《中国科学报》采访时表示,随着技术的发展,人们的各种信息可以被轻易获取。
“我反对这种未经授权的‘人肉搜索’。”邱仁宗表示,应该认真研究GDPR,开展由人工智能专家、伦理学家、公众代表、监管人员参与的个人数据保护研讨会,尽快制定我国的专门法律法规。
人工智能的伦理和隐私难题
【编者按】
如何深刻理解与全面把握“大变局”,决定着中国对当今世界未来与中国发展的清晰认识,也会直接影响中国人的日常生活。近日,《百年变局》一书出版,从政势之变、经济之变、数字之变三个篇章展开,阐述在百年变局的背景下政治、经济、科技的变化趋势,并在此基础上引出当前的中国应该怎么办,未来向何处去。澎湃新闻经授权摘录“数字之变”中的部分内容,在简要回溯人工智能的历史的基础上,探讨人工智能的伦理和隐私难题。
怎样进行人工智能监管?这已经成为一个全球性难题。普京曾经指出:“人工智能是未来,但也有难以预测的威胁。无论谁成为这个领域的领导者,都将会成为这个领域的统治者。”普京指出了一个残酷的现实——在人工智能领域是赢家通吃的世界,而不受约束的科技亦正亦邪,是锋利的双刃剑。1.人工智能“一键脱衣”的危机
2019年6月27日,一款“一键脱衣”的软件DeeNude引起了全球媒体的焦虑。只要给DeepNude一张女性照片,借助神经网络技术,App可以自动“脱掉”女性身上的衣服,显示出裸体。
DeepNude的创建者阿尔贝托(Alberto)在接受媒体采访时表示,该软件基于加州大学伯克利分校研究者开发的开源算法pix2pix创建,并使用1万张女性裸图加以训练。这一算法与之前的人工智能换脸技术deepfake算法相似,也和无人车技术所使用的算法相似。阿尔贝托还表示,该软件目前之所以只能用于女性照片,是因为女性裸体图像更容易在网上找到,但他希望能创建一个男性版本的软件。反“色情复仇”组织Badass的创始人凯特琳·鲍登(KatelynBowden)感叹说:“真是让人震惊。现在每个人都有可能成为色情报复的受害者,即使没有拍过一张裸体照片,也可能会成为受害者。这样的技术根本不应该向公众开放。”
2.想避免风险会是发展的最大风险:以无人驾驶为例
2018年以来,随着人工智能技术带来的各种改变,例如对工作的威胁,对个人大数据信息的精准分析,引起了全球各国人们的普遍恐慌。规避风险是人的天性,但不是发展的目的。托马斯·阿奎那(SaintThomasAquinas)曾经写道:“如果船长的最高使命是保护他的船只,那么他永远只会停留在港口。”和其他所有创新类似,人工智能的最终目标是促进人类社会的发展,而安全是发展的一部分。过度担忧在一定程度上会阻碍技术的发展。下面以无人驾驶为例来说明这个问题。当前无人驾驶技术发展全面加速。尽管2018年出现了两起无人驾驶致命车祸,但大部分无人驾驶汽车公司的发展并没有受到影响。自动驾驶的人工智能发展不能只局限于实验室,同时也需要大量的实际路况测试和数据训练。通过公路的无人驾驶实际运行,让驾驶AI学习规范、合法和安全的驾驶,不断修复存在的系统问题。当前美国有部分州政府通过了无人驾驶公路测试法案,其中加州对无人驾驶发展的支持最为积极。根据加州车辆管理局的报告,2017年无人驾驶车辆的实际公路测试中,测试车辆以完全无人干预的自动驾驶模式运行的里程数超过50万英里。其中Waymo(谷歌拆分出来的自动驾驶公司)和Cruise(通用汽车子公司)自动驾驶测试里程数最多。下图是加州车管局(DMV)公布的2017年1至11月各公司汽车自动驾驶平均里程数(自动行驶距离/人为干预次数)。
2017年1-11月加州路测汽车自动驾驶的平均英里数(自动行驶距离/人为干预次数)。资料来源:CaliforniaDMV.从图看,大部分公司2017年下半年人为干预自动驾驶的频率明显下降。Waymo公司1-6月无人驾驶平均英里数是4847英里,7-11月增长了55%。通用公司的无人驾驶里程数也从1-6月的627英里增加到了7-11月的2750英里,增长338.6%。百度也表现不俗,增长了600%,无人干预自动驾驶平均距离达到了119英里。根据加州DMV的数据,当前获准在公路上进行无人驾驶的汽车数量约400余辆(可查数据是409辆)。其中Cruise公司最多,占104辆;其次是苹果和Waymo,分别是55辆和51辆。Waymo公司是当前加州唯一在不配置备用驾驶员的情况下准许在公路进行自动驾驶测试的公司。
但民众特别是发达国家的民众对无人驾驶的担忧却开始越来越强烈。从2018年年初的民意调查看,亚非拉人民对自动驾驶的热情远高于西方发达国家。根据盖洛普2018年年初对1503名美国民众对无人驾驶相关问题进行的调查,有34%的人表示他们期望未来6至10年内美国能普及无人驾驶。有19%的受访人认为未来五年内无人驾驶就会随处可见。
民众对自动驾驶的接受程度,各地区差异较大。根据跨国咨询公司益普索集团(Ipsos)近期对中、印等15个国家2.15万人的抽样调查表明,亚非拉国家普遍比较欢迎自动驾驶,而西方发达国家反对人数占比反而更多。如下图所示,印度和中国对自动驾驶最热情,分别有49%和46%的人表示非常期待。根据Ipsos的调查,在南美,巴西有31%受访者表示欢迎自动驾驶,和俄罗斯接近。但美国可能由于受最近几个月无人驾驶车祸事件的影响,有近四分之一的人表示不会尝试自动驾驶。欧洲国家反对自动驾驶的人也比较多,德国占31%、法国和英国分别占25%和24%。加拿大也有24%的人表示明确反对。
部分国家民众对自动驾驶汽车的态度(省略态度中立人数占比)。资料来源:Ipsos虽然无人驾驶汽车发展过程引发了民众对于安全的焦虑,但究竟是进一步加强监管还是提供较为宽松的环境?当前从美国和我国的实际情况来看,并没有因为存在风险而加强对无人驾驶的束缚。
部分国家民众对自动驾驶汽车的态度(省略态度中立人数占比)
根据皮尤调查2016年的数据,2006-2016年十年中,美国的人类驾驶员造成4万人不必要的死亡。换句话说,每天有100人被一名人类驾驶员杀死。另一方面,自动驾驶汽车可以将交通事故死亡率降低多达90%。这意味着延迟的成本由于监管焦虑而无人驾驶的汽车技术每年将导致成千上万的不必要的死亡。莫卡特斯中心(MercatusCenter)模型表明,5%的监管延迟可能会产生额外的15500例不必要的死亡事故。延迟25%意味着112400名不必要的死亡。所以,从长远发展看,因为害怕无人驾驶带来的风险而限制其发展,本身就是最大的风险,因为无人驾驶较之于人类驾驶,有着显然的优势。其他人工智能领域也存在类似的问题。
3.当前我国人工智能发展遇到的问题
一是大数据生态有待进一步完善。当前人工智能是以大数据为基础的,需要依托大数据对机器智能进行训练。在这一方面,目前我国依然存在一些问题。一是大数据生态系统方面落后于美国,缺少统一的标准和跨平台的共享。二是公共大数据开放依然有限。开放政府大数据有助于私营部门的创新,但我国的公共部门开放的大数据依然相对少。三是跨国大数据流动的安全问题,我国在这方面面临的挑战越来越严峻。
二是人工智能人才问题。我国在人工智能基础研究方面依然落后于美国,其中主要原因之一是人才依然短缺。当前我国对高端人工智能人才的渴求依然是非常强烈的。美国超过半数的资据科学家拥有10年以上的工作经验,但据麦肯锡统计,我国相关领域经验不足5年的研究人员高达40%。我国当前只有不到30个专注于人工智能的大学研究实验室,仅靠这些实验室是无法产出足够的人才来满足人工智能行业的需求的。此外,我国当前人工智能人才分布也不均匀,主要集中在计算机视觉和语音识别领域,而其他领域的人才相对更少。
三是人工智能核心硬件依然存在诸多不足。我国的微处理器(micropro-cessors)长期以来严重依赖进口,部分类型的高阶半导体则几乎完全依靠进口。为解决这一难题并掌握半导体核心技术以提高我国在未来更广泛地部署人工智能领域的能力,我国在2014年发布《国家集成电路产业发展推进纲要》和《中国制造2025》,并设立了一个超过200亿美元的基金,通过并购、投资入股国内外半导体产业等,积极扶持国内半导体产业,虽然已见初步成效,但自主创新之路仍然艰辛漫长。
4.对未来我国人工智能发展的建议:夯实基础,保护知识产权,鼓励创新
纵观人工智能的发展,既有低谷,也有高峰,一路走来,在曲折中前进。回顾历史,人工智能的发展既离不开基础设施的发展,也受到市场利益的推动。未来,人工智能的发展会越来越广泛,它会促进全行业数据的加速产生,推动移动化计算的发展。在垂直领域,AI也会向商业化发展靠拢,创造出更多的直接经济价值。因此,回归基础建设,完善大数据生态,加强知识产权保护,依然是当前我国推动人工智能发展的重点,这三项基础工作做好了,才能进一步激发社会的创新能力,激活企业的人工智能创新动力,为我国在数字时代的腾飞培育坚实的核心动能。
《百年变局》,王文、贾晋京、刘玉书、王鹏/著,北京师范大学出版社2020年5月版。