博舍

性别如何影响对人工智能的看法 对人工智能你如何看法

性别如何影响对人工智能的看法

    根据对皮尤研究中心2021年11月收集的调查数据的最新分析,美国女性比男性更怀疑人工智能(AI)的某些用途,特别是有可能广泛投入使用的无人驾驶汽车。

    该分析还发现,在技术对社会的整体影响和与人工智能应用相关的一些安全问题上,以及在人工智能设计过程中纳入不同群体意见的重要性方面,也存在性别差异。

    美国女性更不可能认为技术对社会产生的影响大多是积极的(42%vs. 54%),她们更认为技术带来的积极和消极影响参半(45%vs.37%)。

    此外,女性更不可能表示她们对人工智能计算机程序在日常生活中的应用增加感到兴奋而非担忧(13%vs.22%)。

    在11月调查所问及的一系列可能的人工智能应用中,女性始终比男性更可能对计算机程序执行这些任务表示担忧。

    男性比女性更可能对有关自动驾驶汽车的几个问题做出积极的回应。大约十分之四的男性(37%)认为无人驾驶汽车对社会来说是个好主意,而只有17%的女性持同样意见。

    该中心在11月的调查还涉及其他两个具体的人工智能应用:警方使用人脸识别技术和社交媒体公司使用算法搜寻其网站虚假信息。

    在与这些应用有关的一些问题上,女性和男性之间也存在差异。男性比女性更有可能说他们至少听说过或读过一点这三种技术的新闻:无人驾驶汽车(93% vs.83%),警方使用人脸识别技术(86% vs.74%)和社交媒体算法用于搜寻虚假信息(81%vs.70%)。

    女性更有可能表示自己不确定某些人工智能应用对社会是好是坏。

    女性更倾向于支持在人工智能设计中纳入更多群体。例如,三分之二的女性(67%)表示,社交媒体公司在设计用于搜寻虚假信息的社交媒体算法时,将不同性别的人群纳入设计过程中是极其重要或非常重要的,而这样想的男性只占58%。女性也更可能认为把不同种族和族裔群体纳入同一人工智能设计过程中很重要(71%vs.63%)。

    只有大约十分之二的女性(22%)认为有可能设计出能够持续做出公平决定的人工智能程序,而这样认为的男性比例(38%)则更高。  (来源:世界经济论坛)

如何看待霍金对人工智能的警告

今年3月8日,著名物理学家史蒂芬·霍金,向英国《独立报》表示,人类必须建立有效机制尽早识别威胁所在,防止新科技(人工智能)对人类带来的威胁进一步上升。霍金警告,未来人工智能可能会以生化战争或核子战争的方式摧毁人类。其实,早在2015年9月,霍金就发出过类似的警告:聪明能干的人工智能会让人类灭亡。霍金表示:一个超级聪明的人工智能可以非常好地实现它的目标,如果这些目标没有与我们人类一致,我们人类就麻烦了。

我们如何来对待霍金的警告呢?首先,霍金本人也是人工智能技术的支持者,霍金认为,如今人工智能似乎已经渗透到各个领域。人工智能甚至可帮助根除长期存在的社会挑战,比如疾病和贫困等。

人工智能技术是当今新技术革命的领头羊。事实上,人工智能技术的发展已历经三次浪潮。第一次浪潮以“手工知识”为特征,典型范例如智能手机应用程序等。第二次浪潮以“统计学习”为特征,典型范例如人工神经网络系统,并在无人驾驶汽车等领域取得进展。虽然这些人工智能技术,对明确的问题有较强的推理和判断能力,但不具备学习能力。第三次浪潮则以“适应环境”为特征,人工智能能够理解环境并发现逻辑规则,从而进行自我训练并建立自身的决策流程。今年年初,谷歌AlphaGO的升级版Master以60∶0的战绩,击溃当世所有围棋顶级高手;就在5月25日,AlphaGO又接连两局击败中国围棋职业九段棋手柯洁;我以为,都是人工智能第三次浪潮的标志。

其次,人工智能技术也是一把双刃剑。一方面,借助人工智能技术实现自动化,将极大提高生产率,节省劳动成本;通过优化行业现有产品和服务,开拓更广阔的市场空间。正由于人工智能对社会经济无可替代的重要推动作用,在我国两会上已将人工智能写进了政府工作报告。

另一方面,人工智能技术对社会也带来了近期和远期的风险。在不远的将来,那些重复、耗时、乏味的工作;在快速变化的复杂环境中进行的工作以及超出人类极限的工作,都有可能被人工智能系统所代替,从而冲击劳动力市场。可以预测,由于人工智能的发展,多数人的智能将低于或接近人工智能的水平,如果没有政策的有效控制,财富就会集中到少数智能超过人工智能的人手中,这将进一步扩大社会的贫富差别,引发社会的撕裂。

至于说到霍金警告的人工智能引发的人类生存风险,即人工智能将来会从整体上超越人类智能,目前对此在认识上还有分歧。许多自然科学家认为,目前人工智能离上述水平还很远很远,其危险远不足虑;而某些社会科学家却有担忧,认为随着技术变革的深入,人工智能所引发的链式反应,就会出现无法控制的局面。上述认识的差异,正好体现了人类对智能认识的多样性。从这个角度看,科学家全面认识人类智能,并将其复现,只是时间问题。鉴于人工智能有可能超越人类智能,以及由此产生十分严重的后果,再加上科学技发展的内在不确定性,就充分说明了研究人工智能安全问题的必要性。

早在1950年出版的美国著名科幻小说家艾萨克·阿西莫夫撰写的《我,机器人》小说中,就提出了著名的“机器人三大定律”:第一定律,机器人不得伤害人类个体,或者目睹人类个体将遭受危险而袖手旁观;第二定律,机器人必须服从人给予它的命令,当该命令与第一定律冲突时例外;第三定律,机器人在不违反第一、第二定律的情况下要尽可能保护自己的生存。此后,这“三大定律”不断激发出对于人工智能安全性的新思考。由于人工智能最终必将会具备自主意识,到那时人类与人工智能系统之间的关系,必须服从普适、可靠的准则。特别是在军事领域要更加小心,否则极有可能出现科幻电影中描述的人机大战的场景。

因此,我们在发展人工智能系统的同时,还要确保其在预先制定的相关准则下进行工作,以防止其出现越规行为。(黄志澄)

你对人工智能的信任有几分“可信AI”究竟该如何发展

你对人工智能(AI)的信任有几分?

当前,新一代人工智能技术在全球蓬勃兴起,从自动驾驶、医疗、工业到生产生活,人工智能技术向经济社会各领域加速渗透,展现出巨大的变革赋能潜力。根据中国信息通信院研究测算,2020年,我国人工智能产业规模约为3031亿元,同比增长15%。然而,随着人工智能应用广度和深度不断拓展,风险与隐患逐渐显露出来,算法的安全、隐私保护、数据歧视、数据滥用等问题挑战着人们对人工智能的信任。

“可信AI”的重要性不言而喻。联合国人类住区规划署中国项目主任张振山向记者表示,中国进入数字化时代,城市化进程正向高质量发展转型,以人工智能、大数据、云计算、互联网、物联网等引领的科技力量是赋能城市转型的生力军,倡导公平、公正、安全、可控、值得信赖的“可信AI”是促进智慧城市建设落地的重要抓手。

如何实现“可信AI”?

人工智能还有“可信”和“不可信”之说?“可信AI”能解决什么问题?

澳大利亚科学院院士、京东探索研究院院长陶大程举例说,如果在道路交通牌上贴一个小广告,无人驾驶系统就可能误判,这反映了人工智能安全性的问题。另外,由于缺乏可解释性,自动驾驶系统如果遇到问题,驾驶权交付给驾驶员时就会产生困难,因为驾驶员无法在短短几秒钟之内对道路做出判断。

“一直以来,智慧城市建设的瓶颈还存在数据不能互通和隐私如何保障的问题,这也是中国智慧城市一直停留在1.0阶段的重要原因之一。”金砖国家未来网络研究院中国分院院长朱禹涛表示,如果通过“可信AI”建立一套脱敏的数据存储和调用机制,将有利于解决当下智慧城市建设遇到的难题,这样才能更好地迈入2.0阶段。

除了智慧城市建设,“可信AI”还致力于推动中国传统产业的数字化升级。“‘可信AI’是数字时代‘抵御风险’的关键能力。”蚂蚁集团副总裁、首席AI科学家漆远介绍,在中国,“可信AI”技术目前已在反欺诈、反洗钱、反赌博、企业联合风控、数据隐私保护在内的多个风控场景下落地,支撑着企业防御风险的需求。

专家普遍认为,要想实现“可信AI”,不光要从技术角度出发,还需要有社会的视角,系统必须具备在线连续学习和随时纠错的能力。中国科学院自动化研究所中英人工智能伦理与治理研究中心主任、国家新一代人工智能治理专委会委员曾毅认为,在需求、设计、研发、使用、部署等每一个环节都应该嵌入关于人工智能伦理的考虑,建立全流程多方共建的治理机制,这是实现“可信AI”的重要方面。

赋能城市数字化转型

智慧城市重在智慧为民。具体来说,科技要为人服务,而不是人为科技服务,“可信AI”的一个最显著特点就是以人为本。

“疫情也加速了前沿科技的应用。未来城市数字化转型需要以人为中心的共识和行动。”联合国人居署中国办公室国家官员应盛表示,新冠肺炎疫情加速了城市数字化或智慧化的进程,很多需要几十年推广的技术应用,在一两年就得到很好普及。

应盛描述了一个真实存在的场景,“几年前人们讨论人工智能时,还惧怕人工智能会取代人、替代人类的工作,现在很多场所人工智能的使用与普及为人们的工作和生活带来了便利、提高了效率。大家对人工智能的认识认知都有了提高。”

那么,“可信AI”该如何赋能城市数字化转型?工业和信息化部科技司技术处处长徐鹏建议,应深化人工智能和实体经济深度融合应用,大力培育发展智能经济,促进人工智能与一、二、三产深度融合;发展智能农业、智能制造、智能服务等智能+经济,推动产业提质增效,构建数据驱动,人机协同,跨界融合,共创分享的智能经济形态;此外,还要加快相关法律法规、伦理、治理框架标准和研究工作,重点研究智能的算法产品安全性和公平性,切实提升数据安全和隐私保护能力。

为人工智能治理

提供“中国方案”

不难注意到,面对人工智能引发的全球信任焦虑,发展“可信AI”已经成为全球共识。早在2019年6月,二十国集团(G20)就提出“G20人工智能原则”,并在其五项政府建议中明确提出“促进公共和私人研发的投资力度,以促进可信赖的人工智能的创新;需创建一个策略环境,为部署值得信赖的人工智能系统开辟道路。”目前,这项倡议已成为国际社会普遍认同的人工智能发展原则。

随着“可信”成为共识,产业界也紧跟学术界步伐,纷纷投入“可信AI”的研究。京东、百度、腾讯、阿里等我国头部互联网企业,微软、谷歌、IBM等跨国企业都纷纷设立相关部门或项目探索“可信AI”的应用实践。

7月9日,中国信息通信研究院联合京东探索研究院发布国内首本《可信人工智能白皮书》(以下简称《白皮书》),为落实全球人工智能治理共识提供“中国方案”。

值得注意的是,《白皮书》提出了衡量人工智能的“四把尺子”:稳定性、可解释性、隐私保护、公平性。据陶大程介绍,稳定性是指人工智能系统能够抵抗恶意攻击,可解释性是指人工智能系统所作出的决策需要让人类能够理解,隐私保护是指人工智能系统不能把个人的隐私信息或者群体的隐私信息进行泄露,公平性是指人工智能公平对待所有用户。

“可信AI已经不仅仅局限于对人工智能技术、产品和服务本身状态的界定,而是逐步扩展至一套体系化的方法论。”陶大程表示,要想最终实现可信人工智能,就要找到统一的综合治理框架,这是有待探索的。

■作者:刁静严

版面欣赏

来源:中国城市报

版权声明:本文内容由互联网用户自发贡献,该文观点仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌抄袭侵权/违法违规的内容,一经查实,本站将立刻删除。

上一篇

下一篇