未来10年,人工智能改变我们的生活方式和工作方式的革命性力量
原标题:未来10年,人工智能改变我们的生活方式和工作方式的革命性力量随着人工智能技术的进步,很多工作都会实现自动化,这必将给人们的工作带来深刻的影响。因此,人工智能在将来会怎样改变人们的工作方式?
首先,用人工智能来替代那些重复的,技术含量低,风险大的工作。比如,流水线上的装配线、清洁工人、保安等工作都将实现自动化,从而降低了劳力的消耗,降低了劳力的风险,并增加了生产的效率和安全。
其次,人工智能将会给人们带来更多的高技术和高附加值的就业机会。比如,人工智能能够协助医生进行疾病的诊断与治疗方案的制定,能够协助律师完成法律文书的写作与案例分析,能够协助金融从业人员进行风险管理与投资决策等。
而且,人工智能也会在将来改变人们的工作和组织模式。人工智能能够帮助企业进行生产计划、供应链管理、客户服务、市场营销、财务管理、决策分析等。这对推动企业数字化、智能化的发展具有重要意义。
然而,随着人工智能技术的不断发展,其所面临的问题也越来越多。比如,人工智能的出现,将会使一些低技术,低收入的工作岗位失去工作,从而造成社会的不公,经济的分化。所以,在推动人工智能发展的过程中,我们必须认真思考,怎样才能更好地解决这些问题,才能更好地促进人工智能的发展,才能更好地服务于人类。
随着人工智能技术的不断进步,人们对于未来工作方式的变化产生了浓厚的兴趣。人工智能的广泛应用将在许多方面带来深刻的影响,对于人们的工作方式将产生重要的改变。
总之,人工智能将以其广泛的应用和不断的发展改变人们的工作方式。它将取代一些重复性、低技能的工作,创造更多高技术和高附加值的就业机会,并改变工作和组织的模式。然而,我们也需要认真思考和解决人工智能发展所带来的问题,以确保其发展能够更好地为人类服务。只有在充分考虑并应对这些挑战的基础上,人工智能才能真正实现其潜力,并为社会带来更多的益处。返回搜狐,查看更多
责任编辑:译文|美智库:人工智能民主化面临的挑战
导读·2023.07.03
目前,美国正在围绕人工智能民主化制定相关政策。但是,将民主价值观融入技术应用绝非易事。本文认为,人工智能算法透明化的缺失,是人工智能民主化面临的最大挑战。
引言
了解人工智能的工作原理,有利于确定人工智能的利弊,更有利于为人工智能治理提供更充分的政策依据。从决策者的角度来看,制定有关算法透明化的政策,是最直接且成本最低的途径。这样既政治正确,又无需具备人工智能专业知识。也正因为如此,决策者往往忽视了一系列深层次问题。例如,如何划定人工智能算法的能力范围与边界?在设计人工智能模型时需要考虑什么因素?
在算法透明化方面,美国和中国选择了截然不同的道路。美国就政府机构如何使用人工智能技术做出了明确的规定。虽然美国并未要求企业遵守相关规定,但却要求企业接受社会的监督。中国实行了算法备案制度,旨在对算法服务提供者进行监管和评估。该备案只供政府内部使用,不对外公开。
上述案例表明,算法透明化的实现离不开两个重要因素:一是如何确定算法信息的披露对象?二是为什么算法需要透明化?
如何确定算法信息的披露对象?
让公众了解算法的性能和影响,是实现算法透明化的第一步,而这涉及到算法信息的披露程度。
众所周知,人工智能具有黑箱效应(复杂性、不透明性、不可预见性和部分自主性行为)。以美国为例,数字监管机构规定,银行必须承担管理机器学习模型带来的所有风险。美联储于2011年发布了《模型风险管理监督指南》,强调金融机构应当更深入地了解人工智能的工作原理。
2011年4月发布的《模型风险管理监督指南》
(图源:美联储储备委员会)
为了推动算法透明化,美国爱达荷州最近通过了一项法律,规定司法部门通过人工智能技术获得的所有文件和信息均必须向公众公开,而且不可以限制公开对象,这等同于默认接受无限制的外部审查。
与美国的激进做法相比,欧盟显得较为谨慎,于2022年发布了《人工智能责任指令》,拟就人工智能引发的损害设定责任规则。该指令规定,在面对技术复杂度高的人工智能产品时,法院可以在诉讼过程中要求算法服务提供者披露技术细节,以辨识谁是可能的担责者,发现何为问题的缘由。但是,欧盟并未对算法透明化做强制要求,而是根据具体情况而定。
除了披露技术细节以外,确定披露对象也是算法透明化的一个重要方面。就企业而言,算法透明化通常只局限于企业内部,而且企业管理层可以自主决定算法信息的披露程度。这显然是不合理的,一旦算法透明化与企业利益发生冲突时,就难以实现算法透明化。有鉴于此,欧盟在《人工智能责任指令》中规定,当被告拒绝向原告提供证据时,原告可以要求算法服务提供者提供证据,这进一步提高了算法问责的有效性。
2022年9月发布的《人工智能责任指令》
(图源:EUR-LEX官网)
算法透明化的另一个重要方面是如何利用算法信息来保障个人权益。人工智能模型主要由两个部分构成:算法和训练数据。研发者可以利用上述两者来测试人工智能系统的表现,类似于医生根据医学试验结果来进行临床诊断。但对于一般人而言,显然无法从专业的角度来判断算法的优劣。
如果不提高公众对算法透明化的认识,披露人工智能模型的技术细节将毫无意义。将算法信息转化为保障个人权益的工具是关键,但实现算法透明化需要建立一套完善的问责机制。
如果缺少算法监管机制,那么算法引起的后果只能由个人来承担。迄今为止,没有一国有能力实现真正意义上的算法透明化,只有少数人能够受益于算法透明化带来的利好。
为什么算法需要透明化?
人工智能模型必须具备人类价值观,制定符合民主规范的公共政策,为社会问题提供更好的解决方案。然而,人工智能模型的行事方式却与人类价值观渐行渐远,不断冲击着社会伦理与法治秩序。例如,人工智能模型可以通过训练数据来预判人的行为,从而导致社会能动性的丧失。此外,人工智能模型还存在算法偏见现象(例如对特定群体产生刻板印象),进而破坏权利平等,危及社会公平。
毫无疑问,算法透明化是人工智能民主化的重要前提条件。为了更好地维护民主价值观,除了要实现算法透明化以外,政府还应当加大对算法透明化研究的财政支持力度,并大力推进人工智能问责制度的建设。
如果要将算法透明化转化为公共利益,政府应当帮助官员学习人工智能方面的知识。首先要成立一个专门负责相关事务的机构,其次在各机构中寻找人工智能方面的人才。在制定人工智能应用规范的同时,政府还应当重视减少人工智能带来的负面影响。为此,可以考虑给数字监管机构和消费者权益保护机构提供专项资金,用于保障与算法相关的公民权益。美国联邦贸易委员会在这方面表现出色,可以作为其他机构效仿的典范。
此外,政府还应当加大对人工智能受害者的保护力度。例如,在人工智能造成的损害方面,欧盟的《人工智能责任指令》要求人工智能企业承担产品责任,这大大降低了人工智能受害者的举证难度。
人工智能的使命是服务于民主政治。要完成这项使命,政府应当公开用于划定选区边界的算法信息,以确保选举的公平和透明。公众对人工智能的态度是一个重要因素!研究显示,公众对人工智能的态度呈现出两极分化的趋势:极为乐观和极为悲观。这表明,培养公众对人工智能的信任比算法透明化更难实现。
在制定有关人工智能的政策过程中,政府和产业界应当与公众建立密切联系,以加强公众在人工智能治理领域的话语权。为了强化对算法的监管,拜登政府在《2020年国家人工智能倡议法》中要求各机构采取强有力措施,支持美国人工智能教育和劳动力培训计划。算法透明化是一项复杂和技术要求极高的工作,而且无任何先例可循。只有将人工智能民主化与算法透明化两大目标相结合,人工智能才具备服务于民主政治的能力。
结语
长期以来,如何规范和管理人工智能的应用一直饱受争议。美国政府内部对人工智能民主化存在分歧,例如,各机构在推进人工智能民主化的过程中有着不同的侧重点。有官员认为,人工智能法规应当建立在自由主义和平等主义之上;也有官员认为,人工智能的作用是维护民主选举的权威性,确保民主协商的有序开展。
2021年,美国人工智能国家安全委员会向美国国会提交了一份研究报告。该报告明确将“民主”定义为“有限政府”和“个人自由”,这与白宫科技政策办公室《人工智能权利法案蓝图》强调的“机会平等”和“公平获取社会资源”不一致。在该情况下,各机构必定会推出截然不同的人工智能政策。为了避免此类情况的发生,各机构应当根据算法信息的披露对象及算法透明化的目的来调整其侧重点。
2022年10月发布的《人工智能权利法案蓝图》
(图源:白宫官网)
算法透明化并非人工智能治理的唯一标准,选择什么机构承担人工智能的监督工作,授予监管机构什么权力也同等重要。此外,要确保人工智能符合“以人为本”、“包容性”和“无偏见”原则,还必须研究特定地区的文化和政治制度,并从人工智能治理的角度加以分析。
综上,人工智能治理的复杂性远超我们的想象。我们不能单纯地从技术的角度来思考人工智能民主化,也应当增强政府公信力,向公众普及人工智能技术的相关知识和应用。只有这样,才能推动人工智能更好地为人类服务。
陈晨:欧美人工智能监管差异,给我们带来哪些启示
中新网北京6月29日电(记者吴涛)如今,全球在人工智能领域的投入和竞争如火如荼。那么其他国家都是怎么做的呢?有哪些值得我们借鉴参考。
29日,在2023中新财经年中会“数字新生态”主题论坛上,百度法律研究中心主任陈晨称,全球在关键技术领导地位上面竞争日益激烈,明线有经济实力、科技的竞争,还有一条暗线,即法律、政策、软实力的竞争。
陈晨援引一家美国智库的报告称,从中国、美国、欧洲在特定技术领域竞争现状的评估以及2025年这些技术的领先趋势中看,中国领先的领域包括5G、先进电池、商用无人机等,美国领先领域在合成生物、生物制药、量子计算等。欧洲领先的领域却是“政策规章”。
百度法律研究中心主任陈晨。中新网记者李骏摄
“欧盟在一些关键技术的竞争领域上,距离中美是有一定差距的,但反而是在政策立法上,欧洲一直走在前面,在立法上非常精细化、法律也非常严苛。”陈晨称,对于新兴产业发展来说,效率与安全是一个需要反复权衡的问题,一个非常注重安全的立法真的有利于新兴产业、关键技术的发展吗?从美欧对人工智能立法的态度上,我们或许可以找到更多的启示。
“欧洲从2018年到2021年,对人工智能三步走:第一步发战略,第二步发白皮书,第三步立法,非常清晰,目标就是要确保人工智能符合道德和法律。随后欧洲在白皮书里面提出了分类监管,高风险、低风险、以及完全禁止的AI会适用不同的规则,这点是值得我们借鉴的。”
“美国也通过一些行政命令强调要用一种创新的方式监管人工智能,同时保护公民的隐私和自由。但是美国也强调,要考虑如何减少人工智能技术发展创新的阻碍,美国更多的是通过‘软法’来监管,不会用‘硬法’去强制性的干预产业发展。”陈晨称。
“总体来看,美国和欧盟人工智能监管的差异可以看到,监管思路上美国更希望市场决定,以市场为导向,更加注重效率,所以美国的科技发展的非常快。欧盟采用了预防的方法,在伤害出现之前先对其进行监管,更加注重安全,这也导致了新兴产业发展的不足。”陈晨称。
陈晨表示,监管的目的也不一样,美国更多的还是去用软规则促发展,保护他的领先地位。而欧盟考虑的是在道德、法律上对其更加严格的约束,在人权、公平、被歧视等方面都非常重视。这些都对中国的立法政策有很强的借鉴意义。(完)