人工智能面临哪些挑战和限制
人工智能面临哪些挑战和限制?2023-07-03
48
人工智能(AI)作为一项前沿技术,展现出了巨大的潜力和应用空间。然而,它也面临着一系列挑战和限制。下面将探讨人工智能面临的主要挑战和限制。
数据和隐私:人工智能的有效性和准确性依赖于大量高质量的数据。然而,在实践中,获取、整理和标记这些数据是一项复杂且耗时的任务。此外,大规模数据收集可能引发个人隐私和数据安全问题,导致公众对AI的担忧和不信任。
缺乏透明性和解释性:许多人工智能算法被称为"黑箱",因为它们的决策过程往往难以解释和理解。这种不透明性限制了AI的可信度和可接受程度,在敏感领域如医疗和司法中尤为重要。为了建立可靠的AI系统,需要更加透明和可解释的算法。
偏见和歧视:人工智能系统容易受到数据偏见的影响,这反映了数据本身的缺陷或被系统开发者的偏见所倾斜。这可能导致不公平的决策和对某些群体的歧视。解决这个问题需要审查和改进数据集,以确保公正和包容性。
缺乏创造性和直觉:尽管人工智能在处理大规模数据和执行重复任务方面表现出色,但在涉及创造性思维和直觉判断的领域中仍存在局限。目前的AI系统往往无法产生原创性的想法或理解抽象概念。这使得AI在某些复杂任务(如创作艺术品或解决复杂的伦理问题)上的应用受到限制。
法律和伦理挑战:人工智能的广泛应用引发了一系列法律和伦理问题。例如,自动驾驶汽车可能引发道德困境,当需要选择救助一个行人还是保护乘客时,应该如何做出决策?此外,随着技术的快速发展,法律法规可能落后于新兴的AI技术,这给监管机构带来了挑战。
就业和社会影响:人工智能的广泛应用对就业市场产生了深远的影响。尽管AI可以提高生产力和创造新的工作机会,但也可能导致某些行业和职位的消失。这对那些依赖于传统工作模式的人们来说是一个重大挑战。此外,AI的广泛应用还可能加剧社会不平等和数字鸿沟。
虽然人工智能面临着许多挑战和限制,但随着技术的进步和持续的研究努力,我们有望克服这些问题,并构建出更强大、透明和负责任的人工智能系统。同时,需要制定相关的法律法规和道德准则,以确保人工智能的公正、安全和可持续发展。
完谢谢观看
展开阅读全文上一篇:人工智能领域的就业前景如何?...下一篇:人工智能如何应用于数据分析?...
人工智能数据安全分享收藏相关课程学习[点击了解]相关阅读
如何摆脱数据分析中的缺失值?如何保障数据的质量和准确性?如何避免机器学习模型过拟合?如何成为一名初级数据分析师?CDA助力华夏银行数字化能力水平提升请不要将数据中台做成BI!2023中国数据要素高峰论坛暨首席数据官CDO峰会...CDA证书-数据分析能力的评判标准译文|美智库:人工智能民主化面临的挑战
导读·2023.07.03
目前,美国正在围绕人工智能民主化制定相关政策。但是,将民主价值观融入技术应用绝非易事。本文认为,人工智能算法透明化的缺失,是人工智能民主化面临的最大挑战。
引言
了解人工智能的工作原理,有利于确定人工智能的利弊,更有利于为人工智能治理提供更充分的政策依据。从决策者的角度来看,制定有关算法透明化的政策,是最直接且成本最低的途径。这样既政治正确,又无需具备人工智能专业知识。也正因为如此,决策者往往忽视了一系列深层次问题。例如,如何划定人工智能算法的能力范围与边界?在设计人工智能模型时需要考虑什么因素?
在算法透明化方面,美国和中国选择了截然不同的道路。美国就政府机构如何使用人工智能技术做出了明确的规定。虽然美国并未要求企业遵守相关规定,但却要求企业接受社会的监督。中国实行了算法备案制度,旨在对算法服务提供者进行监管和评估。该备案只供政府内部使用,不对外公开。
上述案例表明,算法透明化的实现离不开两个重要因素:一是如何确定算法信息的披露对象?二是为什么算法需要透明化?
如何确定算法信息的披露对象?
让公众了解算法的性能和影响,是实现算法透明化的第一步,而这涉及到算法信息的披露程度。
众所周知,人工智能具有黑箱效应(复杂性、不透明性、不可预见性和部分自主性行为)。以美国为例,数字监管机构规定,银行必须承担管理机器学习模型带来的所有风险。美联储于2011年发布了《模型风险管理监督指南》,强调金融机构应当更深入地了解人工智能的工作原理。
2011年4月发布的《模型风险管理监督指南》
(图源:美联储储备委员会)
为了推动算法透明化,美国爱达荷州最近通过了一项法律,规定司法部门通过人工智能技术获得的所有文件和信息均必须向公众公开,而且不可以限制公开对象,这等同于默认接受无限制的外部审查。
与美国的激进做法相比,欧盟显得较为谨慎,于2022年发布了《人工智能责任指令》,拟就人工智能引发的损害设定责任规则。该指令规定,在面对技术复杂度高的人工智能产品时,法院可以在诉讼过程中要求算法服务提供者披露技术细节,以辨识谁是可能的担责者,发现何为问题的缘由。但是,欧盟并未对算法透明化做强制要求,而是根据具体情况而定。
除了披露技术细节以外,确定披露对象也是算法透明化的一个重要方面。就企业而言,算法透明化通常只局限于企业内部,而且企业管理层可以自主决定算法信息的披露程度。这显然是不合理的,一旦算法透明化与企业利益发生冲突时,就难以实现算法透明化。有鉴于此,欧盟在《人工智能责任指令》中规定,当被告拒绝向原告提供证据时,原告可以要求算法服务提供者提供证据,这进一步提高了算法问责的有效性。
2022年9月发布的《人工智能责任指令》
(图源:EUR-LEX官网)
算法透明化的另一个重要方面是如何利用算法信息来保障个人权益。人工智能模型主要由两个部分构成:算法和训练数据。研发者可以利用上述两者来测试人工智能系统的表现,类似于医生根据医学试验结果来进行临床诊断。但对于一般人而言,显然无法从专业的角度来判断算法的优劣。
如果不提高公众对算法透明化的认识,披露人工智能模型的技术细节将毫无意义。将算法信息转化为保障个人权益的工具是关键,但实现算法透明化需要建立一套完善的问责机制。
如果缺少算法监管机制,那么算法引起的后果只能由个人来承担。迄今为止,没有一国有能力实现真正意义上的算法透明化,只有少数人能够受益于算法透明化带来的利好。
为什么算法需要透明化?
人工智能模型必须具备人类价值观,制定符合民主规范的公共政策,为社会问题提供更好的解决方案。然而,人工智能模型的行事方式却与人类价值观渐行渐远,不断冲击着社会伦理与法治秩序。例如,人工智能模型可以通过训练数据来预判人的行为,从而导致社会能动性的丧失。此外,人工智能模型还存在算法偏见现象(例如对特定群体产生刻板印象),进而破坏权利平等,危及社会公平。
毫无疑问,算法透明化是人工智能民主化的重要前提条件。为了更好地维护民主价值观,除了要实现算法透明化以外,政府还应当加大对算法透明化研究的财政支持力度,并大力推进人工智能问责制度的建设。
如果要将算法透明化转化为公共利益,政府应当帮助官员学习人工智能方面的知识。首先要成立一个专门负责相关事务的机构,其次在各机构中寻找人工智能方面的人才。在制定人工智能应用规范的同时,政府还应当重视减少人工智能带来的负面影响。为此,可以考虑给数字监管机构和消费者权益保护机构提供专项资金,用于保障与算法相关的公民权益。美国联邦贸易委员会在这方面表现出色,可以作为其他机构效仿的典范。
此外,政府还应当加大对人工智能受害者的保护力度。例如,在人工智能造成的损害方面,欧盟的《人工智能责任指令》要求人工智能企业承担产品责任,这大大降低了人工智能受害者的举证难度。
人工智能的使命是服务于民主政治。要完成这项使命,政府应当公开用于划定选区边界的算法信息,以确保选举的公平和透明。公众对人工智能的态度是一个重要因素!研究显示,公众对人工智能的态度呈现出两极分化的趋势:极为乐观和极为悲观。这表明,培养公众对人工智能的信任比算法透明化更难实现。
在制定有关人工智能的政策过程中,政府和产业界应当与公众建立密切联系,以加强公众在人工智能治理领域的话语权。为了强化对算法的监管,拜登政府在《2020年国家人工智能倡议法》中要求各机构采取强有力措施,支持美国人工智能教育和劳动力培训计划。算法透明化是一项复杂和技术要求极高的工作,而且无任何先例可循。只有将人工智能民主化与算法透明化两大目标相结合,人工智能才具备服务于民主政治的能力。
结语
长期以来,如何规范和管理人工智能的应用一直饱受争议。美国政府内部对人工智能民主化存在分歧,例如,各机构在推进人工智能民主化的过程中有着不同的侧重点。有官员认为,人工智能法规应当建立在自由主义和平等主义之上;也有官员认为,人工智能的作用是维护民主选举的权威性,确保民主协商的有序开展。
2021年,美国人工智能国家安全委员会向美国国会提交了一份研究报告。该报告明确将“民主”定义为“有限政府”和“个人自由”,这与白宫科技政策办公室《人工智能权利法案蓝图》强调的“机会平等”和“公平获取社会资源”不一致。在该情况下,各机构必定会推出截然不同的人工智能政策。为了避免此类情况的发生,各机构应当根据算法信息的披露对象及算法透明化的目的来调整其侧重点。
2022年10月发布的《人工智能权利法案蓝图》
(图源:白宫官网)
算法透明化并非人工智能治理的唯一标准,选择什么机构承担人工智能的监督工作,授予监管机构什么权力也同等重要。此外,要确保人工智能符合“以人为本”、“包容性”和“无偏见”原则,还必须研究特定地区的文化和政治制度,并从人工智能治理的角度加以分析。
综上,人工智能治理的复杂性远超我们的想象。我们不能单纯地从技术的角度来思考人工智能民主化,也应当增强政府公信力,向公众普及人工智能技术的相关知识和应用。只有这样,才能推动人工智能更好地为人类服务。
杨涛:人工智能在金融应用中面临什么机遇与挑战
0分享至中新经纬7月4日电题:人工智能在金融应用中面临什么机遇与挑战?作者杨涛中国社科院国家金融与发展实验室副主任目前,金融业的数字化转型已成为各国的大势所趋,在中国也是监管部门推动的重要改革方向。自从ChatGPT横空出世,这款人工智能对话机器人俨然成为了全球最热门的话题之一。ChatGPT虽然进一步凸显了人工智能的应用能力,但对于金融业来说,人工智能的运用仍然面临诸多挑战,使其较长时期内仍无法给金融业带来重大变革。随着数字经济和数字社会建设深入推进,金融领域积累了大规模、高质量的数据,同时具有多维度、多元化的应用场景,为人工智能应用蓬勃发展提供了良好的契机。同时人工智能的使用也给金融领域带来了诸多机遇:一是战略性问题。面人工智能在战略制定中的应用思路,正是感知、推理、决策,天然地有可能与金融机构综合或专项战略制定相结合,并且进行动态随机优化。二是结构性问题。中国金融业任然还有诸多发展不平衡、不充分的结构性矛盾,这也为人工智能的“补短板”提出了要求。例如人工智能应用于财富管理领域,能否给家庭资产结构、金融资产布局失衡带来改变,直接影响到金融助力共同富裕的重大目标。三是生产要素问题。数据和人才已成为重要的生产要素,是国家基础性战略资源。而人工智能与大数据相结合会激发更多活力,能够促进金融业改善数据“采、存、算、管、用”的全生命周期活动,推动数据要素到数据资产的转化。人工智能也可以成为提升员工能力的“智慧助手”,也可以通过构建“数字人”来弥补团队能力。四是组织运营问题。在组织架构与运营能力过程中,可以充分利用人工智能打造自动化、智能化的运营模式,不断优化运营流程,创新运营模式,提升运营服务质量,降低运营成本。五是服务能力问题。人工智能在定制化智能产品设计、客户全息画像服务精准营销、线上线下体验一致性等服务性方面,已经有了卓有成效的探索。六是风险管理问题。人工智能一方面构建客户、业务和风险视图,动态全面反映风险全貌;另一方面,能够优化智能信用风险评估,实现风控向数控、智控的转变。七是服务效果问题。一方面,近年来在金融业快速发展过程中,人工智能的使用价值体现已经对金融业全要素生产率的提升与转变,产生了非常深刻的影响。另一方面,人工智能应用可以对金融业在助力普惠、绿色、科技、共同富裕等方面还有诸多职责产生价值。八是合作生态问题。在人工智能和大数据的加持下,有助于进一步改善金融机构外部生态。虽然人工智能的运用能够为金融领域带来诸多机遇,但对于金融业来说,仍然面临诸多挑战:一是数据治理。人工智能应用同样离不开高质量的海量数据,但金融机构的数据治理普遍处于起步阶段,数据低质量、数据孤岛、数据散乱等普遍存在,难以为人工智能提供充足的数据要素支撑。二是场景的标准化。虽然人工智能的金融应用体现个性化、“千人千面”等特点,但长远来看在金融与技术的融合过程中,真正具有生命力的是标准化、通用型的金融科技创新场景,而非基于传统外包模式的差别化合作,这也是现有人工智能金融应用的制约之一。三是技术与方案的高成本门槛。人工智能在金融活动中的技术应用与解决方案设置,通常具有较高的部署成本,难以适应广大中小金融机构的需要。四是透明度与不可解释性。在机器学习领域,在输入数据和输出答案之间通常有被称为“黑箱”的不可观察空间。只有发展可解释、可信任的人工智能金融应用,才能实现用户信任、模型可审计性并降低风险。五是组织内部协调。就金融机构应用人工智能等前沿技术来说,通常难以形成有效的“激励相容”机制,而促使内部利益主体达成共识,以最大效率地体现技术创新价值。六是责任分担。引入人工智能之后,原有的金融机构业务流程中的权责相称,可能会出现一些新的模糊性,亟待从制度规则、业务实践、技术与业务、模型与人的关系等方面进一步探索。七是合规性与伦理性。伴人工智能的金融应用存在更突出的合规压力。算法歧视、大数据杀熟、信息泄露等金融科技伦理挑战,也给人工智能应用带来困境。总之,人工智能驱动金融业数字化变革的图景已经展开,为金融领域的发展带来了诸多机遇,但同时也带来了诸多挑战,人工智能亟待自我优化与持续“闯关”。(中新经纬APP)本文由中新经纬研究院选编,因选编产生的作品中新经纬版权所有,未经书面授权,任何单位及个人不得转载、摘编或以其它方式使用。选编内容涉及的观点仅代表原作者,不代表中新经纬观点。责任编辑:孙庆阳实习生饶奎【编辑:付健青】特别声明:以上内容(如有图片或视频亦包括在内)为自媒体平台“网易号”用户上传并发布,本平台仅提供信息存储服务。
Notice:Thecontentabove(includingthepicturesandvideosifany)isuploadedandpostedbyauserofNetEaseHao,whichisasocialmediaplatformandonlyprovidesinformationstorageservices.
/阅读下一篇/返回网易首页下载网易新闻客户端