人工智能该怎样践行“科技向善”
央广网北京12月5日消息(记者冯烁)据中央广播电视总台中国之声《新闻纵横》报道,随着智慧城市、智能设备越来越多地进入到人们的生活中,人工智能在赋能千行百业的同时,也带来了安全、隐私、公平等问题和挑战。诸如个人信息泄露问题,低俗劣质信息精准推送、“大数据杀熟”等算法歧视乱象凸显出来。
近期,各国监管机构也加大了对算法不公平的打击力度。人工智能带来了哪些新烦恼?面对这些烦恼人们真的束手无策吗?
现如今人工智能已经成为一股无可抵挡的潮流,甚至遍布于各个行业之中。然而当人工智能越来越懂人类时,我们不禁要担心:这些人工智能会不会哪一天就把我们给“卖了”?
以近些年很多小区安装的人脸识别门禁为例,不少业主都表示担心被采集的人脸信息泄露。
各类人脸识别系统、手机App等都在广泛采集用户人脸、声纹等具有强个人属性的生物特征信息及行为轨迹等数据,一旦泄露将威胁个人隐私。
数据安全是数字经济发展中最关键的安全挑战之一,近些年国际社会上发生的数据泄露事件也并不少。今年8月,微软服务器上约3800万条记录(包括私人信息)被暴露。此次的数据泄露包括用户的姓名、地址、财务信息和新冠肺炎疫苗接种状态等,人员涉及美国航空公司、福特公司以及马里兰州卫生部和纽约市公共交通系统等公共机构。
从我国法律层面上看,今年11月,个人信息保护法正式实施,针对人脸识别等行为作出了明确规定。至此,连同已经实施的数据安全法、网络安全法,三者共同构成了我国在网络安全和数据保护方面的法律“三驾马车”。
国家新一代人工智能治理专业委员会主任薛澜表示,新一代人工智能以数据为基础,所以首要挑战就是怎么样能够有高质量的数据集建设并对数据进行有效管理。
在购物网站上填个调查问卷,甚至连问卷都没填,仅是浏览信息,就几乎看不到一些选项范围之外的商品广告信息了;通过应用程序(App)阅读了一条养生信息,随后便会经常收到养生知识、养生产品的广告推送……这都是“算法歧视”,很多人有切身感受。
当前,人工智能技术的发展正处在关键十字路口。12月4日,2021人工智能合作与治理国际论坛在京开幕,大咖云集。他们如何看待这个问题?人工智能又应该怎样去践行“科技向善”呢?
今年年初,中国消费者协会就消费领域不合理的算法现象发声,揭露出“大数据杀熟”的六种现象,其中就包括大家非常熟悉的“精准推送”——这是指互联网平台通过监测分析消费者的消费行踪轨迹,如浏览过的页面、广告、商品服务、话题等,有针对性地对消费者进行商业营销。
一位来自南京的消费者告诉记者:“比如,我5分钟之前跟朋友聊到电动牙刷,5分钟后我打开某些电商平台,它就会给我推送这种商品,而这种商品是我之前没有搜索过的。”
的确,随着人工智能技术的发展,更精准地读懂大家想要什么在一些场合下变得非常方便,但是一旦这种对信息的收集越了界,将给大家带来无尽的困扰。
目前我国已经陆续出台了一系列政策,为“大数据杀熟”戴上紧箍咒。11月18日,上海率先在电子商务领域出台地方性指引,制定发布《上海市网络交易平台网络营销活动算法应用指引(试行)》,明确平台经营者不得利用算法实施不正当价格行为,不得利用算法对消费者实施不合理的差别待遇。
今年8月,国家网信办已经出台了《互联网信息服务算法推荐管理规定(征求意见稿)》,要求算法推荐服务提供者应当定期审核、评估、验证算法机制机理、模型、数据和应用结果等,不得设置诱导用户沉迷或者高额消费等违背公序良俗的算法模型。
不少专家都表示,发展人工智能,必须坚持技术永远服务人的原则,而不是利用技术来窥探人、伤害人。
对此,清华大学智能社会治理研究院院长苏竣指出:“算法以前所未有的速度和无与伦比的精度处理数据,让占据了用户数据和高级算法优势的个体或组织,因此获取了极大的权力,形成垄断性的超级平台,对市场活动中的劳动者权益和消费者的福利造成了无边界的蚕食。当今社会,每个人其实都被困在各式各样的算法里。”
众所周知,人工智能是在特定模型下自我学习形成算法的,训练模型所依据的数据集和模型本身的设计都有可能带来偏差。而这就会带来歧视问题。
美国卡内基梅隆大学学者就曾经用钓鱼软件模拟普通用户浏览求职网站的实验,然后统计谷歌推送“年薪20万美元以上的职位”的广告数据,结果男性收到1852次推送,女性收到318次。结果很明显,平台可以通过后台进行关键词设置,可以“操作”每类人群收到的信息频率。
一位来自美国的黑人女士乔伊也曾公开表示,在实习中她遭遇了这样一种情况——由于自己是黑人脸庞,所以人脸识别摄像头无法识别她的面容。
对此,清华大学人工智能国际治理研究院学术委员龚克表示,人工智能很可能会导致广泛的歧视和不公问题,这种算法偏见亟待纠偏。
“我们现在使用人工智能的时候,是靠数据来训练模型,而我们从社会中采集的数据带有了现实社会的很多偏见。如果我们没有适当的技术对我们的算法进行偏见的检测、去除,公平无歧视的原则就会变得没有办法落地。”龚克说。
理解人机智能 倡导“智能向善”
1997年电脑“深蓝”战胜世界棋王卡斯帕罗夫,掀起了人工智能的研究热潮。但在现有数学体系和软硬件的设计模式基础之上,人工智能在智能水平和能力范围上与人类智能相比仍存在极大差距。究其原因,人类智能和人工智能之间还存在无法跨越的界限,人工智能是逻辑的,人类智能却未必是逻辑的。依赖于“符号指向对象”的机器只能在封闭环境进行形式化计算,人类却可以实现开放环境中的意向性算计。在这种背景下,实现人机优势互补、倡导“智能向善”显得尤为重要。
人工智能的瓶颈:用逻辑手段解决非逻辑问题
哲学家休谟曾说:“一切科学都与人性有关,对人性的研究应是一切科学的基础。”任何科学都或多或少与人性有些关系,无论学科看似与人性相隔多远,它们最终都会以某种途径再次回归到人性中。从这个角度来看,人工智能“合乎伦理的设计”很可能是黄粱一梦。伦理对人而言还是一个很难遵守的复杂体系,对机器而言则更加难以理解。在人工智能领域,“合乎伦理的设计”或许是科幻成分多于科学成分、想象成分多于真实成分。
当前的人工智能及未来的智能科学研究具有两个致命的缺点,即“把数学等同于逻辑”和“把符号与对象混淆”。人机混合的难点和瓶颈也因此在于(符号)表征的非符号性(可变性)、(逻辑)推理的非逻辑性(非真实性)和(客观)决策的非客观性(主观性)。
真正智能领域的瓶颈和难点之一是人机环境系统失调问题,具体体现在跨域协同中的“跨”与“协”如何有效实现的问题,这不仅关系到解决各种辅助决策系统中“有态无势”(甚至是“无态无势”)的不足,还涉及到许多辅助决策体系“低效失能”的朔源。也许需要尝试把认知域、物理域、信息域构成的基础理论域与陆海空天电网构成的技术域有机地结合起来,为真实有效地实现跨域协同打下基础。
如何理解和研究智能问题?
智能是一个非常辽阔的空间,它可以随时打开异质的集合,把客观的逻辑与主观的超逻辑结合起来。智能不是人脑(或类脑)的产物,也不是人自身的产物,而是人、物、环境系统相互作用的产物。正如马克思所言:“人的本质不是单个人所固有的抽象物,在其现实性上,它是一切社会关系的总和”,事实上,真实的智能同样也蕴含着人、物、环境这3种成分,随着科技的快速发展,其中的“物”却也逐渐被人造物——“机”所取代,简称为人机环境系统。
研究智能这样的复杂问题是困难的,但把它分解成人机环境系统问题就相对简单一些。人要解决的是“做正确的事(杂)”,机要解决的是“正确地做事(复)”,环境所要解决的是“提供做事平台(复杂)”。正如郭雷院士所言:“复杂性和智能化是系统科学发展的两个永恒主题。复杂性主要体现的是系统科学认识世界的一面,而智能化主要体现的是系统科学改造世界的一面。”所以,未来各国在人工智能领域角力的焦点不仅仅是人、机、环境每一或所有单项人工智能的领先优势,更重要的是人、机、环境系统混合智能的整合。
在真实的人—机—环境系统交互领域中,人的情景意识、机器的物理情景意识、环境的地理情景意识等往往同构于统一时空中,在人的行为环境与机的物理环境、地理环境相互作用过程中,人的情景意识、行为特征并非由人的元素单独决定,而是取决于人—机—环境系统整体,在充满变数的人—机—环境交互系统中,存在的逻辑不是主客观的必然性和确定性,而是与各种可能性保持互动的同步性,是一种得“意”忘“形”的见招拆招和随机应变能力,而这种思维和能力恰恰是人工智能所欠缺的地方。
人机混合智能是未来发展方向
未来数字世界中,人与机器如何分工?人与机器的边界又将如何划分呢?
实际上,当前人机关系主要是功能分配,人把握主要方向,机处理精细过程,而未来的人机关系可能是某种能力的分工,机也可以把握某些不关键的方向,人也可以处理某些缜密的过程。人机的边界在于“应”和“变”,即如何实现适时的“弥”(散)与“聚”(焦)、“跨”(域)与“协”(同)、“反”(思)与“创”(造)。
人机智能是人—机—环境系统相互作用而产生的新型智能系统。其与人类智能、人工智能的差异具体表现在3个方面:首先,在混合智能输入端,它把设备传感器客观采集的数据与人主观感知到的信息结合起来,形成一种新的输入方式;其次,在智能的数据/信息中间处理过程,机器数据计算与人的信息认知相混合,构建起一种独特的理解途径;最后,在智能输出端,它将结果与人的价值决策相匹配,形成概率化与规则化有机协调的优化判断。人机混合智能是一种广义上的“群体”智能形式,这里的人不仅包括个人,还包括众人,机不仅包括机器装备,还涉及机制机理;此外,还关联自然/社会环境、真实/虚拟环境、网络/电磁环境等。
人机混合智能也存在着一个难题,即机器的自主程度越高,人类对态势的感知程度越低,人机之间接管任务顺畅的难度也越大。有经验的人常常抓关键任务中的薄弱环节,在危险情境中提高警觉性和注意力,以防意外,随时准备接管机器自动化操作,也可以此训练新手,进而形成真实敏锐地把握事故的兆头苗头、恰当地把握处理时机、准确地随机应变能力,并在实践中不断磨砺训练增强。即便如此,如何在非典型、非意外情境中解决人机交互难题仍需要进一步探讨。
人机混合智能是人工智能发展的必经之路,其中既需要新的理论方法,也需要对人、机、环境之间的关系进行新的探索。随着人工智能的热度不断加大,越来越多的产品走进人们的生活之中。但是,强人工智能依然没有实现,如何将人的算计智能迁移到机器中去,这是一个必然要解决的问题。我们已经从认知角度构建认知模型或者从意识的角度构建计算—算计模型,这都是对人的认知思维的尝试性理解和模拟,期望实现人的算计能力。计算—算计模型的研究不仅需要考虑机器技术的飞速发展,还要考虑交互主体即人的思维和认知方式,让机器与人各司其职,互相混合促进,这才是人机混合智能的前景和趋势。
引领伦理治理,倡导“智能向善”
科技向善对西方而言是个有问题的提法,科技是物质世界的客观存在,向善则是伦理道德的必然要求,从客观存在能否推出必然要求,这是目前西方仍在争议的话题。
科技本身没有对错善恶之分,能利人利己,也能害人害己;而设计、开发、使用、管理、维护、运行的人会有对错善恶混合之分,科技向善本质是指“人”的向善。故在监管上需要坚持伦理先行的理念,建立并完善人工智能伦理问责机制,明确人工智能主体的责任和权利边界;在研发上需要确保先进科技手段始终处于负责可靠的人类控制之下,预防数据算法偏见产生,使研发流程可控、可监督、可信赖;在使用上需要确保个人隐私和数据安全,预先设立应急机制和兜底措施,对使用人员进行必要培训等。
党的二十大报告提出,中国积极参与全球治理体系改革和建设,践行共商共建共享的全球治理观,坚持真正的多边主义,推进国际关系民主化,推动全球治理朝着更加公正合理的方向发展。作为人工智能领域的先驱者之一,中国正在用实际行动为人工智能全球治理体系注入东方智慧,展现了大国形象和担当。2021年9月,中国国家新一代人工智能治理专业委员会发布了《新一代人工智能伦理规范》,强调应将伦理融入人工智能全生命周期,并针对人工智能管理、研发、供应、使用等活动提出了6项基本伦理要求和4个方面的特定伦理规范。今年3月,中国发布《关于加强科技伦理治理的意见》,提出应加快完善科技伦理体系,提升科技伦理治理能力,有效防控科技伦理风险,不断推动科技向善、造福人类,实现高水平科技自立自强。近日,中国向联合国提交《关于加强人工智能伦理治理的立场文件》,从构建人类命运共同体的高度,系统梳理了近年来中国在人工智能伦理治理方面的政策实践,积极倡导“以人为本”“智能向善”理念,为各国破解人工智能发展难题提供了具体解决思路,值得国际社会高度重视与深入研究。(刘伟)
国产AI大模型“混战” 如何让“科技向善”成为现实
“请深呼吸,不要眨眼,因为不管你是否准备好了,明天都会到来。”在《未来呼啸而来》一书中,彼得·戴曼迪斯和史蒂芬·科特勒描绘出的明天,已经在眼前了。
科技公司纷纷发布大模型
自ChatGPT在全球掀起热潮以来,国内科技公司不是在争先恐后地发布自家大模型,就是在涌入发布大模型的路上。这些公司中既有阿里巴巴、百度、京东、华为等科技大厂,也有以商汤科技、科大讯飞为代表的AI公司,还有一些虽为初创却备受瞩目的企业,比如曾以“二当家”身份拼出万亿级美团的王慧文带资组队的光年之外科技有限公司,还有携5000万元资金火速入场、称3年左右追上GPT-4的王小川创办的新公司百川智能。
争分夺秒在以大模型、AIGC(人工智能生成内容)为代表的AI赛道布局,已成为国内涉足人工智能企业的重中之重,国产AI大模型混战的帷幕已经揭开。“这说明各大企业都认识到AI大模型是人工智能的风口,必须及时赶上,否则就可能错过机会。”在西南科技大学计算机学院院长张晖看来,各大企业AI大模型落地的消息接踵而至是一件好事。
但各大公司所发布的AI大模型,是否能够在短期研发后就达到预期目标、取得好的效果,只有试用之后才能知道。
还需要做大量算法研究
科学技术的进展速度,从来都以人类难以设想的场景落地实现。衡量科技对社会的推动,取决于社会对科技的运用水平,以全面接入微软Office和必应的GPT-4为例,根据移动互联网研究公司Data.ai的统计,接入后微软必应搜索的全球下载量翻了8倍。
据官方消息,百度文心一言推出后,百度旗下多项主流业务将接入文心一言,包括百度搜索,以及基于百度智能云的智能语音助手小度、智能驾驶阿波罗等。
大模型的开发需要极强的综合实力:首先要具备丰富的开发资源,即人才、专利等等;其次,需要非常强的大语料获取能力,为模型训练提供数据支持;再次还要有充沛的算力资源,这意味着巨额的硬件投入。
张晖告诉华西都市报、封面新闻记者:“目前,大模型所采用的大规模预训练加迁移学习的路径,各个大学和公司都有掌握。但从目前大模型应用的效果来看,OpenAI公司在算法上有自己的独到之处。大型互联网公司拥有算力、海量数据,有开发大模型技术的基础,但还需要做大量算法研究、试错的工作。”
主动拥抱还是被动接受?
“十分抗拒,被迫拥抱,真香打脸”,原画设计师彭彦这样形容自己与AIGC“合作”的过程。
“我们这一行构思和手绘的能力都不能有短板,非常考验画手。”彭彦说,AIGC的加入确实能弥补手绘出图慢的问题,即使作品成果不理想或者甲方不满意,自己重新调整的效率也提高了很多。
并不是所有被AI发展所影响到的行业都能像彭彦一样“真香打脸”,在OpenAI和美国宾夕法尼亚大学共同撰写的一篇研究报告中指出,80%的美国劳动力至少有10%的工作受到GPT迭代的影响。研究人员发现,大约19%的工人将看到至少50%的工作受到影响。他们认为GPT模型是通用技术,几乎跨越所有行业。研究人员使用的O*NET数据库,是美国的主要职业数据库,该数据库列出了1016个带有标准化描述的职业,以确定每个职业要测量的任务。
GPT可以将完成任务所需的时间减少至少一半,同时保持高质量的工作。“GPT的迭代会影响到的职业非常多,从程序员、论文审稿人、翻译、教师、咨询师甚至记者、画家、直播者这些传统的智力工作者都可能受到影响,但GPT也会创造新的工作机会和服务模式。”张晖坦言,在人工智能技术迭代的当下,技术也会带来许多新的机会,各个行业的人士都可以思考如何用大模型来帮助自己工作,创新工作模式。
产业将迎来首份监管文件
为促进生成式人工智能技术健康发展和规范应用,当下备受关注的生成式AI产业将迎来首份监管文件。
从4月11日起至5月10日,国家互联网信息办公室针对《生成式人工智能服务管理办法(征求意见稿)》公开征求意见。其中共有21条内容,从生成式人工智能服务商的准入,到算法设计、训练数据选择、模型、内容,以及用户个人隐私、商业秘密等方面提出了相关要求。
张晖表示,管理办法将促进国内某些研究方向的发展,如办法中明确规定:采取措施防止出现种族、民族、信仰、国别、地域、性别、年龄、职业等歧视;要保证数据的真实性、准确性、客观性、多样性,尊重知识产权、商业道德,不得利用算法、数据、平台等优势实施不公平竞争;利用生成式人工智能生成的内容应当真实准确,采取措施防止生成虚假信息。“这些都会对AI算法公平性研究起到促进作用。”
为生成式人工智能的发展尽早做好合规工作,可以为行业后续健康发展保驾护航。在张晖看来,管理办法的出台是非常全面及时的。在生成式人工智能服务还没有大量铺开,未产生广泛社会影响的时候就出台相关管理规定,界定相关责任,限制歧视、虚假、隐私信息的生成,让大家在合规的范围内开展工作,有利于行业的健康发展。
回望自然科学史上那些灿若星辰的名字:哥白尼、达尔文、爱因斯坦……他们无一不是伟大的人文主义者,他们拥有深厚的科学素养和人文素养,关注人的精神自由和道德的自我完善,同时又十分关注人类的前途和命运。当今时代,人类比其他任何时代发展得都快,知识和技术正以几何级速度递增,因科技产生的伦理等问题依旧存在。
“科技是没有价值观的,而人有。”当被问及如何让“科技向善”成为现实时,张晖说,在他看来,向善的只能是技术的开发者和使用者。“只有加强对人的教育和监管,才能构建数字教育的良性生态循环。”
华西都市报-封面新闻记者边雪
【编辑:刘湃】人工智能如何向善——一场科技与哲学的“跨界”对话
图集新华社北京11月12日电题:人工智能如何向善——一场科技与哲学的“跨界”对话
新华社记者董瑞丰
人类能否把控人工智能的快速发展,又是否将与人工智能一起携手进化向善?
同样的问题,在科学家与哲学家的眼中,答案或许两样。近日,围绕人工智能和技术伦理的现实交集,不同领域的专家展开了一场讨论。
谈技术:人工智能的“普适性”增强
用传感器收集湿度、温度、光照度等数据,通过人工智能技术提升黄瓜的单位产量,可以媲美有丰富经验的农业专家;用人脸识别技术打拐寻人,可对人脸成长变化进行模拟建模,帮助多年前走失的儿童认亲……
由腾讯社会研究中心主办的腾云峰会上,科学家与来自哲学、人文领域的学者共同展望了人工智能技术深入各行各业的趋势。
在故宫博物院院长王旭东看来,“数字故宫”就是在探索把人工智能技术更好地落地于博物馆,与文物保护管理、传承利用结合起来,让文化遗产跟越来越多的人群建立联系。
未来的人工智能技术甚至可能创造一个虚拟世界,供人类“试错”。中国科学院自动化研究所研究员王飞跃说,人工智能有望让人类实现“在虚拟世界吃一堑、吃多堑,在现实世界长一智”,通过实与虚两个世界的平行秩序去创造未来。
谈发展:还远未达到真正的智能
围棋、游戏领域,人工智能已经“碾压”人类。随着量子计算的发展,人工智能如虎添翼,是否会超出人类控制?
复旦大学中文系教授严锋的疑问,代表了不少人的“焦虑”:“如果可能出现弗兰肯斯坦式的怪物,我们应该怎么样对待它,是不是现在就要采取一些防范措施?”
但在人工智能领域的科学家看来,大众想象的“强人工智能”目前仍非常弱。
腾讯人工智能实验室主任张正友说,人工智能现在能做的事情,只是把知识转换成另一种知识,而真正的智能应该超越知识,在不确定的情况下知道如何去解决问题。换言之,人工还远未产生真正的智能。
谈伦理:用足够的智慧迎接新技术
相比科幻电影中的“终结者”,人工智能带给人类社会的冲击,可能更早出现在传统伦理方面。比如,公共治理领域该如何应用智能技术。
“从伦理角度来说,如何给它设定一个边界?”中国社会科学院哲学研究所研究员周国平发问。
中国人民大学哲学院教授刘永谋认为,将智能技术用于公共治理领域,可以提高社会运行效率、提高公众福祉,但也存在智能治理沦为智能操控的危险,因而必须运用技术治理理论来研究智能治理的基本机制。
社科院科学技术和社会研究中心主任段伟文提出,以“有针对性的‘技术-伦理’改进”作为破题之解。他表示,通过人文学者与科技专家的对话,实现价值诉求与技术需求之间的“转译”。“未来,人类和机器都要相互理解对方的缺陷,并进行协同进化,这样才能分担责任。”
+1【纠错】责任编辑:吴咏玲