博舍

营造人工智能大模型产业生态 “人工智能算法”

营造人工智能大模型产业生态

推动人工智能大模型产业化应用是提升国家竞争力的关键举措。要抢占人工智能大模型产业发展制高点,必须加强战略规划和深度治理,推进新型算力生态基础设施建设,打造稳定可靠的算法开源生态。

不久前举办的中关村论坛人工智能大模型发展分论坛发布的《中国人工智能大模型地图研究报告》提出,我国自2020年进入大模型快速发展期,目前与美国保持同步增长态势。当前,我国人工智能大模型已发布79个。此前召开的中共中央政治局会议提出,要重视通用人工智能发展,营造创新生态,重视防范风险。推动人工智能大模型产业化应用,是加快实现我国人工智能领域高水平科技自立自强的应时之举,也是推动我国产业优化升级、实现经济高质量发展的重要一招,更是提升国家竞争力、维护国家安全的关键举措。

营造良好的人工智能大模型产业生态,应着力解决目前我国人工智能大模型发展面临的高端算力技术不可控、大规模高质量数据集少、算法可靠性和可解释性弱等核心问题。目前,由GPU、FPGA、ASIC等加速芯片异构而成的人工智能高端算力芯片技术面临“卡脖子”风险。在高效低碳的算力网络基础设施方面,跨省域互联互通与动态调配的机制尚未建立,规模化的高端算力供给能力亟待提升。同时,高质量数据供给不足影响了大模型“智商”。这体现在高价值公共数据开放程度不足、行业及企业数据要素市场化流通不够充分、用于大模型训练的数据集规模较小等。此外,算法可解释性不强也影响了大模型的产业化应用。拥有千亿级参数的大模型算法,开发难度大、训练难度高、决策过程及结果的可解释性差、合规评估难,直接对行业大模型开发的进程有所影响。

基于此,要抢占人工智能大模型产业发展制高点,必须加强源头技术创新,打赢软硬件基础设施国产化攻坚战,化解大模型关键核心技术被“卡脖子”的风险,多措并举推动人工智能大模型产业化应用。

首先,推进新型算力生态基础设施建设。实施高端算力芯片研发重大专项扶持计划,鼓励头部企业联合高水平大学“揭榜挂帅”。建立新型研发机构,推动国产高端算力芯片实现突破。在国家“东数西算”工程背景下,推动新型算力网络基础设施建设的顶层设计,建设国家公共算力开放创新平台,搭建算力生态链,推动全国算力资源互联互通、协同共享与优化配置。

其次,构建规模大、质量高的数据生态。完善国家公共数据开放标准和平台,推动高价值公共数据开放与多元化授权运营,引导行业、企业大数据有条件开放、融通并进场交易,形成多模态、多领域的大规模数据集。打造数据集精细化标注的众包服务平台和数据质量评估标准体系,建设高质量中文语料库。构建敏感领域数据隐私保护的监管体系和技术服务体系。

再次,打造稳定可靠的算法开源生态。建立大模型算法及工具开源平台,完善具有稳定性、可靠性和安全性的算法监测标准和技术体系。实施行业大模型产品和服务的登记备案、安全评估及潜在风险预测的审查机制。鼓励平台企业积极开展算法创新探索与应用,赋能中小企业降本增效并创新商业模式,深化数字化转型并引领高质量发展。

最后,加强人工智能大模型的战略规划和深度治理。制定人工智能大模型产业发展规划,对大模型技术研发和产业应用给予相应的政策、资金和人才等支持。推动算力、算法、数据、应用场景等上下游产业无缝衔接与协同联动,实现大模型产业相关要素跨语言、跨模态、跨任务、跨行业融合发展。加强人工智能大模型深度治理的国际合作,推动技术向善发展,促进大模型产业高质量发展。(何喜军张惠娜)

[责编:陶媛]

人工智能和演算法/黄子伦

自从ChatGPT走进大众眼帘后,人工智能取代人类工作的声浪达到了空前高度,加上时不时传出这些人工智能已经通过了某些难度极高的专业考试,你说我们这些人类没有焦虑,肯定是骗人的。

当然,还要算上各种互联网信息的夸张吹捧。

我认为这些人工智能取代人类工作还有很长一段距离,就像创新工场创始人李开复所说的,你越把人工智能拟人化,那么它就会让你越失望,因为目前许多人工智能依然是单一功能的强人工智能。

不过,有很多工作是可以交给人工智能处理的,尤其是那些重复乏味,而且人类容易出错的工作,交由人工智能处理最佳。

不过,这当中有不少一些问题需要处理,尤其是那些迷信人工智能或者演算法的企业。

封死顾客投诉管道

当他们把这类工作都交给人工智能处理,常常会忽略了现实层面的各种变化,其中最要命的是,一些大企业甚至会把顾客投诉的管道给封死。

就拿人们常使用的脸书来说好了,Meta公司内部有人工智能审查,会辨别照片或者影片的内容是否违反该平台的“社区守则”,如果需要人类审视就会被提升到下一个层级来审查。

至于这些守则是否公允就见仁见智了。这些工作在那些明显不过的例子里,自然是没什么争议。

然而,当用户有争议,想要上诉时,却发现压根儿没有一个正规管道给你联系,不管是电邮、电话、地址,还是聊天机器人。或者在客服的那端,他们只是不断重复着这些是公司的人工智能或者演算法的决定,他们没有权力更改。

有些大企业索性不装了,也不告诉用户应该遵守什么守则,只是告诉你有条红线不能触碰。

即使你很靠近这条红线,他们也不发出任何警告。

当内部演算法判定了某些用户触及红线,直接在系统上屏蔽用户。

这种做法不但可以把诠释权牢牢握在手里,甚至可以会逼着用户开始自我审查以免触犯红线,从精神上奴隶用户,用人工智能和演算法来打造自己的霸权行为。

这就像是电影《关键报告》里,阿汤哥对人工智能深信不疑,认为他是在预防社会里的未来犯罪。直到自己成为人工智能眼中的下一个“未来罪犯”时,才发现自己要对抗的是一整个社会系统。

版权声明:本文内容由互联网用户自发贡献,该文观点仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌抄袭侵权/违法违规的内容,一经查实,本站将立刻删除。

上一篇

下一篇