国内大语言模型有哪些附大语言模型相关概念股
国内大语言模型有哪些?附大语言模型相关概念股•2023-03-26•理财•阅读4325文章目录附大语言模型相关概念股国内大语言模型有:百度文心大模型、阿里通义大模型、腾讯混元大模型、华为盘古大模型(1)百度文心大模型百度率先在2019年3月发布预训练模型ERNIE1.0,持续投入大模型的技术创新与产业应用,布局了NLP、CV、跨模态等大模型,率先提出行业大模型,构建大模型工具与平台,探索产品与社区,在企业端和用户端均有不同程度的突破。(2)阿里通义大模型2022年9月2日,阿里巴巴资深副总裁、达摩院副院长周靖人发布阿里巴巴最新「通义」大模型系列,其打造了国内首个AI统一底座,并构建了通用与专业模型协同的层次化人工智能体系,将为AI从感知智能迈向知识驱动的认知智能提供先进基础设施。(3)腾讯混元大模型2022年4月,腾讯对外正式宣布,腾讯“混元”AI大模型在MSR-VTT,MSVD,LSMDC,DiDeMo和ActivityNet五大跨模态视频检索数据集榜单中先后取得第一名的成绩,实现了该领域的大满贯。(4)华为盘古大模型华为云盘古大模型于2021年4月正式发布,到2022年聚焦行业应用落地,已经发展出包括基础大模型(L0)、行业大模型(L1)、行业细分场景模型(L2)三大阶段的成熟体系。
附大语言模型相关概念股百度大模型相关受益标的:汉得信息、东软集团、宇信科技、致远互联、软通动力、银之杰、风语筑、掌阅科技、蓝色光标等。阿里大模型相关受益标的:恒生电子、千方科技、石基信息、众信旅游、卫宁健康、金桥信息等。腾讯大模型相关受益标的:博思软件、世纪华通、掌趣科技、常山北明、四维图新、泛微网络、长亮科技等。华为大模型相关受益标的:拓维信息、特发信息、润和软件、神州数码、宝兰德、创意信息、科蓝软件、软通动力、赛意信息等。
相关推荐虚拟数字人概念股有哪些?虚拟数字人概念股一览2023-03-31
华为盘古大模型概念股有哪些?华为盘古龙头股票一览2023-03-26
2023人工智能龙头股排名前十(十大人工智能上市公司)2023-03-26
国内大语言模型有哪些?附大语言模型相关概念股2023-03-26
CPO光电共封装龙头股票有哪些?CPO光电共封装龙头股一览2023-03-27
人工智能芯片龙头股有哪些?ai芯片龙头股一览表2023-03-28
中文语料概念股有哪些?中文语料概念股一览表2023-03-27
游戏概念股票有哪些?游戏龙头股排名前十2023-03-31
人工智能算力龙头股有哪些?核心算力龙头股排名2023-03-27
海南封关利好哪些股票?海南封关概念股一览2023-03-31
本文来自投稿,不代表林哥理财立场,本站咨询仅来源于互联网,不保证该信息(包括但不限于文字、数据及图表)全部或者部分内容的准确性、真实性、完整性、有效性、及时性、原创性等,若有侵权,请第一时间告知删除。本站咨询仅供参考,并不构成操作和推荐建议。用户据此操作风险自担。网贷有风险,借款需谨慎!防诈提示:凡是在放贷之前,以交纳“手续费、保证金、解冻费”等名义要求转款刷流水、验证还款能力的,都是诈骗!免责声明:本站不承担任何由内容提供商提供的信息所引起的争议和法律责任!如若转载,请注明出处:https://www.lmaolink.cn/licai/868bcff172e3c2f81a829fc282d7466b.html
0扫码分享到微信赞(0)打赏微信扫一扫aigc和ai的区别有哪些?aigc和ai是什么?«苹果mr概念股有哪些股票?盘点7家苹果mr概念股龙头股»人工智能军备竞赛白热化:谷歌最新AI大语言模型数据量扩充5倍
安装新浪财经客户端第一时间接收最全面的市场资讯→【下载地址】
新浪科技讯北京时间5月17日早间消息,据报道,谷歌上周发布的最新大语言模型使用的训练数据,几乎是2022年的上一代模型的5倍。得益于此,该模型在编程、数学和创意写作方面的表现更为优秀。
谷歌是在其I/O开发者大会上发布最新通用大语言模型PaLM2的。内部文件显示,该模型采用了3.6万亿个令牌(token)进行训练。令牌指的是单词串,这是训练大语言模型的重要基础,因为这可以教给模型如何预测字符串中可能出现的下一个单词。
之前版本的PaLM发布于2022年,当时使用的令牌为7800亿个。
虽然谷歌很希望展示其人工智能技术的实力,以及嵌入搜索、电子邮件、字处理和电子表格后的效果,但该公司却不愿发布其训练数据的规模和其他细节。微软支持的OpenAI也对其最新的GPT-4大语言模型的细节信息保密。
这些公司表示,之所以不披露这些信息,是出于商业竞争考虑。谷歌和OpenAI都在努力吸引想要用聊天机器人代替传统搜索引擎,从而直接获取答案的用户。
但随着人工智能军备竞赛日趋白热化,相关研究人员也呼吁企业加大透明度。
自从发布PaLM2之后,谷歌一直表示新的模型比之前的大语言模型更小,这就意味着该公司的技术效率得以提升,但却可以完成更加复杂的任务。内部文件显示,PaLM2基于3400亿个参数训练——这项指标可以说明该模型的复杂程度。最初的PaLM则基于5400亿个参数训练。
目前,谷歌尚未对此置评。
谷歌在一篇关于PaLM2的博文中表示,该模型使用了一种名为“计算机优化扩张”的新技术。这就让大语言“更高效、整体性能更好,包括加快推理速度、减少参数调用和降低服务成本。”
在宣布PaLM2时,谷歌证实了此前的媒体报道,计该模型针对100种语言进行训练,可以执行更广泛的任务。它已经被用于25项功能和产品,包括该公司的实验性聊天机器人Bard。按照从小到大的规模划分,该模型共有4种,分别是壁虎(Gecko)、水獭(Otter)、野牛(Bison)和独角兽(Unicorn)。
根据公开披露的信息,PaLM2比现有的任何模型都更加强大。Facebook在2月份宣布的的LLaMA大语言模型采用1.4万亿个令牌。OpenAI上一次披露GPT-3的训练规模时表示,它当时基于3000亿个令牌。OpenAI今年3月发布GPT-4时表示,它在许多专业测试中展示出“与人类媲美的表现”。
LaMDA是谷歌两年前推出的一个对话型大语言模型,在今年2月还与Bard一同对外宣传。该模型基于1.5万亿个令牌训练。
随着新的人工智能应用快速进入主流,围绕底层技术的争议也越来越激烈。
谷歌高级研究科学家艾尔·迈赫迪·艾尔·麦哈麦迪(ElMahdiElMhamdi)于今年2月辞职,主要原因就是人工智能技术缺乏透明度。本周二,OpenAICEO山姆·阿尔特曼(SamAltman)出席美国国会针对隐私和技术举行的听证会,他也认为需要设立一套新的制度来应对人工智能的潜在问题。
“对于一种全新的技术,我们需要一套全新的框架。”阿尔特曼说,“当然,像我们这样的公司应当为我们推出的工具承担许多责任。”
炒股开户享福利,送投顾服务60天体验权,一对一指导服务!海量资讯、精准解读,尽在新浪财经APP责任编辑:郑卓
谷歌人工智能VIP课程推荐加载中...新浪直播百位牛人在线解读股市热点,带你挖掘板块龙头收起@@title@@@@status_text@@@@program_title@@APP专享直播上一页下一页1/10热门推荐收起新浪财经公众号24小时滚动播报最新的财经资讯和视频,更多粉丝福利扫描二维码关注(sinafinance)
相关新闻加载中点击加载更多