人工智能轨道交通行业周刊
本期关键词:设备智能维修、故障诊断、无人机巡查、车站联锁、LangChain、腾讯大模型
1整理涉及公众号名单1.1行业类RT轨道交通人民铁道世界轨道交通资讯网铁路信号技术交流北京铁路轨道交通网上榜铁路视点ITSWorld轨道交通联盟VSTR铁路与城市轨道交通RailMetro轨道世界铁路那些事铁路技术创新智慧交通RTAI智慧城轨网轨道交通智能装备NE轨道交通铁路供电上海铁道兰州铁路中国地方铁路协会铁路社评轨道部落现代轨道交通1435工厂城市地铁1.2人工智能类江大白糙科技新智元AI科技评论智东西量子位我爱计算机视觉极视平台人工智能学家AI前线当交通遇上机器学习计算机视觉life新机器视觉雷锋网人工智能产业发展联盟AIIA自动驾驶之心笔记侠夕小瑶科技说水木人工智能学堂2数字轨道(1)基于数字孪生技术的设备智能维修系统研究与实现
导读:为解决企业管理过程中设备维修维护的成本管控和效率低下等问题,本文通过对运营生产设备进行研究与分析,从设备状态实时检测、设备状态在线评估以及设备维修履历等多维度,结合两化融合与数字孪生技术,对设备的可靠性进行综合判断。实践证明,基于数字孪生技术的设备智能维修系统(CIMS),与生产系统、物资及资产系统的数据共享及联动,实现了设备维修全生命周期的智能化和可视化,为设备检修规程的科学化制定和地铁运营高质量保障提供了决策依据,同时也为企业经营的精细化管理和成本化管控提供了重要支撑。
(2)2023年第6期“信号控制”专栏——《基于知识图谱的CTC系统故障诊断方法研究》
导读:针对调度集中系统故障诊断效率低的问题,结合系统故障日志文本,提出一种基于知识图谱的故障诊断方法。通过预处理提取文本中的结构化元素,基于语义角色标注方法提取故障实体;构建实体关系模板,并依据模式匹配挖掘实体间联系;采用依存句法特征相似度进行实体融合,并通过Neo4j图数据库构建知识图谱,实现调度集中系统故障诊断。以某铁路局2014—2020年的CTC系统故障日志为例,累计抽取故障实体1117个、实体关系1605条,构建知识图谱进行可视化展示,实现调度集中系统故障成因溯源和致因推荐,为现场维修人员提供辅助决策。
(3)天上也有“巡查眼”!上海地铁15号线试点无人机保护区巡查模式
导读:近日,上海地铁维保工务分公司监护监测部实现对15号线沿线地铁保护区用无人机巡查,利用深度学习和DSM差分等多项技术手段,对发现类事件如打桩、基坑施工、挖掘、钻探,标高变化类事件如建筑物建造或拆除、堆土材料等堆载变化、河道改造等事件进行快速识别、全面检测,推动疑似保护区事件数据的自动分析,进而实现“动态感知、精准预警、实时推送、问题回溯”的业务流程,实现监测板块的数字化与智能化。
3轨道知识(1)每天都和钢轨打交道,你知道它们的“老家”是哪里吗?
导读:钢轨是铁路轨道的主要组成部件。它的功用在于引导机车车辆的车轮前进,承受车轮的巨大压力,并传递到轨枕上。钢轨必须为车轮提供连续、平顺和阻力最小的滚动表面。担任这么重要工作的钢轨,每根都从哪个厂家生产的呢?来看看答案吧。
(2)铁路供电段和电务段有什么区别
导读:铁路上有“机车工电辆”五大系统,这其中“电”包含供电段+电务段,有人分不清他们的区别,今天,小编带大家一起去看看他们有什么不同之处。
(3)铁路人常说的“车站联锁”是什么意思
导读:在铁路工作的朋友时常听到别人说车站联锁这个词,我们都知道它是保证我们列车和机车车辆在车站范围内运行安全的重要基石,但车站联锁到底是咋回事呢?今天我们就来了解一下车站联锁知识。
(4)火车迷|这里的火车横着走
导读:当火车运行一段时间,需要去火车“4S店”——检修库进行全面“体检”,但检修库没有接触网,火车怎么进去呢?在兰州西机务段的机车检修库,不仅能看到火车怎么进入库里,而且还发现这里的火车居然横着走,具体情况,快去看看吧!
4AI产业(1)LangChain:2023年最潮大语言模型应用开发框架
导读:LangChain是一个帮助在应用程序中使用大型语言模型(LLM)的编程框架。那么,对于开发者来说,他们需要了解有关LangChain的哪些方面以及如何使用LLM?在本文中,我们将通过分析LangChain作者HarrisonChase最近的两次演讲来回答这个问题。
(2)现场直播怼脸!腾讯云行业大模型炸场,超炫AI能力全能输出
导读:现在国内很多家大模型,都在往产业领域和具体的业务场景上走。 不止腾讯云,回看国内各大厂,包括阿里云、百度云、京东云在内都在加速大模型在各行各业的应用。可以看到,行业大模型大概率已经成为了产业共识。因为聚焦到具体应用场景中,行业大模型更符合垂类场景的需求。
(3)650亿参数,8块GPU就能微调:邱锡鹏团队把大模型门槛打下来了
导读:大型语言模型(LLM)彻底改变了自然语言处理(NLP)领域,展示了涌现、顿悟等非凡能力。然而,若想构建出具备一定通用能力的模型,就需要数十亿参数,这大幅提高了NLP研究的门槛。在LLM模型调优过程中通常又需要昂贵的GPU资源,例如8×80GB的GPU设备,这使得小型实验室和公司很难参与这一领域的研究。最近,人们正在研究参数高效的微调技术(PEFT),例如LoRA和Prefix-tuning,为利用有限资源对LLM进行调优提供了解决方案。然而,这些方法并没有为全参数微调提供实用的解决方案,而全参数微调已被公认为是比参数高效微调更强大的方法。