博舍

人工智能工程师的崛起 如何看待人工智能带来的失业问题论文

人工智能工程师的崛起

感谢您在HN和Twitter上的许多评论和问题!我们召集了一个快速的Twitter空间来讨论它,>1000名AI工程师收看了它。在这里播放!

我们正在观察应用人工智能的一代人“右移”,这得益于基础模型的新兴功能和开源/API可用性。

过去需要5年和一个研究团队才能在2013年完成的各种AI任务,现在只需要API文档和2023年的空闲下午。

正如我们在空间聊天中所讨论的,API行是可渗透的-AI工程师可以向左调整/托管模型,研究工程师也可以向右在API上构建!但他们的相对优势和“大本营”是明确的

然而,魔鬼在细节中-成功评估、应用和产品化人工智能的挑战无穷无尽:

模型:从评估最大的GPT-4和Claude模型,到最小的开源Huggingface,LLaMA和其他模型工具:从最流行的链式链式、检索和矢量搜索工具(如LangChain、LlamaIndex和Pinecone)到新兴的自主代理领域(此处是LilianWeng的必读回顾)新闻:最重要的是,每天发表的论文、模型和技术的数量随着兴趣和资金的增加呈指数级增长,以至于掌握这一切几乎是一项全职工作。

我认真地和字面地对待这一点。我认为这是一份全职工作。我认为软件工程将催生一个新的子学科,专门研究人工智能的应用并有效地利用新兴的堆栈,就像“站点可靠性工程师”、“DevOps工程师”、“数据工程师”和“分析工程师”一样。

我所知道的每家创业公司都有某种#discuss-ai松弛频道。这些频道将从非正式小组转变为正式团队,就像Amplitude,Replit和Concept所做的那样。成千上万的软件工程师致力于生产AIAPI和OSS模型,无论是在公司时间还是在晚上和周末,在公司Slack或独立Discords中,都将专业化并汇聚在一个头衔上-人工智能工程师。这可能是十年来需求最高的工程工作。

人工智能工程师随处可见,从像Microsoft和谷歌这样的大公司,到像Figma(通过Diagram收购),Vercel(例如HassanElMghari的病毒式RoomGPT)和Concept(例如IvanZhao和SimonLastwithNotionAI)这样的独立黑客,如SimonWillison,PieterLevels(Photo/InteriorAI)和RileyGoodside(现在在ScaleAI)。他们在Anthropic做快速工程赚了30万美元/年,在OpenAI做90万美元的建筑软件。他们正在度过免费的周末,在AGIHouse上研究想法,并在/r/LocalLLaMA上分享技巧。

.他们之间的共同点是,他们正在利用人工智能的进步,并将其塑造成数百万人使用的真实产品,几乎在一夜之间。

看不到一个博士。在运送人工智能产品时,您需要工程师,而不是研究人员。

我呼吁人们注意这一趋势,而不是开始这一趋势。在Indeed上,ML工程师的工作数量是AI工程师工作的10倍,但“AI”的更高增长率使我预测这一比例将在5年内反转。

每个HN招聘人员的每月工作趋势

所有职位都有缺陷,但有些是有用的。我们对关于AI和ML之间差异的无休止的语义辩论既警惕又厌倦,并且很清楚常规的“软件工程师”角色完全有能力构建AI软件。然而,最近关于如何进入AI工程的AskHN问题说明了市场上仍然存在的基本看法:

大多数人仍然认为AI工程是机器学习或数据工程的一种形式,因此他们推荐相同的先决条件。但我向你保证,我上面提到的高效AI工程师都没有做过AndrewNgCoursera课程的同等工作,他们也不了解PyTorch,也不知道数据湖或数据仓库之间的区别。

在不久的将来,没有人会建议通过阅读《注意力就是你所需要的一切》来开始人工智能工程,就像你不会通过阅读福特T型车的原理图来开始驾驶一样。当然,了解基础知识和历史总是有帮助的,并且确实可以帮助您找到尚未达成共识的想法和效率/能力增益。但有时你可以只是使用产品并通过经验来了解它们的品质。

我不希望这种课程的“翻转”在一夜之间发生。想要填写简历,填写市场地图,并通过引用更深入的话题来脱颖而出是人类的天性。换句话说,PromptEngineering和AI工程会在很长一段时间内感觉不如具有良好数据科学/ML背景的人。然而,我认为纯粹的需求和供应经济学将占上风。

基础模型是“少数镜头学习者”,表现出上下文学习甚至零镜头转移能力,超出了模型训练师的初衷。换句话说,创建模型的人并不完全知道他们的能力。不是LLM研究人员的人可以通过花更多的时间在模型上来发现和利用能力,并将其应用于被研究低估的领域(例如,带有文案的Jasper)。

Microsoft,谷歌,Meta和大型基础模型实验室已经垄断了稀缺的研究人才,基本上提供了“人工智能研究即服务”API。你不能雇用他们,但你可以租用他们——如果你在另一端有知道如何与他们合作的软件工程师。世界上有5000名LLM研究人员,但50m软件工程师。供应限制决定了“介于两者之间”的人工智能工程师阶层将崛起以满足需求。

显卡囤积.当然OpenAI/Microsoft是第一个,但StabilityAI通过强调他们的GPU军备竞赛拉开了启动GPU军备竞赛的序幕。

4,000个GPU群集。

还记得2022年10月吗?

从那时起,像Inflection(1.3b美元),Mistral(1.13亿美元),Reka(5800万美元),Poolside(2600万美元)和Concontext(2000万美元)这样的新创业公司为了拥有自己的硬件而筹集巨额种子轮融资已经变得司空见惯。丹·格罗斯和纳特·弗里德曼

甚至宣布了仙女座,他们的1亿美元,10exaflopGPU集群专门用于他们投资的初创公司。全球芯片短缺正在反射性地造成更多的短缺。API生产线另一端的AI工程师将有更多的能力使用模型,而不是训练它们。

开火,准备,瞄准。产品经理/软件工程师不需要要求数据科学家/ML工程师在训练单个领域特定模型然后投入生产之前进行费力的数据收集练习,而是可以提示LLM,并在获得特定数据进行微调之前构建/验证产品创意。

假设后者比前者多100-1000倍,提示LLM原型的“开火、准备、瞄准”工作流程可让您比传统ML快10-100倍。因此,人工智能工程师将能够验证人工智能产品,比如便宜1000-10000倍。这是瀑布与敏捷,又是一遍。人工智能是敏捷的。

Python→JavaScript.数据/人工智能传统上非常以Python为中心,而像LangChain,LlamaIndex和Guardrails这样的第一个AI工程工具就来自同一个社区。然而,JavaScript开发人员至少和Python开发人员一样多,所以现在工具越来越多地迎合这个广泛扩展的受众,从LangChain.js和Transformers.js到Vercel的新AISDK。TAM的扩张和机会是戏剧性的。

生成式人工智能与分类器机器学习.“生成式人工智能”

作为一个术语已经失宠,让位于其他类比,如“推理引擎”,但仍然有助于简洁地阐明现有MLOps工具和ML从业者组之间的差异,以及不断上升的、截然不同的角色,最好使用LLM和文本到图像生成器。现有一代的ML可能专注于欺诈风险、推荐系统、异常检测和特征存储,而AI工程师正在构建写作应用程序、个性化学习工具、自然语言电子表格和类似异星工厂的可视化编程语言。

每当出现一个具有完全不同的背景、说不同语言、生产一组完全不同的产品并使用一组完全不同的工具的子组时,他们最终就会分裂成自己的组。

6年前,AndrejKarpathy写了一篇非常有影响力的文章,描述了软件2.0-对比了手工编码编程语言的“经典堆栈”,这些语言精确地对逻辑建模与近似逻辑的新“机器学习”神经网络堆栈,使软件能够解决比人类建模更多的问题。他今年接着指出,最热门的新编程语言是英语,最终填补了他图表中未标记的灰色区域。

更新:卡帕西回应!有些分歧!

去年,PromptEngineering是关于随着人们开始将GPT-3和稳定扩散投入工作时工作将如何变化的模因。人们嘲笑AI初创公司是“OpenAI包装器”,并担心LLM应用程序被证明容易受到提示注入和反向提示工程的影响。找不到护城河?

但2023年最大的主题之一是重新建立人类编写代码的角色,以编排和取代LLM的力量,从价值2亿美元的庞然大物Langchain>到Nvidia支持的Voyager,展示了代码生成和重用的明确重要性(我最近参加了Harrison的链与代理网络研讨会)。PromptEngineering既被夸大了,又将继续存在,但软件1.0范式在软件3.0应用中的重新出现既是一个充满大量机会/混乱的领域,又为一堆初创公司创造了空白:

如果你不营销地图,你甚至是一个VC吗?

当然,这不仅仅是人类编写的代码。我最近与smol-developer,更大范围的gpt-engineer以及其他代码生成代理(如CodiumAI,Codegen.ai和Morph/Rift)的冒险将越来越多地成为AI工程师工具包的一部分。随着人类工程师学会驾驭人工智能,人工智能也将越来越多地从事工程工作,直到遥远的未来有一天我们抬头看,再也无法分辨出其中的区别。

建筑商需要一个谈论松节油的地方。这就是为什么,经过几个月的小型聚会,我们现在宣布第一个独立运行的、面向构建者的AI会议:AI工程师峰会!

版权声明:本文内容由互联网用户自发贡献,该文观点仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌抄袭侵权/违法违规的内容,一经查实,本站将立刻删除。

上一篇

下一篇