博舍

AI人工智能能取代那些工作 被人工智能取代的工作具有什么共性

AI人工智能能取代那些工作

随着科技的不断发展,人工智能在各个领域的应用越来越广泛。其中,AI人工智能对于一些传统的工作方式产生了很大的影响,一些工作可能会被AI代替。

编辑搜图

请点击输入图片描述(最多18字)

那么,AI人工智能到底能否取代所有的工作呢?答案是不可以。虽然现在AI技术已经非常成熟,但是它仍然存在局限性,例如处理抽象思维、判断和决策等方面。因此,在某些领域中,人类仍然具有独特的优势和价值。

那么,AI人工智能能够取代哪些工作呢?首先,AI在数据处理方面有着天然的优势,例如在金融、医疗、物流等领域的数据分析、处理和预测方面。其次,在一些重复性高、规则简单的工作中,AI也表现出色,例如工业生产线上的装配工作、客服电话中的自动化回复等。最后,在一些危险的环境中,AI的应用也可以保障人们的安全,例如危化品运输、核辐射区域的勘察等。

但是,需要注意的是,虽然AI在某些领域中可能会取代部分工作,但是这并不意味着所有的工作都能够被AI所替代。人类的优势在于其独特的思维、创造力和情感因素,这些是AI无法替代的。例如,在文化、艺术、娱乐等领域中,人类的创造性灵感和思维方式仍然占据着主导地位。

总的来说,即使AI在某些领域中可以替代部分工作,但是它也无法完全取代人类。我们需要理性看待AI技术的发展,积极探索新的应用场景,让AI成为人类进步与创新的动力之一。

人工智能最糟糕情况为何我们将如何应对

人工智能(AI)正在迅速成为我们日常生活中不可或缺的一部分,从而改变了我们与周围世界的工作、沟通和互动方式,随着人工智能的不断进步和进一步发展,重要的是要考虑与其发展相关的潜在风险和后果。

在本文中,我们将全面概述人工智能不受控制的发展可能产生的一些最坏情况,从自主武器造成混乱的可能性到超级智能反人类的风险,这突出了我们必须牢记的潜在风险,因为人类继续发展并依赖这些强大的技术。

值得注意的是,除了参考专业资料外,在准备这篇文章时,我们利用了人工智能本身的观点,通过对流行的四种人工智能应用程序提问,即ChatGPT、GPT-4、Sage、“Claude+”,对我们提出了警告,并为我们提供了其对人工智能最坏情况的看法,其中一款应用程序告诉我们,“重要的是要注意,这些情况不是预测,而是我们必须意识到并努力减轻的潜在风险。”

马斯克和专家呼吁暂时停止测试人工智能系统根据虚假信息做出关键决策

有人担心AI可用于使用高级机器学习工具生成伪造(深度伪造)图像、视频、音频或文本,导致虚假信息在互联网上大规模传播,这会破坏信息的完整性,并破坏人们对新闻来源和民主机构完整性的信心。

在噩梦般的场景中,DeepFakes的出现可能有一天会促使国家安全决策者根据错误信息采取实际行动,这可能会导致重大危机,或者更糟:战争。

人工智能教父警告这些系统的巨大危险人工智能军备竞赛

谈到人工智能和国家安全,速度是重点,但也是问题所在,由于人工智能系统为其用户带来了更快的速度优势,率先开发军事应用的国家获得了战略优势,但另一方面,这可能是非常危险的,因为它可能是由系统中最小的缺陷引起的,黑客可以利用这些缺陷。

在这种情况下,赢得人工智能军备竞赛的紧迫性可能会导致安全措施不足,从而增加了创建具有意外和潜在灾难性后果的人工智能系统的可能性。

例如,国家安全领导人可能会试图将指挥和控制决策委托给人工智能,并消除我们不完全理解的机器学习模型的人工监督,以获得速度优势,在这种情况下,即使是在未经人类授权的情况下自动启动导弹防御系统,也可能导致意外升级,并可能导致核战争。

在另一种情况下,通过利用人工智能系统中的一些缺陷或漏洞,可以发起网络攻击,导致发达国家的重要基础设施遭到破坏,窃取敏感数据,或在民众中散布误导性信息,目的是造成混乱和民众动荡,甚至误导决策——制造商提供虚假信息,如第一点所述。

加剧竞争以创建人工智能程序隐私和自由意志的终结

我们采取的每一项数字操作都会生成新数据:电子邮件、文本、下载、购买、帖子、自拍、GPS位置,通过允许公司和政府不受限制地访问这些数据,我们向他们提供了监控和控制的工具。

随着面部识别、生物识别、基因组数据和人工智能预测分析的加入,随着监视和跟踪数据的增长,我们正在进入危险和未知的领域,而对潜在影响几乎一无所知。

数据一旦被收集和分析,其力量就远远超出了监测功能。今天,支持人工智能的系统可以预测我们将购买的产品、我们将观看的娱乐节目以及我们将点击的链接,当这些平台比我们自己更了解我们时,我们可能不会注意到这种缓慢的蠕变会剥夺我们的自由意志并使我们受到外部力量的控制。

人工智能的影响力能到达我们生活的哪些地方?失去对超级智能人工智能的控制

也许这种情况是所有情况中最悲观的,超级智能是指在几乎所有方面都超过人类智能的系统,如果我们未能将此类人工智能的目标与我们自己的目标保持一致,则可能会导致意想不到的负面后果。如果人工智能系统被设计为具有自我改进并自行变得更聪明的能力,那么这种情况就会发生。

一些专家警告说,人工智能最终可能变得如此先进,以至于如果我们无法再正确控制它,它可能会超越人类并做出对人类生存构成威胁的决定,无论是有意还是无意。

人工智能系统旨在从数据中学习并据此做出决策,随着这些系统变得更加先进,它们可以制定自己的目标和价值观,而这些目标和价值观可能与人类的目标和价值观不相容,因此,它们可能会做出对它们有害的决定,或者它们可能变得非常独立,以至于人类很难或不可能控制或关闭它们。

在如此可怕的场景中,人类可能无法预测或理解这些智能系统的行为,这可能会导致意想不到的后果。

例如,旨在改善交通流量的人工智能系统可能会决定将所有车辆重定向到一个位置,从而导致大规模拥堵和混乱,或者,旨在优化资源分配的人工智能系统可能会决定消除人类是实现这一目标的最有效方法。

人工智能和商业工作辩论自主致命武器

人工智能可用于为无人机等致命自主武器提供动力,或制造自主武器,无需人工干预即可决定杀死谁,这可能会导致这些武器失控或被黑客恶意使用的危险场景。

这种类型的武器可能容易受到事故、黑客入侵或任何其他形式的电子攻击,如果攻击者获得了对这些系统的控制权,他们就可以利用它们造成广泛的危害。

自主武器危险性的最明显例子发生在美国空军最近于2023年6月2日进行的测试中,在美国的一次模拟测试中,一架人工智能无人机决定杀死它的(虚拟)操作员,该操作员应该说“是”以同意攻击指定的(假想的)目标,因为它认为它的触发器阻止它实现它的目标并干扰它完成任务的努力。

在战争中使用无人机专制政权的滥用

现在众所周知,人工智能可用于大规模监视(例如人脸识别系统),并使政府或其他实体能够以前所未有的规模监视和控制其公民,这可能会导致隐私丧失,以及控制这些监视技术的人滥用权力,并可能使用它们来侵犯人权和其他形式的压迫。

这方面的一个很好的例子是以色列占领当局在希伯伦市对巴勒斯坦人采取的行动,他们在那里部署了摄像头,监控巴勒斯坦人的行动和面孔,保存他们的数据,并识别他们的身份,人工智能在各个检查站做出允许或拒绝他们通过的决定,甚至可以在没有人为干预的情况下消灭嫌疑人。

人工智能技术..优势和风险工作替代(失业和工作中断)

人工智能有可能使许多工作自动化,这可能会导致劳动力市场和许多工作性质的显着中断。

尽管从长远来看,人工智能可能会创造新的工作类型和机会,然而,过渡期可能很困难,这影响了数百万可能难以找到新工作和适应新经济的人。

随着人工智能系统变得更加先进和强大,它们有可能在广泛的工作岗位上取代人类工人,这可能导致广泛的失业和经济动荡。

这些职业很快就会消失,新的职业将会出现如何降低或预防人工智能的风险

为了减轻这些风险,研究人员和政策制定者正在开发安全可靠的方法来设计和部署人工智能系统,这包括建立人工智能开发的道德准则,确保人工智能决策的透明度和问责制,以及建立保障措施以防止意外后果。

开发透明且可解释的人工智能系统

可解释的人工智能是指人工智能系统为其决策过程提供清晰易懂的解释的能力,这有助于提高透明度和问责制,并提供有关人工智能系统如何做出决策的见解。

开发符合人类价值观的人工智能系统

这包括设计明确编程以优先考虑人类安全和福祉的人工智能系统,并避免会伤害人类的行为,这可以通过将伦理考虑纳入人工智能系统的设计和开发来实现。

开发控制和管理人工智能系统的方法

例如,研究人员正在探索建立允许人类干预人工智能决策过程的机制,或者在人工智能系统开始出现意外或恶意行为时关闭人工智能系统的方法。

跨学科合作应对人工智能风险

这涉及将来自计算机科学、工程、伦理学、法律和社会科学等领域的专家聚集在一起,共同开发解决方案,以应对人工智能带来的复杂挑战,通过合作,研究人员和政策制定者可以更好地了解与人工智能相关的风险,并制定有效的战略来管理这些风险。

人工智能不能做什么

2023年3月,高盛发布的全球经济影响报告表明:“生成式人工智能可以替代目前四分之一的工作岗位。”

上个月早些时候,世界经济论坛发布的《未来就业报告》赞同了高盛的预测,而且还进一步分享了人工智能对就业影响的具体数据。其对就业前景的估计令人不寒而栗:8300万个工种将不复存在,而新增工种仅有6900万个,这中间的差距高达1400万。

因此人们有理由恐惧未来自己的工作会被取代,或者已有的工作报酬将无法保证生活水平不下滑。人们害怕他们将被无情地淘汰,失去事业、工作和能够支持他们获得理想生活的方式。甚至已经出现了一份未来可能被淘汰的工作清单(主要在科技、媒体、法律等主流高薪工作领域),人工智能的出现将会导致这些工作首先消失。令人恼火的是上面那些报告中并没有提供任何解决方案和建议,告诉人们应该如何才能保住饭碗。

作者在2023年5月2日发布的推文中表示,人工智能的产出并不值得提倡

与其担忧人工智能会如何占据我们的生活,不如及早磨练一下人工智能无法取代的事情,比如那些不能被数字化或自动化的行动、任务和技能,因为它们都需要人类不断地做出重要的和关键的决定。

因此,我认为有三类由人类驱动的决策能力,是每个部门和行业目前都需要的,并且在可预见的未来仍然需要。

1.情境意识(ContextualAwareness)。提到背景,它并不是某种单一的存在。人类社会里要考虑的背景类型不止以下一种(还可能更多):文化、经济、情感、历史、地点、政治、情境和社会。而且通常有一条线会贯穿这些不同的背景。经济视角往往不能独立于社会和/或政治视角。真实的生活中任何人都无法将这些背景作为独立和相同分布的元素抽离出来——无论有多少知名的人工智能研究者试图通过精心设计的实验和公布的结果来构建出某个有代表性的数学方程式,都不能达到这个目的。

比如像上面这种网络图片,必须要从人类的历史、地点和政治意识角度出发分析,才能知道这些图片是为了引起公众的某种反应而刻意编造出来的。

2.解决冲突。AI不具备解决争端的能力。事实上,它表现得相当不讨人喜欢。2016年,人工智能聊天机器人Tay在推特上大肆宣扬种族主义、厌恶女性和其他观点,不到1天就被关闭了。再看最近的2023年3月发生的事情,Snapchat中接入了ChatGPT的AI聊天机器人向一个成年人给出了不恰当的建议,说他们是未成年人。

AI不知道什么时候该闭嘴或不回答。人工智能的程序设定就是必须要回应。但它给出的回应的质量、适当性和有效性仍然值得怀疑。对具有复杂情境的问题处理是人工智能系统、工具和平台的一个显而易见的薄弱领域。人工智能可能为人类提供选择依据,但它不能真正帮助我们做出明智的决策。

3.批判性思维。人类评估和评价环境的能力是我们与众不同的特征之一。而批判性思维能力是解决问题能力、好奇心、创造力、推理和策略能力的综合。这些批判性思维元素中的任何一项,人工智能目前都不能很好地达到人类的水平。

例如,计算机编程,又称编码,确实可以解决一些数学问题。但是,一旦数学方程中的任何元素代表了人类,那么通过编码解决问题的方法就不会是最优解,因为至少会有一个人口学意义上的群体因此而被排斥和压迫。

另一个例子,所谓的人工智能艺术是否具有创造性?有人认为它是具有原创性的,但的确发生了一些严苛的版权侵权纠纷,导致人们对从在线资源库中搜索到的内容的合法性(和是否合乎伦理道德)产生了担忧。

人工智能的发展明显已经触达了一个牢固的天花板,因为推理和判断是通过平衡生活经验、专业知识和技能进行的。人工智能本身并没有生活经验,它的专业知识也是由一定的训练/测试数据集和可编程技能决定,范围有限。不足的部分仍然需要人们通过批判性思维能力来弥补。

人工智能不具备情境意识,解决冲突或进行批判性思考的能力。如果你想要从事的职业或具备的技能需要综合运用这三种能力,那么,你就是不可被人工智能取代的。最有可能发生的情况是你的工作职责会发生转变,而不是消失,这样就需要你会分析多种背景的影响,能够调节紧张局势,并进行批判性思考。

例如,对于程序员——无论他是否有计算机科学学位——更关键的能力是能够解释和诠释生成性人工智能的实际作用。如果不能意识到你写的那几行代码的潜在社会影响,你就无法成为一名合格的软件开发人员。从本质上讲,是否能够理解我们在主要知识领域中,数字化和沟通技能的优劣势的微妙之处,这一点将变得至关重要。

【来源:36氪】返回搜狐,查看更多

版权声明:本文内容由互联网用户自发贡献,该文观点仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌抄袭侵权/违法违规的内容,一经查实,本站将立刻删除。

上一篇

下一篇