博舍

人工智能逐渐妙用,但人工智能也面临挑战! 人工智能面临的挑战与对策

人工智能逐渐妙用,但人工智能也面临挑战!

人工智能在现代生活中已经逐渐开始发挥作用,就目前而言,人工智能已经能够辅助代码开发。为增进大家对人工智能的认识,本文将对人工智能以及人工智能面临的挑战予以介绍。如果你的人工智能、AI具有兴趣,不妨继续往下阅读哦。

一、人工智能

人工智能是一种模拟人类思维的技术,它包括了机器学习、自然语言处理、专家系统等多种技术手段,通过这些手段来模拟人类的认知、学习和推理能力。通俗来讲:人工智能就是一种模仿人类能力的技术手段,比如我们常见的智能音箱,你说出一句话它能跟你回答,这其实就是人工智能的语音识别技术。人工智能可以实现自主决策、自主学习、自主优化和自主创新,能够帮助人类解决众多的实际问题,如图像识别、语音识别、自动驾驶、机器翻译等等,这些功能是我们生活中最常用的,可又是大多数人忽视的。

人工智能被大部分人熟知的原因可能是因为ChatGPT的火热,很多人被ChatGPT强大的功能所震撼,它不仅能写论文、像教授一样回答你的问题,甚至还能写代码。但其实ChaGPT只是人工智能的明星产品,并不能完全代表人工智能的所有技术种类。它应用的是人工智能的自然语音处理技术,是让计算机能够理解、解析、生成和操作自然语音的技术。

应用人工智能技术的行业还有非常多,包括但不限于交通(车辆查找违章监控)、互联网(语音识别、拍照识别)、医疗(CT扫描)、制造业(自动化)、物流(无人送货)、农业(自动采摘)、汽车(智能驾驶)人工智能能做的事越来越多了,在ChatGPT引爆人工智能热点以后,现在又出现了具身智能,也就是人形机器人,似乎人工智能超越或取代人类的脚步越来越近了,以至于有论点认为人工智能会取代很多人的工作岗位,这并不是危言耸听。

二、人工智能挑战

在产业落地过程中,人工智能技术与企业需求之间的鸿沟不容忽视。企业用户的核心目标是利用人工智能技术实现业务增长,而人工智能技术本身无法直接解决业务需求,需要根据具体的业务场景和目标,形成可规模化落地的产品和服务。在这个过程中,人工智能在数据、算法、业务场景理解、服务方式、投入产出比等方面都面临一系列挑战。

1.数据AI领域,数据是基础要素。与数据相关的流程主要包括:数据获取、数据治理以及数据标注。

2.算法模型可解释性所谓“可解释性”指的是向技术使用者等解释人工智能模型做出的每一个决策背后的逻辑。从传统模型到新型算法,AI的复杂性逐步递增,促使人工智能算法的决策机制越发难以被人类理解与描述。很多人将大部分基于深度学习的算法想象成是一个“黑盒子”,也就是说认为模型不具备可解释性。相比较“黑盒子”而言,可解释性的AI对于深度神经网络的透明性有所增加,有助于向用户提供判断依据等信息,增强用户对人工智能的信任与安全感,同时也为事后监管、责任归属等环节提供有力依据。

3.业务场景的理解随着人工智能的行业化发展,待解决的业务问题从通用型场景向特定型场景过渡,单点问题向业务整个流程演进,从感知化到认知化的发展,业务场景的壁垒与复杂度越来越高。在这样的背景下,仅仅依靠算法技术的积累,难以满足对场景的理解要求。所以,AI算法需要经验与业务规则的结合。这种情况下,知识图谱技术成为关键所在。

通过知识图谱,可以更好地理解业务。通过建立统一的图谱来实现知识的融合,进一步加快推进人工智能的落地。

4.服务方式对于企业业务人员的根本需求,标准化的人工智能技术输出或者API调用的服务方式是不够的。厂商需要根据具体场景,在技术基础上提供定制化的解决方案,并封装为应用到业务系统中的产品,即“AI+产品”。另外,厂商需要提供持续性的业务运行服务,才可让AI产品真正发挥价值,以保证达到最终业务效果,即“AI+服务”。

5.投入产出比对于企业来说,在业务中落地AI技术应用,至少包括两个层面的成本:(1)芯片、算法平台等智能化产品;(2)引进算法工程师等人工智能方面人才。

目前,一些数据平台、机器学习平台的涌现,提高了人工智能建模的自动化程度,同时也降低了整个业务流程对算法工程师的依赖,AI应用的总成本有待降低。此外,未来算法的进步可降低硬件标准,也可促使成本的节省。

以上便是此次带来的人工智能相关内容,通过本文,希望大家对人工智能已经具备一定的了解。如果你喜欢本文,不妨持续关注我们网站哦,将于后期带来更多精彩内容。最后,十分感谢大家的阅读,haveaniceday!

人工智能发展应用中的安全风险及应对策略

(4)应用场景的影响。谷歌公司机器人阿尔法狗战胜韩国围棋九段棋手李世石和围棋世界冠军柯洁,唤醒了世人对人工智能的高度关注。百度指数数据显示,从2015年底开始,“人工智能”热度逐渐升温,且持续到现在。2015-2016年,其媒体关注度已经暴涨6倍。

2.发展现状

目前,人工智能蓬勃发展,技术进步迅速,其应用已经渗透到我们的日常生活中,如人脸识别、刷脸支付、语音助手、无人机、服务机器人、自动驾驶和智能系统等。与互联网、大数据、物联网、云服务融合的人工智能应用给我们带来了更多的便利。专家认为,人工智能的应用将使劳动生产率提高90%;至2035年,人工智能将使年度经济增长率提高一倍。

但是,业界普遍认为真正的人工智能尚处于发展的初级阶段(认知智能发展阶段),即弱人工智能阶段,有“技能”,但远远谈不上有“智能”,还没能出现像人一样思考和行动的真正的人工智能产品,离通过“图灵测试”这一衡量人工智能技术水平的标准为时尚远。有专家认为,人工智能目前处于婴儿期,其智商大抵相当于3岁的孩子,说不好、笑不真、想不清、行不稳,这四“不”客观地描写了人工智能目前的现状。

02安全风险

1.国家安全

国家安全包括国土安全、政权安全、制度安全和意识形态安全等。2017年7月,美国智库发表题为《人工智能与国家安全》的研究报告,认为人工智能将会是国家安全领域的颠覆性力量,其影响可与核、航空航天、信息和生物技术比肩,将深刻改变军事、信息和经济领域安全态势。该报告强调人工智能通过变革军事优势、信息优势和经济优势影响国家安全。其中,军事领域引入人工智能几乎是不可阻挡的,而人工智能技术与生俱来的军民两用特性则要求决策者必须调和商业与国家安全之间的利益。而且,利用“换脸”、“换声”等人工智能技术可以制作具有欺骗性的假时事新闻。已有案例说明,利用人工智能技术在社交平台大量制作散发虚假新闻可以在政府首脑选举中影响选民的抉择。

2.社会安全

传统犯罪借助人工智能,将会衍生出新型犯罪形态、犯罪行为、手段和方法,出现无法辨识是机器人犯罪还是真实人犯罪的尴尬场景。2018年3月,美国发生了两起涉及自动驾驶的车祸。3月19日,优步(Uber)一辆自主驾驶汽车在美国亚利桑那州坦佩市发生致命车祸,一名49岁的女子晚上推着自行车穿过马路时被汽车撞死。3月23日,一名工程师驾驶特斯拉ModelX型号汽车在加州101公路和85公路交接处发生致命车祸,车祸发生时汽车启用了自动驾驶(或自动辅助驾驶)功能。这些案例说明,人工智能产品如果没有彻底解决安全可靠性问题,将会危及社会公共安全和人身安全。

3.网络安全

网络和大数据的发展推动了人工智能的进步,网络攻击智能化趋势也给网络安全保护提出更高要求。有关人工智能与网络安全关系的研究表明,一旦人工智能运用到网络攻击活动,将使得网络攻击活动更加难以预警和防范,关键信息基础设施也将会面临新的安全风险威胁。如人工智能技术运用到木马病毒制作传播,将会出现难以防御的超级病毒木马,传统应对方法将不足以制止这些恶意程序传播扩散的速度。此外,人工智能的技术研发与应用也存在一些不确定性的安全风险。

03应对人工智能安全风险的对策建议

人工智能的安全风险取决于技术发展及其安全可控的程度,短期风险可以预见,长期风险受制于现有认知能力难以预测和判断。因此,一方面,人类社会要积极推动人工智能技术研发和应用;另一方面,要为人工智能的发展应用规划一条安全边界,防止其被恶意运用、滥用,给人类社会造成不可逆转的伤害。

1.加强人工智能安全风险的研究

树立正确的安全观,科学对待人工智能安全风险。研究掌握在人工智能技术研发和应用过程中会出现哪些风险,并从法律、政策、技术和监管等方面进行有效防控管控。

2.加强人工智能立法研究和法律规范

人工智能理论、方法、技术及其应用引发社会关系、社会结构和行为方式的变化,产生不可预知的安全风险和新的法律问题。建议运用法律手段,重点防控人工智能行为主体及其行为的异化。从现有情况看,人工智能法律研究应主要聚焦在人工智能产品主体,如智能机器人的法律地位、行为的法律属性以及法律责任如何确定等方面。在立法方面应加强对人工智能技术应用可能出现的法律问题的前瞻性研究探索。

3.加强人工智能安全防控体系建设

按照趋利避害原则,处理好人工智能发展应用与安全防控的关系,既要促进人工智能发展应用,又要推动其在安全、可靠和可控的轨道上前行。要加强对人工智能安全防控体系建设的战略规划部署,围绕人工智能安全风险点,借鉴已有经验,有步骤地推进人工智能安全综合防控体系建设。

4.加强人工智能产品服务的安全监管

要及时制定人工智能安全产品和服务技术标准规范,规范和引导产品研发推广。加强对人工智能安全产品和服务的市场监管执法和相关产品上市前的安全测试。对有安全缺陷的产品和服务要依法处理,对造成危害后果的要依法追究法律责任。要积极运用人工智能技术提高安全监管能力,善于运用人工智能技术改进和加强安全监管执法,提高安全监管执法的能力和效率。

5.加强人工智能技术研发的管控

人工智能的快速发展引起了国际社会对于道德伦理问题的关注和担心,应当为人工智能技术研发划出“红线”,设置禁区,禁止研究开发危害人类生存安全的人工智能技术和产品,防止人工智能技术的滥用。美国科幻小说家阿西莫夫在1950年出版的小说《我,机器人》中提出了著名的“机器人三大法则”,第一定律:机器人不得伤害人类个体,或者目睹人类个体将遭受危险时袖手不管;第二定律:机器人必须服从人类发出的命令,当该命令与第一定律冲突时例外;第三定律:机器人在不违反第一、第二定律的情况下要尽可能保护自己的生存。2017年1月,美国著名人工智能研究机构未来生命研究院(FLI)在加利福尼亚州召开主题为“有益的人工智能(BeneficialAI)”的阿西洛马会议,法律、伦理、哲学、经济、机器人和人工智能等众多学科和领域的专家,共同达成了23条人工智能原则(“阿西洛马人工智能原则”,被称为人工智能发展的“23条军规”),呼吁全世界在发展人工智能的时候严格遵守这些原则,共同保障人类未来的利益和安全。23条规则规定,人工智能研究的目标应该建立有益的智能,而不是无向的智能。应该设计高度自主的人工智能系统,以确保其目标和行为在整个运行过程中与人类价值观相一致。对于人工智能造成的风险,尤其是那些灾难性的和存在价值性的风险,必须付出与其所造成的影响相称的努力,以用于进行规划和缓解风险。同时,人工智能军事化问题也是国际法律界关注的热点。目前,国际上限制致命性人工智能武器的呼声不绝于耳,有上百家人工智能领先企业呼吁禁止发展致命性人工智能武器。国际社会应当共同努力,加强合作,反对人工智能军事化,共同应对人工智能安全风险。返回搜狐,查看更多

版权声明:本文内容由互联网用户自发贡献,该文观点仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌抄袭侵权/违法违规的内容,一经查实,本站将立刻删除。

上一篇

下一篇