博舍

可解释的人工智能:从黑匣子到透明模型 解释名词人工智能

可解释的人工智能:从黑匣子到透明模型

0分享至

用微信扫码二维码

分享至好友和朋友圈

随着人工智能越来越多地介入我们的生活,许多人对其持怀疑态度,甚至不敢将微不足道的决策交给它。其中一个原因是我们往往无法解释人工智能的决策过程,因为复杂模型的行为就像一个黑匣子一样。

通过提高人们对人工智能决策过程的理解,可以增加对人工智能的信任和接受度。目前,公众对人工智能的了解仍然有限,但更好的模型可解释性和透明度可以显著提高人工智能的接受度。

在关于可解释和透明的人工智能主题的系列文章的第二部分中,您将了解到以下几个好处:

1.提高人工智能在社会中的可信度和接受度如果我们能够除了结果本身外,还能解释我们是如何得出这些结果的,人工智能本身以及我们在其帮助下获得的预测就更容易被社会所接受。例如,银行不会仅根据人工智能的推荐批准贷款给年轻人。了解这些建议背后的原因是非常重要的,因为它可能会影响银行员工后续的决策。是因为客户收入较低,所以他们需要寻找更高薪工作或降低要求吗?还是因为客户的就业时间太短,再等几个月就可以获得贷款?这个例子突显了人工智能的决策对个人生活的重大影响,并强调了可解释性和透明度的重要性。

2.在已有大量数据的领域发现新知识(例如物理学和化学)如果我们能够弄清楚人工智能在这些领域做出决策的原因,我们就能够发现之前人类未曾察觉到的关联性。虽然通常是人类教导人工智能做出正确的决策,但人工智能可能会取得与人类相当甚至更好的结果。这就引发了一个问题:人工智能是否在某些领域达到了我们作为人类所没有的知识?这种逆向工程的过程帮助我们理解一个有效系统的内部工作机制。例如,著名的AlphaGo1算法就是一个例子。该算法提出了之前未知的策略,从而成为第一个在围棋比赛中击败人类冠军的人工智能。如果我们能够在医学领域做类似的事情会怎样呢?如果算法在数据中发现疾病与人体区域或过程之间的联系,而这些联系是我们人类以前不知道的,将会有怎样的影响?因此,可解释性方法可以成为发现新知识的途径。

3.揭示人工智能模型中编码的偏见、倾向或后门与伦理的交叉点目前,最常用的人工智能模型是在学习过程中使用人类提供的示例。例如,如果我们想要创建一个模型来模拟社交媒体平台Twitter上的辩论者,最自然的做法是在学习过程中向模型展示大量来自Twitter的真实对话。然而,正如微软进行的著名实验所显示的那样,该模型不仅学会了正确使用英语并从人类辩论者的推文中形成有意义的句子,还从中获得了一些额外的内容——包括偏见和扭曲。ChatbotTay变成了一个种族主义者。

可解释性方法可以成为早期检测模型中编码的隐藏偏见的重要工具。如果我们知道模型做出决策的依据以及它从人类提供的训练数据中学到了什么知识,我们就能更好地发现类似缺陷。这不仅仅局限于无意中引入模型的偏见和偏差,还涉及到打击故意插入所谓的"后门",这种后门可能会被攻击者用来影响模型的行为。例如,现代车辆使用人工智能来识别交通标志。特别是对于自动驾驶汽车来说,正确识别停车标志可能意味着安全驾驶和发生事故之间的区别。

总而言之,可解释性和透明度对于人工智能的发展和应用具有重要意义。它们可以提高人们对人工智能的信任和接受度,促进新知识的发现,并揭示模型中的偏见和后门。通过努力构建可解释且透明的人工智能模型,我们可以更好地应对人工智能在社会中的挑战,并确保其对人类的利益产生积极的影响。

特别声明:以上内容(如有图片或视频亦包括在内)为自媒体平台“网易号”用户上传并发布,本平台仅提供信息存储服务。

Notice:Thecontentabove(includingthepicturesandvideosifany)isuploadedandpostedbyauserofNetEaseHao,whichisasocialmediaplatformandonlyprovidesinformationstorageservices.

/阅读下一篇/返回网易首页下载网易新闻客户端

版权声明:本文内容由互联网用户自发贡献,该文观点仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌抄袭侵权/违法违规的内容,一经查实,本站将立刻删除。

上一篇

下一篇