无人驾驶汽车遇到危险,应该「乘客保护优先」还是「行人保护优先」?
现有的回答几乎都着眼于「算法如何做」,问题是,我们为什么要指望算法可以解决一个人类不可能解决的问题?为什么要让算法承担不可承受之重?在这篇回答中,我写道:我们如何教会人工智能一件我们自己都不知道的事情?这就是问题的关键。到目前为止,人类依然不知道具体该怎么在司法中进行价值权衡,我们只是依据我们共有的、共通的道德感、正义感等等“基础规范”在进行权衡。然而,这些“基础规范”到底是什么?是否实在?是否可教导?这些问题,我们自己都没有答案。如果我们自己都没有确定的、稳定的对于“自由”、“公平”、“正义”、“善良”、“神圣”这些“基础规范”的概念,我们如何教导它们学会这些规范并在司法中运用?也不是没有学者试着去除这些“法律宫殿中的神秘部分”,法律经济学的大佬波斯纳曾经也认为这些基础规范无用且累赘,主张用“社会最大福利”替代这些规范;但在与德沃金交锋数轮之后,他依然只能认输,承认这些规范的实在意义。如果人工智能能够自主回答这些问题了,那也就不叫做“人工智能”了,因为它们已经远远超过了人类的认知范畴,并非“人工”所能至。https://www.zhihu.com/question/328124734/answer/802817437 因此,我更认同梅剑华主张的算法在社会领域的『平庸伦理』:我们为什么要给机器这么多负担呢?人类都解决不了的问题,凭什么要让机器去解决?很多人完全没有意识到这个问题。实际上,人类在面对这种处境的时候都是有对策的,所以我现在认可一种平庸伦理,或者叫平庸机器人伦理,我们不要设定一个依靠康德主义规则来的机器人,也不要设置一个依靠儒家德性来的机器人,而是通过大量真实的人所做的道德选择,大量的数据分析。我们给机器人输入,让它像人一样反应,可能有时候反应对,有时候反应错,它只要在我们人类道德行为的平均水平就可以了。——梅剑华:《人工智能与我们——前奇点时代的地方性困惑》在事故发生时实时更新的『平庸伦理』(拟合一个社会一般人在此时的平均处理方案)完全可以通过云计算➕机器学习➕贝叶斯网络实现,这并非技术难点,只要我们放弃让算法替人类解决自己无法理解的道德难题,转而思考社会一般人在这时会怎么做。算法只需要计算出,社会一般人在此时此刻,在此地,面临此种情况,平均可能性下会先救乘客还是先救行人。如此一来道德责任就在我们社会公众身上了,因为是我们所有人实际做出的选择决定了算法的结论。而社会一般人标准正是现行刑法和侵权责任法的归责原则,我们对此已经有了比较清晰的道德责任分配,争议会小得多。除此之外,一些极端情况,例如电车难题,我们可以通过『事前规划』的途径规避掉。例如中国科学技术大学的陈小平老师提出的开放系统和封闭系统区分,自动驾驶会面临很多问题,可是如果我们给自动驾驶一个封闭系统,这些问题你都不会遇到,比如说我们现在把所有公路全部封闭起来,或者说我们造一条快速路,这完全可以实现,只是说现实上可能哪个城市不能做,哪个城市能做的工程问题。一般情形下适用『平庸伦理』➕通过『事前规划封闭系统』规避极端情形,就是我的方案。关于算法伦理所有的讨论,我们都可以将其用一组三角关系来表示:最优性(Optimallity)↔️正当性(Legitimacy)↔️可懂性(Intelligibility)最优性是指以最小成本运用特定算法实现最大多数人希望实现的目标的最佳状态;正当性是指最大多数人认同并接受该特定算法的状态;可懂性是指算法能为最大多数人所理解其运作过程及相应后果的状态。这一组三角关系存在矛盾,不能同时实现。因此不同立场的讨论实际上是在争论我们应该如何在三者间选择及权衡。很多人的顾虑应该是关于可懂性和正当性的,这没有问题。我们可以看看选择可懂性和正当性的前提是什么,是P1:人们对事物的理解至少有助于导向大众对该事物的认同。如果了解过绩效合法性这一概念,不难看出上述前提存在的问题,即日常生活中的后果主义考量使得我们认同一个不理解的事物成为可能。因此上述前提P1并不总是成立。因此问题变成了,假如我们选择可懂性和正当性,那么需要做些什么来将后果主义考量导向公共理解。这就需要算法民主(Algorithmic Democracy)的出场了,即:将算法与每个人的激励结构相容,使得了解算法成为每个人的占优策略。同理,解决最优性(Optimallity)↔️正当性(Legitimacy)↔️可懂性(Intelligibility)的三角关系需要各自每组矛盾的不同前提和实现条件。进一步,我们更需要考虑算法民主的具体实现形式和途径,这是一个系统性的社会和政治工程。因而,算法首先不是一个科学技术问题,而是一个关于选择何种价值观进而拥抱何种社会和政治生活的意识形态问题。本文转载自网络,版权归原作者所有,如侵犯您的权益请联系wyl860211@qq.com,我们将第一时间删除。