博舍

建立人工智能:奖励还不够 人工智能奖励机制怎么实现出来的

建立人工智能:奖励还不够

本文来自HerbertRoitblat

在最近的一篇论文中,DeepMind团队(Silveretal.2021)认为,对各种智力的奖励都足够了。具体地说,他们认为,“最大化奖励足以推动表现出最多智能属性的行为。”他们认为,简单的奖励就是丰富环境中的特工开发实现人工通用智能所需的多属性智能。这听起来像是一个大胆的主张,但事实上,它是如此的模糊,几乎毫无意义。他们支持自己的论点,不是通过提供具体的证据,而是通过一再断言奖励是足够的,因为观察到的问题的解决方案与已经解决的问题是一致的。

Silver等人的论文至少是第三次提出了一个严肃的建议,以证明一般的学习机制足以解释所有的学习。这一点还进一步提出,只要获得智能就足够了,特别是足以解释人工一般智能。

我所知道的第一个重要项目试图表明单一的学习机制所需要的是 B.F.Skinner版本的《行为主义》,如他的书《语言行为》所代表。这本书被 NoamChomsky(1959)严厉批评,他称Skinner试图解释人类语言制作的做法是“科学表演”的例子。第二个主要建议是Rumelhart和McClelland(1986)对英语动词的过去学习,受到了拉克特和贝弗(1988)的强烈批评。拉克特和贝弗指出,Rumelhart和McClelland选择代表他们的连接主义系统正在学习转换的单词的音位特性的具体方式包含了允许该系统成功的具体信息。

之前的两次尝试都失败了,因为它们都屈服于确认的偏见。正如Silver等人一样,他们报告的数据与假设一致,没有考虑可能的替代解释,他们将模棱两可的数据解释为支持的。这三个项目都没有考虑到其模型中内置的隐含假设。如果没有这些隐含的TRICS(Lachter和Bever的名字是“它所关键假设的表示”,这些系统中就不会有智能。)

Silver等人的论证可以由三个命题来概括࿱

版权声明:本文内容由互联网用户自发贡献,该文观点仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌抄袭侵权/违法违规的内容,一经查实,本站将立刻删除。

上一篇

下一篇