我们如何看待人工智能的出现
人工智能或可以有自我意志
霍金说,他所见证的最深刻的社会变化,同时也是对人类影响与日俱增的变化,就是人工智能的崛起。他认为,强大的人工智能的崛起,要么是人类历史上最好的事,要么是最糟的。人工智能的发展是好是坏仍不确定,但人类应该竭尽所能,确保其未来发展对人类和环境有利。
霍金认为,文明所提产生的一切都是人类智能的产物,他相信生物大脑可以达到的和计算机可以达到的,没有本质区别。因此,它遵循了“计算机在理论上可以模仿人类智能,然后超越”这一原则。但现在无法知道人类将会无限地得到人工智能的帮助,还是被藐视并被边缘化,或者很可能被它毁灭。聪明的机器将能够代替人类正在从事的工作,并迅速地消灭数以百万计的工作岗位。
在人工智能从原始形态不断发展,并被证明非常有用的同时,霍金也在担忧创造一个可以等同或超越人类的事物所导致的结果:人工智能一旦脱离束缚,会以不断加速的状态重新设计自身。人类由于受到漫长的生物进化的限制,无法与之竞争,将被取代。未来,人工智能可以发展出自我意志,一个与人类冲突的意志。
2015年1月份,霍金和科技企业家埃隆·马斯克,以及许多其他的人工智能专家签署了一份关于人工智能的公开信,目的是提倡就人工智能对社会所造成的影响做认真的调研。
人工智能失控的风险
现在,关于人工智能的研究正在迅速发展。这一研究可以从短期和长期来讨论。一些短期的担忧在无人驾驶方面,从民用无人机到自主驾驶汽车。比如说,在紧急情况下,一辆无人驾驶汽车不得不在小风险的大事故和大概率的小事故之间进行选择。另一个担忧在致命性智能自主武器。他们是否该被禁止?如果是,那么“自主”该如何精确定义。如果不是,任何使用不当和故障的过失应该如何问责。还有另外一些担忧,由人工智能逐渐可以解读大量监控数据引起的隐私和担忧,以及如何管理因人工智能取代工作岗位带来的经济影响。
长期担忧主要是人工智能系统失控的潜在风险,随着不遵循人类意愿行事的超级智能的崛起,那个强大的系统威胁到人类。当前控制人工智能技术的工具,例如强化学习,简单实用的功能,还不足以解决这个问题。因此,人类需要进一步研究来找到和确认一个可靠的解决办法来掌控这一问题。
霍金认为,比如说之前提到的自主驾驶汽车,以及人工智能赢得围棋比赛,都是未来趋势的迹象。巨大的投入倾注到这项科技。科学家目前所取得的成就,和未来几十年后可能取得的成就相比,必然相形见绌。人工智能的成功有可能是人类文明史上最大的事件。
人工智能有可能是人类文明的终结
霍金说,人工智能也有可能是人类文明史的终结,除非人类学会如何避免危险。人工智能的全方位发展可能招致人类的灭亡,比如最大化使用智能性自主武器。
今年早些时候,霍金和一些来自世界各国的科学家共同在联合国会议上支持其对于核武器的禁令。目前,九个核大国可以控制大约一万四千个核武器,它们中的任何一个都可以将城市夷为平地,放射性废物会大面积污染农田,最可怕的危害是诱发核冬天,火和烟雾会导致全球的小冰河期。这一结果使全球粮食体系崩塌,末日般动荡,很可能导致大部分人死亡。
“我们作为科学家,对核武器承担着特殊的责任,因为正是科学家发明了它们,并发现它们的影响比最初预想的更加可怕。”
机器人也应有电子人的权利?
去年10月,霍金在英国剑桥建立了一个新的机构,试图解决一些在人工智能研究快速发展中出现的尚无定论的问题。
人工智能的最新进展,包括欧洲议会呼吁起草一系列法规,以管理机器人和人工智能的创新。令人感到些许惊讶的是,这里面涉及到了一种形式的电子人格,以确保最有能力和最先进的人工智能的权利和责任。欧洲议会发言人评论说,随着日常生活中越来越多的领域日益受到机器人的影响,我们需要确保机器人无论现在还是将来,都为人类而服务。向欧洲议会议员提交的报告,明确认为世界正处于新的工业机器人革命的前沿。
报告中分析的是否给机器人提供作为电子人的权利,这等同于法人(的身份),也许有可能。报告强调,在任何时候,研究和设计人员都应确保每一个机器人设计都包含有终止开关。
奥斯本·克拉克跨国律师事务所的合伙人,洛纳·布拉泽尔在报告中说,我们不承认鲸鱼和大猩猩有人格,所以也没有必要急于接受一个机器人人格。但是担忧一直存在。报告承认在几十年的时间内,人工智能可能会超越人类智力范围,人工智能可能会超越人类智力范围,进而挑战人机关系。报告最后呼吁成立欧洲机器人和人工智能机构,以提供技术、伦理和监管方面的专业知识。如果欧洲议会议员投票赞成立法,该报告将提交给欧盟委员会。
责任编辑:ct
偏见如何看待人工智能的“好与坏”
原标题:偏见?如何看待人工智能的“好与坏”?“我认为那些对人工智能持否定态度或者鼓吹末日论的人,其实根本没理解什么是人工智能。他们的看法太消极了,甚至有些不负责任。”——扎克伯格
人工智能只是一种技术,就像任何技术一样,可以用来造福人类,也可能带来危害。条件反射式的立法,对于把控人工智能不太可能奏效。我们需要以负责和道德的方式使用人工智能,正如最近全球关于自主武器的讨论取得进展一样,国际社会需要应对解决人工智能带来的挑战。
但是,目前流传的说法中,人工智能威胁论至今仍然是一种当代人的桎梏,人们的担忧越来越多,甚至认为它可能会毁灭人类。
那么我们应该怎么看待人工智能?
一方面,我们知道人工智能给人类带来了诸多便利之处,比如对财务从业人员而言,人工智能可帮助财务人员“解放双手”,提高工作效率,它能够操作财务流程中高度重复的工作,降低人力时间的耗费;可以获取较高的数据准确率;根据既定的业务逻辑进行数据处理和判断,降低跨岗位的沟通成本等,所以机器人在操作方面具有人类不可比拟的优势。又比如,物流机器人,拥有AI的机器人具有自主学习能力,通过每天的运行,可以不断进行不同场景的训练,从而拥有越来越强的自主判断能力。在在各个物流场景,AI机器人可以来回穿梭,互不影响,相互协作,无论环境如何变化,机器人们都能通过自己的智慧来从容应对。
另一方面,我们又看到了人工智能给我们带来的威胁。特斯拉创始人马斯克曾在社交网上说过一句话:人人都应该关心人工智能安全,它的威胁要比朝鲜核武器大多了。足以见得,它对人工智能发展如此迅速,是比较忌惮的,但它无法阻碍历史潮流。与此同时,马斯克还说到,人工智能是关系人类文明存亡的最大威胁,这是汽车事故、飞机坠毁、滥用药物或劣质食品都比不了的威胁。
不可否认,人工智能的确对我们的文明产生了诸多冲击,但是,我们都知道,任何事物都有其双面性,有好有坏,或许我们更需要衡量的标准是,它是人类制造出来的“品种”,那么为什么会产生这种担心?我们人类技术创造的东西,难道还没有和之抗衡的办法?
当然,随着人工智能的迅速发展,也应不断提升相应的“警惕感”,对人工智能带来的伦理问题,要有充分认识。一旦人工智能出现自我意识,就会成为人类创造出来的新物种。人类该如何对待它们?如何与之相处?人类绝不能放任自流地开展人工智能研究开发,要避免出现人工智能与社会敌对、给人类带来危害的可能性。在推动人工智能发展的过程中,人类如何在伦理上“控制”电脑是一大挑战,绝对不能让人工智能迈出真正挑战人类的“关键一步”。返回搜狐,查看更多
责任编辑: