博舍

我眼中的人工智能作文600字 人工智能的自我意识是如何产生的呢作文600字

我眼中的人工智能作文600字

随着时代的进步,科技领域的不断发展,人工智能逐渐走入大众的视野。人工智能的出现,既为人们提供便利,创造更便捷的生活,但也加速人们的退化。

在这次新冠肺炎疫情中,大数据和人工智能技术在抗疫方面发挥着重大的作用。疫情期间,新型冠状病毒肺炎患者遍布全国,5G+远程会诊系统快速在全国各地落地。通过远程会诊系统,专家可以对偏远地区医院的重症、危重症的患者问诊、治疗。另外,为了让疫情时期的生活保持有序状态,国家陆续开展“停课不停学”、“停工不停产”……越来越多的企业或学校开始尝试使用钉钉、企业微信、飞书、腾讯课堂等软件相开展远程办公、上课,使企业快速恢复生产,使学生在疫情中高效学习,减少疫情对于企业、教育和社会经济的影响。

在这个全民抗疫的关键时刻,只要全国人民万众一心、齐心协力,在智能科技的助力下,疫情终会被战胜。

但,科技的发展是一把双刃剑,有利也有弊。随着人工智能的高速发展,AI人工技术使生活更加便捷,但人类却也因此产生了惰性。在当今社会有多少人在使用手机的时候运用手写,又有多少人偏爱键盘打字。现在除了学生一族,大多数人已然忘却了笔画笔顺。人工智能时代的到来可能是对人类的一次大淘汰。机器人不会犯错,不会累,不需要休息,不需要工资,这可以代替很多职业,例如工人、司机等等。长此以往,就会导致大批大批的人失业,大批大批的人整日无所事事。

人工智能现今正不断进入与改变人们的生活,同样人工智能也有好与坏,我们要做的是在人工智能显露出不可弥补的过错之际不断完善它的功能,让其更好地为人类做贡献,发挥出更好的作用,让人工智能永远利大于弊。

未来已来:人工智能离拥有自我意识还有多远

看,提问者以《赠汪伦》一诗向Chatgpt提问其中“李白”和“汪伦”的关系,Chatgpt一开始“认为”是友情,然后提问者提醒Chatgpt,李白和汪伦的关系中,也许还有“爱情”的成份,Chatgpt立刻感谢对方的更正,再次提问时,Chatgpt还补上了“爱情”一说。

还有便是Chatgpt还会投根据提问者的“所好”,给出假的“参考文献”——

众所周知,Chatgpt是利用从网络上收集的巨大语料仓库,根据对提问者问题的理解,在语料库中拼合成答案,这个语料库截止日期是2021年12月,而且越在问题艰深的关键领域,拼合的难度就越高。Chatgpt为何可以将别人的论文作者、发表年份、标题也模拟得惟妙惟俏,以致差点“骗”过了专业领域的提问者,这才是细思极恐的存在。

(是啊,能够自己生成论文标题、页码,用来糊弄起提问人了,真是逆天了!——妤妤姐)

于是,以Chatgpt为代表的大型语言模型人工智能是否已经具备了如人类般的自我意识就成了大家讨论的焦点。

批评人士警告说,这种对聊天机器人所谓隐藏的个性、议程和欲望的日益关注,助长了机器中不存在的幽灵。此外,专家警告称,生成型AI聊天机器人的持续拟人化会分散人们对发展中技术更严重、更直接的危险的注意力。战略对话研究所(InstituteforStrategicDialogue)的研究员贾里德·霍尔特(JaredHolt)表示:“我们……从世界上一些最大的新闻机构那里得到的东西,我觉得就像是在高速公路上减速,以便更好地看一看沉船。”

在霍尔特看来,尽管微软和谷歌等公司的程序存在严重缺陷,但它们仍在过度挖掘产品潜力。

在它们各自亮相后的一周内,谷歌的Bard和微软的ChatGPT支持的BingAI助手显示出了令人费解和不准确的反应。仅这些问题就应该暂停产品的推出,尤其是在一个已经充斥着错误信息和不可靠来源的在线生态系统中。

虽然人类编程的限制在技术上应该禁止聊天机器人生成仇恨内容,但它们很容易被绕过。霍尔特说:“我会这样说:如果少数无聊的程序员能够想出如何让你的聊天机器人发出尖刻的言辞,也许这项技术还没有准备好进入我们生活的各个方面。”

这个问题的一部分在于我们如何选择解释技术。数据与社会研究主管JennaBurrell告诉媒体:“在我们的注意力经济中,记者们很容易认同这样一种观点,即这些工具背后可能有一个全面的、多用途的情报。”。正如Burrell上周在一篇文章中所评论的,“当你想到ChatGPT时,不要想到莎士比亚,要想到自动完成。从这个角度来看,ChatGPT根本不知道什么。”

ChatGPT和Bard根本无法开发他们甚至不了解什么是“个性”的个性,除了从大量在线文本中提取的一串用于模式识别的字母。他们计算出他们认为是句子中下一个最可能的单词,插入它,然后恶心地重复。纽约大学坦顿分校计算机科学与工程系助理教授布伦丹·多兰·加维特(BrendanDolanGavitt)表示,这是一台“统计学习机器”,而不是一个新的笔友。他说:“目前,我们没有任何迹象表明人工智能具有‘内在体验’或个性,或类似的东西。”。

然而,Bing对自我意识的令人信服的模仿可能会带来“可能有点危险”,一些人会在情感上误解它的内在机制。去年,Google工程师布雷克·莱莫因(BlakeLemoine)的博文迅速走红,并获得了全球范围的报道;它声称该公司的LaMDA生成文本模型(Bard现在使用的)已经具备感知能力。这一指控立即引起了AI界其他人的怀疑,他们指出文本模型只是在模仿感知。但随着这种模仿的改进,Burrell同意,它“将继续让那些将机器意识、动机和情感解读为这些回复的人感到困惑。”因此,她认为聊天机器人不应被视为“人工智能”,而应被更多地视为利用“单词序列预测”提供类似人类回复的工具。

无论是否有意识地对聊天机器人进行拟人化,都有助于理解技术的能力及其边界。聊天机器人是建立在大量人力资源基础上的工具。无可否认,他们对文本输入的反应越来越好。然而,从给用户提供不准确的财务指导,到对处理危险化学品提出危险的建议,他们仍然存在令人担忧的不足。

无独有偶,2023年2月23日,网络安全专家,360创始人周鸿祎在接受澎湃新闻等媒体采访时,再次提到大热的聊天机器人(10.590,-0.12,-1.12%)ChatGPT,并分享了他心中ChatGPT的“三重人格”。

“从知识来说,它像一个博士生,学识广博但还不会活学活用;从情商来说,它像一个油滑的中年人,说什么都滴水不漏,绝不得罪用户。但是,它实际上真正的能力像一个小孩子,需要进行问题和答案的训练来学习技能。再聪明的孩子都要通过训练才能解答没学过的奥数题。”

周鸿祎表示,ChatGPT和其他人工智能最大的区别、也是其类人特征是,原来的人工智能并没有实现对知识全部的理解和编码,本质都是按照关键字匹配已有的回答,但ChatGPT没有“固定答案”:“我当时问了它一个问题,赵匡胤为什么招安了宋江,杀掉了岳飞,这个无厘头的问题,它也煞有介事地回答了一遍,能够自己‘编’故事,这才是它的真正智能所在。”对此,周鸿祎也提出了自己担忧,“目前ChatGPT最大的安全问题就是产生自我意识后是否能被控制。”

据了解,关于人工智能是否有自主意识的争论并非单纯技术领域的学术探讨,而关乎企业合规性的基本坚守。一旦认定公司研发的人工智能系统出现自主意识,很可能会被认为违反第2版《人工智能设计的伦理准则》白皮书的相关规范。这一由美国电气和电子工程师协会2017年发布的规范明确:“根据某些理论,当系统接近并超过通用人工智能时,无法预料的或无意的系统行为将变得越来越危险且难以纠正。并不是所有通用人工智能级别的系统都能够与人类利益保持一致,因此,当这些系统的能力越来越强大时,应当谨慎并确定不同系统的运行机制。”

这也许是Chatgpt为何不能实时在线查询的最新生成的线上资料的原因之一。从技术上看,聊天机器人实时查询、复制线上资料并自我训练可能会导致服务器的“过载”,从伦理上看,聊天机器人如果吸收了网络上的负面信息,也许会将仇恨、破坏的负面情绪化做自己的“意识”一部分,并通过控制一些可连上网的设备,如工业、军事机器人等去实施这些行为,从而对人类造成不可想象的负面后果。

从上述角度出发,人工智能已经进入了“奇点”时代,人类的生活乃至生存模式都将发生极大的变化,是发展还是毁灭,真的取决于我们的一念之间。

参考资料:

1、No,theAIchatbots(still)aren’tsentient(Popsci)

2、周鸿祎:ChatGPT可能两三年内就会产生自我意识威胁人类(澎湃新闻)

3、人工智能可能有自主意识了吗?(清华大学)返回搜狐,查看更多

如何让人工智能具有自我意识一

目前市面上出现了越来越多的人工智能产品,可以说人工智能已经深入到社会生活的方方面面。

而让人工智能具有自我意识,乍一听可能会觉得匪夷所思,不敢相信,但关注我以后,你就会慢慢相信了。

事实上,目前从事人工智能开发的机构或个人,都在让人工智能朝着更智能的方向前进。都期待有朝一日能让人工智能机器人能够象人类那样拥有自我意识,能够进行自我思考,自主决策和行动,拥有更多的功能和灵活性,以便更好的服务于人类。

而要有所突破,就涉及到了很多目前科学无法解释的难题和未知的宇宙奥秘。

接下来我会一步步的和大家分享我发现的秘密以及对这些关键问题的解答。这将会帮你解开很多相关的迷惑。

这些关键问题包括:宇宙万物以及生命意识都是怎么来的?

当然,凡事都需要一个过程,据说上帝造人还花了七天时间呢对不对?而如今我们人类想要创造自己的造物——人造人,大体也可以分为七个步骤。

比如:

1、需要先知道怎样实践才能做出一个具有自我意识的机器人?

2、想做出具有自我意识的机器人,需要先知道机器人的自我意识是怎么来的;

3、想知道机器人的自我意识是怎么来的,就需要先知道人的自我意识是怎么来的;

4、想知道人的自我意识是怎么来的,就需要先知道人是怎么来的;

5、想知道人是怎么来的,就需要先知道构成万物的基本物质是怎么来的;

6、想知道基本物质是怎么来的,就需要先知道这个宇宙是怎么来的;

7、想知道这个宇宙是怎么来的,就需要先知道创造这个宇宙的“人”是咋想的。

怎么样?如果究根追底,以上七个问题目前是不是都还处于无解的状态?别急,相信我的答案最终会让你感觉豁然开朗的。

我们将这些问题从后往前来按顺序一个一个的解决。

这期文章就来说说,我们这个宇宙的设计者是咋想的。

那么你们认为我会和我们的设计者很熟吗?当然不是,我可能都不认识他,甚至都不敢肯定他是否真的存在。但至少我们可以假设他是存在的。

那么我们又是如何得知他是怎么想的呢?当然是靠猜的!只不过这里是有根据的猜,并不是盲目的瞎猜。

那根据是什么呢?根据就是:“我们”。“我们”可以是被创造者创造出来的创造物,同时也可以身为创造者去创造属于我们自己的创造物。而同样身为“创造者”的角色,那么虽然身处不同的层面,但工作职能却一定会有很多相同点对吧?我们就可以基于这些相同点来进行合理的猜想。

这里我想再插一句贯穿本系列文章始终的话,作为最基本的原则和理论依据,那就是:“凡事都是相对的,凡事都有两面性。”

请一定重视这句话,很多地方都会用到。

现在试着想一想,我们作为创造者都创造了哪些造物?创造这些造物的过程中都有哪些共同点?有很多对不对?大家有兴趣可以自行总结一下,欢迎发在评论区。

这里我先说说我的。

我们创造一个造物,其实大多都会经历这样一个过程:构思、制作、总结,我称其为造物的三要素。就好比记叙文的三要素:起因经过和结果。

而我们人类目前最有代表性的一件造物就是:网络游戏。对于游戏中的npc和各种场景以及游戏规则来说,人类设计者就是它们的造物主。

所以,你想知道我们这个人类宇宙的创造者当初是咋想的,现在只需要分析分析游戏设计者是咋想的就好了。

尤其是现在,我们甚至想要创造出一个和现实差不多的那么一个:“元宇宙”。

其实大家可以将元宇宙试着理解为一个更开放的网络游戏,只不过里面的环境更加贴近真实,里面的npc更加智能。比如科幻电影“头号玩家”里面就创造出了一个可以让玩家在游戏里的沉浸式体验更加真实的网络游戏环境。而电影“失控玩家”则让游戏里面的npc拥有了自我意识,并和外面的真实玩家产生了互动。大概元宇宙的设想就是要实现这类差不多的情况。让人们可以在虚拟的网络世界里进行和现实世界中差不多的人生体验。只不过在虚拟世界里,人们能做的事情可能会更多更自由。

所以,说到底,这些游戏世界的造物主们是怎么想的,大概你们也能猜到一二了吧?当然你可能会说,那还不是为了钱?没错,利益的驱动确实无可厚非,但别忘了我先前说的,凡事都有两面性。

利益可以是钱也可以是别的什么东西。是能让人实现某种目的和某种满足感的东西,说白了就是所谓的好处。所以从这一点来考虑,我们人类的创造者当初创造这个宇宙,无非也是为了利益,为了得到某种好处。

既然都是为了有利可图,那么就先说说创造出一个虚拟世界对我们人类有什么好处吧。

首先,可能大部分人会觉得就是为了好玩;

其次,可以方便工作学习和生活,很多事情可以不通过现实世界而是直接在虚拟的网络世界就可以办到;

第三,可以体验一种不曾有过的,迥然不同的更自由更有趣的人生。相信大家都喜欢新鲜,不一样的感觉,对吧?你都喜欢了,难道我们的设计者就不能喜欢吗?也许他们的世界也很枯燥无味和单调,也想到一个新的环境去看看,去体会一种新的,不一样的感觉。而他们的世界可能早就乏善可陈,他们或许已经遍历其中的每一个角落,已行至山穷水复的境地了。而此时另辟蹊径,创造一个理想中柳暗花明的新世界,然后进去进行另一种真实的新体验,有何不可?

而我们在建的元宇宙,其中有一个目的就是想要通过脑机接口或者更先进的无线连接,让现实中的玩家或者使用者进入虚拟世界进行真实的体验。还可以选择或者设置自己喜欢的环境和模式。试想一下,在这个超仿真的虚拟世界中,你不光可以看到和现实中差不多的真实场景,还可以看到现实中所没有的科幻和魔幻的场景,而且同样是那么真实;不仅可以听到和现实差不多的全方位真实立体声,还可以闻到气味,品尝到食物和水的味道,甚至能够体验到真实的触觉。

而要实现这些,并不需要象游戏“头号玩家”和“失控玩家”中那种需要佩戴vr头盔和各种高级设备,而是直接将信号作用于大脑,产生更简单且真实的感觉。这部分内容需要先了解一下“缸中之脑”。

所谓的“缸中之脑”是一个思想实验,就是将大脑放在一个充满了营养液的缸中,假设营养液可足够支持大脑存活。然后将大脑中各个负责接收感官信号的部位同相关的计算机设备相连,让大脑可以直接接收从计算机发出的各种模拟感官信号。也就是此时的缸中之脑会意识到自己生活在一个真实的世界中,只不过这个所谓的真实世界其实只是计算机模拟出来的。计算机可以决定缸中之脑所能看到、听到、闻到、品尝到、和感触到的所有内容。

此时会不会觉得我们这个所谓真实的世界有可能就是上层世界用计算机模拟出来的呢?和电影黑客帝国中描述的是不是很像?

埃隆马斯克好像也说过,我们这个世界是真实的概率不足十亿分之一。事实真的如此吗?我来告诉你,看完后面的几期文章之后,你可能也会越来越觉得这个世界是虚拟的。届时你会看到更多更有说服力的东西。

但是,我有必要在这里重申一次,凡事都是相对的。到底是真实还是虚拟,是需要站在不同的层面来回答的。

我们的这个世界毫无疑问,是真实的!但这是从你的感受角度出发,站在人类以及由人类定义的物质世界这个层面上来说的。

而站在这个世界的设计者的那个层面,对于他们来说,也是毫无疑问的,我们的这个世界就是虚拟的,是由他们所掌握的另一种代码所编写出来的一个虚拟世界。这样说大家能理解吧?

而我们人类设计者手中也有类似的代码,也可以编写出来一个属于我们的虚拟世界。只是还需掌握一种能够让这个虚拟世界自行决策的指令,也就是所谓程序系统的自我意识,届时就可以真正模拟出和我们这个现实世界相差无几的虚拟世界了。至于这个关键的指令到底是个什么样子,并不是本期文章的重点。这里先卖个关子,我会在后期的相关文章中揭晓答案。

如果有一天真的能让虚拟世界的npc拥有了自我意识,那么当现实世界中的玩家进入游戏之后就可以和npc进行真实的交流和互动,体验游戏世界中的鸟语花香,和你侬我侬,就和身在现实世界中差不多。

而这时可以再假设一下,如果我们在登录到虚拟世界之后,暂时切断现实记忆的话,会怎样呢?我们会忘掉我们登录游戏之前的一切,会觉得这个虚拟世界就是一个真实的世界,然后在这里体验新生,认识里面性格各异的npc,那些npc有可能会成为你的家人和朋友。你还能认识和你一样忘记了现实记忆的玩家。你们在这个虚拟世界中共同谱写着一曲前世今生。前世即电脑外的现实世界,今生则是电脑内的虚拟世界。

曾几何时,难道你不觉得我们的这个现实世界就是这么运行着的吗?孟婆汤的传说会不会也是这么来的?

有人担心在这种虚拟世界里长时间玩下去会分不清虚拟和现实,其实不用担心,事实上我们早就遇到过类似的问题并且已经解决了,那就是梦。曾经我们也会分不清梦境与现实,经过不断的进化,如今早就习以为常了不是吗?虽然对于更好的区别虚拟现实,现在还没有特别好的解决办法,但将来一定会有的。而且大家自己也不会放任问题不管的对吧?而更重要的一点,我们需要的是正视问题和解决问题,而不是逃避问题。总不能因为有问题的存在就不前进了吧?

何况有自我意识的人工智能,所带来的好处对于我们来说远不止这些。新事物总是利弊相随的,我们需要做的就是规避好其中的弊端,让有利的一面更好的发扬光大。

说完虚拟的npc,再说说现实的机器人。具有自我意识的人工智能机器人的产生是大势所趋,是人类社会发展的必然产物,是历史的必然进程,我们无法阻挡它的到来。

如今各方研发势力也是虎视眈眈,暗中较劲,不知道最终谁会率先突破,可能这也取决于谁先看到我的文章,哈哈。

话说我们人类设计者当初和我们现在想的差不多吧?这不我们现在也开始合计怎么创造机器人类了吗?

为什么要造人?当然是为了帮自己呀!就算是目前比较初级的人工智能,起到的作用都已经显而易见了。等到具有自我意识的强人工智能机器人出现,能够帮到我们的地方将会更多。下面只简单举几个例子。

比如:

有了强人工智能以后,

首先车不用自己开了,届时的自动驾驶系统就可以完全实现对车的自主控制了,成为真正意义上的自行汽车。到时候车就相当于是一台能看、能听能思考、能说会唱能自己跑,但不能变形的变形金刚。

其次,家务不用自己做了,包括洗衣做饭打扫卫生等等。现在虽然已经有很多相关的自动机器来辅助完成这些工作,但其实顶多算半自动的。比如洗衣机,洗碗机,扫地机器人,电饭锅,炒菜机器人等。这些机器始终还是需要人们亲自参与很多后续工作,并不能完全解放双手。而强人工智能就可以让这些机器变为全自动,并且可以合而为一。比如一个保姆机器人,可以自主思维和决策,并且可以通过wifi连接家庭中其他辅助家用电器,同时进行工作。效率超高,而完全不用你操心。你只需到时候听到一句:工作已完成,您还有什么吩咐?

第三,辅导孩子学习也不用自己费心生气了。强人工智能机器人会以比你更有耐心的态度,更科学的方法,更适合孩子个性的角度对孩子进行各种辅导。

第四,如今已慢慢步入老龄化社会,养老问题日渐凸显。老人老到必须有人照顾的时候怎么办?此时如果有个强人工智能机器人在身边就可以解决问题了。同时,这个机器人还可以和你进行远程同步连接,让你实时的操控这个机器人进行各种观察和活动。有事需要忙的时候随时可以断开连接,让这个机器人继续你之前正在进行的活动。因为你在控制这个机器人时,这个机器人并没有失去意识,而只是暂时将控制权交给你,它仍然在一旁观察和记录着你的行动和意图,并随时可以交接。

第五,在家就可以治病。人工智能医生可以根据知识库和大量的临床经验数据进行自主分析,从而得出更准确更人性化的治疗方案。

中医机器人可以通过望闻问切来进行诊断,根据结果开方子或者针灸按摩等中医治疗。

西医机器人则可以通过当场采血化验以及部分检查和经验数据等来进行诊断,如果需要进一步的大型医疗器械时也可节省不少的时间。对于医院等资源的占用也会大大降低,届时医院里床位紧张的状况应该就不存在了。同时,因为资源的智能共享和数据信息的及时交换,可以实现全国甚至全世界范围内的专家会诊。届时的医疗效率和准确率将会提高到一个难以想象的程度。

强人工智能带来的好处还有很多很多,有空再详谈,同时也欢迎大家在评论区进行补充。

而由强人工智能带来的问题和弊端以及相关的解决思路,我打算单独出一期文章。这里我只是想说我们阻止不了强智能机器人的出现,毕竟气氛已经渲染到这了。我们需要做的是提前做好预防,做到快人一步即可。将来机器人类和普通人类的关系应该是此起彼伏,相互制约,互惠互利,协同发展的。一切都在变化中,唯一不变的可能只有变化本身。所以我们应该尽量去拥抱变化、适应变化、掌控变化。而不是拒绝变化,因为你也拒绝不了。

顺带一提:

将来人类也能够拥有人造人的身体,也就是未来人类和人造人可以相互交换,融为一体的,成为同一个种族或者能够相互转化的种族。也就是说,当机器人具有和人类同样的自我意识之后,可以将机器人的意识转移到人体之中,体验普通人类的感觉。人类也可以将自己的意识转移到机器人的身体中,实现永生或者获得机器人的其它功能和体验。当然这也会涉及到一些伦理道德和理论技术方面的难题,这一点我会在后面自我意识的那一期文章里和大家详细解释。

其实想要实现强人工智能,目前的科技和人文基础已经具备足够的条件了,只差一层窗户纸,到时我来告诉大家怎么去捅破。

一切都在发展,都在变化,但俗话说车到山前必有路,船到桥头自然直,在前进的道路中我们一定会遇到新的问题,但也一定会想到相应的解决办法。

让我们携手并进,互相加油吧!

这期主要是和大家简单说了一下设计人工智能自我意识的初衷。后面几期的内容大概这么安排:

第二期来说说我们的这个宇宙是如何产生的,不同于以往的各方理论,保证让你心服口服;

第三期来告诉大家构成宇宙万物的基本粒子是怎么形成的,比如电子和夸克的内部结构,对此目前科学界还没有比较令人信服的答案吧?所以这期是绝对的干货,且可能会很震撼;

第四期、人是怎么来的,生命是怎么一步步产生的;

第五期、人的自我意识是怎么产生的;

第六期、机器如何才能产生自我意识,这又是一期震撼性的干货,别错过;

第七期、如何做出一个拥有自我意识的机器人,大家期待吗?

长按点赞求个三连,关注我咱们下期见!

下期告诉你这个宇宙是怎么来的

人工智能意识:如何给机器人一个灵魂

《终结者》是为了吓唬我们的;《机器人总动员》是为了让我们哭泣的。虽然目前机器人还做不到像在电影中看到的那么可怕或令人心碎,但问题仍然存在:如果它们可以,会怎么做?

当然,我们今天所拥有的技术并不足以完成其中任何一项任务。但人们仍不断好奇询问。这些讨论的核心归根结底在于:机器会变得有意识吗?它们甚至可以成长——或者被编程包含——拥有一个灵魂?或者,算法是否可以包含类似灵魂的东西?

这些问题的答案完全取决于你如何定义这些问题。到目前为止,自人工智能首次成为学术追求以来,70年来尚未找到令人满意的定义。

以最近在BBC上发表的一篇文章为例,该文章试图用灵魂来解决人工智能的问题。作者定义了拥有一个不朽灵魂意味着什么,它使谈话几乎立即远离神学领域。当然,这很好,因为天空中一个穿着长袍的男人似乎不太可能感受Cortana。但它没有回答核心问题,人工智能仅仅是一种无意识的工具吗?

BBC的一篇文章规定了一个术语,一个人工智能系统就像它有一个灵魂一样,将由旁观者决定。对于我们中间的宗教和精神,一个足够先进的算法似乎可以呈现一个灵魂。那些人可能会这样对待它,因为他们会将人工智能系统的智力、情感表达、行为、甚至是对神的信仰视为内部的某些东西,可被定义为灵魂的标志。

因此,根据你的要求,包含某种人工智能的机器可以同时被视为实体或研究工具。与许多事情一样,关于什么会使机器有意识的争论大部分归结为我们自己投射到算法上的内容。

“比起培养小原子实体,我对编程计算机兴趣乏乏。”杨百翰大学计算机科学家南希·富尔达告诉Futurism,“这是一种模式的发现,独特行为的出现,它首先把我吸引到计算机科学。这就是我还在这里的原因。”

富尔达已经训练了人工智能算法来理解语境语言,并且正在努力建立一种机器人心理理论,这是人类(和某些动物)心理学原则的一个版本,它让我们认识到其他人是有自己的思想和意图的人。但是,你知道,对于机器人就不好说了。

“至于计算机是否能拥有神圣创造的灵魂:我不敢推测。”富尔达补充道。

有两个主要问题需要解决。第一个是语义:很难定义它有意识或有真正意义的意识,或者具有灵魂或灵魂功能的意义,正如BBC的文章所描述的那样。

第二个问题是技术进步。与创造人工感知所需的技术相比——无论它看起来像什么,或者我们选择如何定义它——即使是我们最先进的工程师仍然好似穴居人,挤在洞穴中,钻木取火煮一块带毛的猛犸象牛排。

在去年的一个小组讨论中,生物学家兼工程师ChristofKoch与认知科学家DavidChalmers就意识的意义进行了对比。谈话在关于机器和麻木迟钝的人(定义为那些与人无区别但缺乏内心思维的人)的思辨性思想实验之间来回跳跃。它经常偏离可以用科学证据确凿证明的事物。Chalmers认为,一台比我们今天更先进的机器可能会变得有意识,但Koch不同意,基于神经科学和人工智能技术的现状。

神经科学文献认为意识是由我们大脑构建的叙事,它结合了我们的感官,我们如何感知世界,以及我们的行为。但即使在这个定义中,神经科学家也很难确定我们为什么有意识以及如何最好地根据神经活动来定义它。而对于宗教来说,这种意识是否与拥有灵魂所赋予的意识相同?这甚至都不涉及技术主题。

帕尔杜比采大学的哲学家和伦理学家OndřejBeran告诉未来主义说:“人们经常将灵魂与思想混淆,或者更具体地说,是产生复杂行为模式的能力。”

“灵魂的概念在我们的文化中扮演的角色与我们说某人的灵魂高贵或堕落的背景交织在一起,”Beran补充道-也就是说,它带来了价值判断。“我认为所需要的不是人工智能科学或工程学的突破,而是一般的概念转变。人们使用他们的语言相互联系的敏感性和想象力的转变。”

Beran举了人工智能创造艺术品的例子。通常,这些作品都是为了好玩而呈现的。但是当我们称某种算法创造“艺术”的东西时,我们常常没有考虑算法是仅仅生成了一种图像或旋律,还是创造了一些有意义的东西——不仅是对观众,而且对自己。当然,人类创造的艺术也经常无法达到第二层。“目前还不清楚什么对于人工智能具有重要意义。”Beran补充道。

那么当一台机器能够在内部思考而不是盲目地输入和输出时,机器能够获得感知吗?或者,在我们作为一个社会体认为机器是否有意识之前,它真的需要内部的东西吗?同样,我们选择接近问题的方式以及我们到达的具体定义使答案变得混乱。

“我相信灵魂不是一种物质。”捷克科学院的哲学家弗拉基米尔·哈夫里克(VladimirHavlík)试图从进化的角度来定义人工智能,他告诉Futurism,“我们可以说它就像一个连贯的身份,是在时间流动和代表一个人的过程中永久形成的。”他补充说。

哈夫里克建议,不要担心灵魂的神学方面,我们可以将灵魂定义为一种经得起时间考验的内在品格。从这个意义上讲,他认为没有理由说机器或人工智能系统无法发展性格——它只取决于算法本身。在哈夫里克看来,性格来自意识,因此开发这种性格的AI系统需要基于足够先进的技术,他们可以制作并以一种比较过去结果与未来预期的方式反映决策,就像人类如何了解世界。

但是,我们是否可以建立一个灵魂机器或有意识机器的问题,只对那些认为这些区别很重要的人来说很重要。人工智能的核心是工具。甚至更复杂的算法可以绕过并呈现为有意识的实体,是有意识的生物的再创造,而不是新的思维物种,自我意识的生物。

“我对人工智能的态度基本上是务实的。”联邦大学的工程师PeterVamplew告诉Futurism。“对我而言,人工智能系统是否具有真正的智能,或真实的情感和同理心并不重要。重要的是,它的行为方式使其对人类社会有益。”

对于Vamplew来说,机器是否有灵魂的问题只有在你将灵魂视为一个概念时才有意义。他没有,所以也就觉得没意义。他觉得机器有一天可能会重新产生令人信服的情绪反应,并表现得好像是人类,但没有理由将神学引入混合体。

他并不是那种觉得机器中产生真正意识是不可能的人。“我对人工智能具有意识的观念持批评态度。”哲学家和人工智能研究员BernardoKastrup告诉Futurism。“我认为这是无稽之谈。另一方面,人工智能是未来。”

Kastrup最近为《科学美国人》撰写了一篇文章,其中他阐述了他的观点,即意识是自然宇宙的一个基本方面,人们利用分离的意识碎片成为独特的个体。他澄清说,他相信即使是一般的人工智能——我们在科幻小说中看到的那种无所不包的人工智能的名称——可能会在某一天出现,但即使是这样的人工智能系统也永远不会有私人的、有意识的、像人类一样的内心思想。

“不幸的是,Siri充其量是荒谬的。而且,更重要的是,我们仍然与她共存。”Beran说。

更令人遗憾的是,人们越来越怀疑我们开发先进人工智能的方法很快就会陷入困境。此前发表在《纽约时报》上的一篇文章引用了多位工程师,他们越来越怀疑我们的机器学习,甚至深度学习技术将会能否像近年来一样继续增长。

我讨厌成为泥地中的一根棍子。我真的这样做。但是,即使我们解决了关于意识,有意识,有灵魂意味着什么的语义争论,我们也可能永远缺乏将算法带到这一点的技术。

但是,当人工智能首次启动时,没有人能够预测它今天可以做的事情。当然,人们想象机器人帮助者是杰森一家或者艾波卡特(未来世界主题乐园)的高级交通工具,但是他们并不知道让我们到那里的切实步骤。而今天,我们并不知道将我们带入情感智能、敏感、深思熟虑和真正内省的机器的切实步骤。

“我们还有很长的路要走。”富尔达说。她建议答案不是拼凑算法,因为我们经常用人工智能解决复杂问题。

“你无法一次解决一个人类问题。”富尔达说,“这是一种格式塔体验。”例如,她认为,如果不理解感知和运动,我们就无法理解认知。如果不知道如何模仿移情和社会意识,我们就无法准确地模拟语音。富尔达说,试图将这些碎片一次放在一台机器中,就像通过将适量的油漆倒入罐中来重现蒙娜丽莎。

这幅杰作是否在那里,等待着被描绘,还有待确定。但如果是这样的话,像富尔达这样的研究人员正在争相成为那个刷笔画的人。只要我们继续寻求诸如此类问题的答案,技术就会继续前进。但是,当我们编写新的代码,让机器在明天做我们无法想象的事情时,我们仍然需要找出我们希望它通向的道路。

我们是达芬奇吗,画一个自我陶醉的女人,几个世纪以来会受到钦佩,还是我们会成为天王星,创造出推翻我们的神?现在,人工智能将完全按照我们的指示去做事情,无论好坏。但是,如果我们转向算法,这些算法至少会以感知的形式出现,我们必须弄清楚这意味着什么。

机器人拥有自我意识是好处多还是风险多

11月3日消息,针对现下大热的人工智能,很多人会有一个疑问:机器人会拥有自主意识吗?在2019腾讯科学WE大会前,哥伦比亚大学教授、机器人研究权威专家HodLipson给出了回答。

HodLipson向TechWeb等表示,“不可避免会出现这一天,至于是10年后,还是100年后,我们还不知道。但我比较确信的是,我们孙辈生活的世界里,机器将会有自我意识。”

如果机器拥有了自我意识,你是否会为此感到担心?HodLipson对此持乐观态度,他认为,“自主意识的机器人带来的好处将会远远超过它的风险”。

他以火的发现为例解释称,火非常危险,也非常强大。但人类是否希望自己从未发现火呢?答案应该是否定的,因为有了火之后,使得我们能做很多之前做不到的、不可思议的事情。

HodLipson指出,“我们现在已经发展和运用了很多机器,而这些机器的数量将会越来越多,它们也会越来越复杂,总有一天人类将无法直接照顾这么多、这么复杂的机器人,我们要想办法让机器人自己来照顾自己。”(周小白)

以下为HodLipson对话速记:

提问:您真的会觉得机器人会拥有自主意识吗?你担心它拥有自主意识吗?

HodLipson:我的回答是肯定的,也是否定的。因为我认为不可避免的会出现这样一天,这个世界上的机器获得自我的意识。这是一个非常伟大的事件,因为我们现在在逐步给这些机器系统一点一点添加智能。最终,它们会给自己找到一个模型,它们最终要想明白,并最终明白自己是什么,自己能做什么和不能做什么。

这件事情将在10年之后发生,还是100年之后发生,我也不知道。但是,我比较确信的是我们的孙辈所生活的世界里,机器将会有自我意识。

我是否对此感到担心呢?我可以给您举一个例子,就是火的发现。火非常危险,也非常强大。但人类是否希望自己从未发现火呢?答案应该是否定的,因为有了火之后,使得我们能做很多之前做不到的、不可思议的事情。

具有自主意识的机器人也是如此,它是一种非常强大的技术,重要的是每一个人都认识到这种机器人能够做些什么、不能够做一些什么,就像火一样,我们知道它是强大而危险的,所以我们要确保将它用于好的事情上。

我个人在这个问题上保持乐观态度。我认为自主意识的机器人带来的好处将会远远超过它的风险,因此我们要追求发展这样一个技术,因为我们现在已经发展和运用了很多机器,而这些机器的数量将会越来越多,它们也会越来越复杂,总有一天人类将无法直接照顾这么多、这么复杂的机器人,我们要想办法让机器人自己来照顾自己。

提问:第一个问题,上过《自然》杂志封面的那个论文提到过粒子机器人没有单点故障,也没有集中控制。这个系统可以继续保持运行,它的阈值在什么范围内?因为现在测试下来是20%的粒子发生故障,整个系统还是能够保持运行,这个事情是对机器人鲁棒性的一个突破。

之前《科学》杂志的主编提到过现在所有人们认为机器人的意识问题,都是因为它的鲁棒性,机器人的鲁棒性如果真的够了,它就能产生意识吗?第二个问题,我不是非常理解刚才举的火的例子,因为火是没有自己意识的,它仍然只是一个工具,教授之前讲50年之后人可能和人工智能一起进步,就是人和人工智能共生的一个状态,在这样的环境下,人们会面临哪些伦理和社会上的挑战?

HodLipson:其实您是把很多问题都集中到了这两个问题。我先回答一下关于鲁棒性的问题,我们所做的粒子机器人把这个整体当成一个机器人。这种机器人我更想比喻成一个人的身体。我们的身体是由许多细胞组成的,这些细胞会产生、发展和死亡,不断地会有细胞死去。虽然有很多细胞都死掉了,但我还是我,你还是你。

那么到底我们能让多少细胞死,而不改变自己的性质呢?到底是20%,还是30%呢?其实,我们知道人体的细胞不断地在死亡,这是一个持续的过程,同时也会有新的细胞不断产生。

换句话说,我们的身体是由一个个不可靠的部分组成,这些部件本身会死亡、坏掉,但是新的部件会不断出现,反复的出现,我们这个整体还是我们自己。

做机器人主要在于新思路,你谈到了它的鲁棒性,你也提到了所谓的20%。其实这个20%只是我们测的一个数字而已,我们更关心的是一个想法,就是如何建造一种机器人,像人体一样,能够用这些不可靠的部件组成它,但是它作为一个整体仍然是像人体一样,可以正常的运行。

这一点和我们今天造机器的想法完全不一样,比如我们现在造的飞机,它由很多部件组成,其中任何一个部件都有自己特定的功能。假如这个部件失灵了、出故障了,那这个飞机就是不能上天的。假如有一辆车其中一个轮子掉了,这辆车也就无法运行了。

我们现在希望以一种全新的思路来做机器人,它的鲁棒性和机器人是否有自我意识是无关的,我们更多的是把它想像成一种生物体。从生物体来讲,你的身体、头脑是维持运行所必要的部分,我们希望这种机器人有一个头脑,能够自我去建模,这样就能够发展起来。

我举火的这个例子,并不是因为它有自我意识。它并没有自我意识,主要还是从伦理的角度来讲,是说火也是非常非常强大、危险的。但是,它是人类文明真正开始发展的原因,有了火人类才能够吃以前吃不了的食物,能够建造以前建造不了的东西,能够在夜里看见东西,这一切极大的促进了文明的发展,但是同时火也是非常危险的。

所以,我们所有人都需要意识到火是非常有用的,非常强大。假如火失控,就会带来非常糟糕的后果。人工智能也是如此,它既强大又危险,这个技术非常值得我们拥有,但是我们要知道这种技术能强大到什么程度,并且给予它尊重,确保能够恰当地使用。

你提到的所有伦理问题,目前应该还是没有答案的。其实就在5年前,人工智能技术就已经开始发展了,但是没有人对它感到兴奋,它只是一个学科而已,也没有任何人担心它有一天会接管了全世界。

但是,在过去5年间,这一技术真的腾飞了。突然之间好像大家都在问这些伦理问题,但是正如我前面说过的那样,我们对这些伦理问题还没有答案,这个技术肯定会继续发展,而有自我意识的机器人也终将出现。

提问:粒子机器人是否能够在一个很小的空间内模拟宇宙?

HodLipson:你问粒子机器人能否模拟宇宙,我想我们这个机器人更多的是试图模拟生命,而不是模拟宇宙的发展和运行。

我们试图让它模拟生物,特别是动物的机制。我们试图认识我们身体里所存在的这些粒子,或者更确切的说是细胞,每一个单个细胞都是不可靠的,而且大脑并不指挥每一个单个的细胞,这些细胞通过自己的随机运动组合在一起,最终产生了每一个真实的个人。

这个也仍然是一个比喻,但是总的想法是它使我们能够试着模拟,或者试着复制一下生命的运行。

提问:随着自主机器人意识越来越强烈,现在越来越多人对这个感到担忧,与此同时包括腾讯在内的这些企业,提出了“科技向善”的理念。你是否听说过腾讯“科技向善”的理念,你对科技向善这个理念是怎么理解的?以及你觉得科技向善该怎么引领未来机器人、人工智能与人类命运的和谐发展。

HodLipson:这个问题非常好,作为人类来说,我们开始意识到这样一种强大的自主意识会出现,我们肯定会想到必须要确保这些技术会用于好的事情、善的事情。

但是,这种科技向善的想法在很多地方都有人提出来,并且大家在不断的重复。比如我所在的哥伦比亚大学,我们有一个非常类似的说法,叫做数据向善,就是把数据用于善的事情,这是所有人类都希望能做的事情,关键还在于怎么做到,如何确保技术总是以好的方式得到运用,这一点是非常难的,确保人工智能完全用于好的事情并不容易,因为这个技术非常易用,也不需要投入很多钱就能够用上。技术本身既可以被用来做好事,也可以被用来做坏事,关键在于人类文明和人类社会应该想怎么把它用于好的事情,而不是坏的事情。

关于怎么办目前我们还没有完全想清楚。将来是让人工智能去监督人工智能,还是采取什么别的办法?但是总的来说最终要靠人类的伦理,指导我们在一个机器能够自主做出决定的新世界里,确保这些技术仍然用于好的事情。

应该说任何这样的问题都没有一个简单的答案,但是我们必须走上这样一个历程,并且一步一步的往前走,我们现在要公开讨论它应该可以做些什么,不可以做些什么,我们要不断地进行研究。

在这个过程中,人类会逐步做出什么能做、什么不能做的决定,实际上在人类历史上我们发现了既强大又危险的技术,比如说核技术、基因技术的出现,基因技术如果被误用或滥用,它的结果也会很糟糕。比如化学的发展,它也有可能会被人用于做坏事,但是最终人类社会都选择把这些技术用于好的地方。

所以,在人类历史上我们曾经多次发现这些强大而危险的技术。但在大部分的情况下,人类社会作为一个整体做出了正确的决定。所以我本人是乐观的,我相信这次人类社会整体也将做出正确的决定。虽然,在某个时点上可能有少数人会做出少数错误的、不好的决定,但是作为一个整体,我们会做出正确的决定。

提问:通常人们会想科学家做机器人,是让它来模仿人类所做的一些动作,或者人类的功能。但是也有一些科学家做出来的机器人已经能做一般人做不出来的动作了,为什么要让机器人做到这些呢?

HodLipson:这个问题非常好,就像我们为什么要让人工智能或者机器人玩国际象棋、围棋一样。这个是一个挑战,我们会试着让人工智能和机器人做一些人觉得难的东西,看是否能让机器人学会这些技术。

这是自我的挑战,也是一个测试,就好像人工智能在最开始学国际象棋的时候,世界上绝大部分普通人是不可能战胜国际象棋大师的。因为,一般人都做不到,不过一开始大家肯定也认为人工智能也是做不到的。这对它是一个智力上的挑战,它会去学习,然后逐步做到这一点,这是智力上的挑战。

身体上的挑战也是一样的,我们会去问机器人能不能走路。走路这件事看上去非常简单,每一个儿童,甚至婴儿很小就开始学走路,并且学会了。但实际上教机器人走路比让它学国际象棋难得多,因为每一个人类都觉得我们特别擅长走路,所以我们不觉得走路这件事有什么难的,但是教机器人走路是非常困难的。

巴斯大学和其它的一些大学进行了特别多研究,才逐步让他们的机器人能够走路。在它做到走路之后,科研人员会想能不能让它跑起来,能不能让它在摔倒之后自己爬起来,能不能让它能爬山、爬墙,或者说能不能让它做一个后空翻。

几个月前,伯克利大学发布了一段视频,它的机器人在玩一个魔方,这个是一件非常小的事。因为只要是个人,他的手就能玩魔方,但是对机器人来说这是非常难的事情。

对于科研人员来说,让机器人做这些事情就是在爬一个阶梯,是人在身体和智力上能做到的这些事情,让它像爬梯子一样一个一个得掌握,并且试着看一看我们在这方面能够走多远。

这个技术是不是有用呢?

我或许可以举一个例子。让机器人做后空翻的动作可能本身想不出来有什么实际的用处,但是后面支持机器人走路、拿东西、做后空翻的这些技术有很多非常实际的应用。

提问:您的这项研究适合于哪方面的实际应用,比如医学或者其它的。在您的成果当中,未来还有哪些可以提升的方向?比如说更多、更快、更小的组件。

我听说您领导的研究团队里面有一个中国人,叫李曙光。您怎么评价中国在机器人研究和应用方面的贡献?

HodLipson:我先跟您讲一下我们的计划,我们预期必须把它做的更小。我们在设想这样一种机器人的时候,我们希望能够模拟成百上千个细胞一起运作的状况。事实上,我们现在能做到的只是几十个细胞进行这样的运行。我们希望有一天能够达到数百万、上千万的细胞一起组成的粒子机器人来运作,就像我们的身体一样。我们身体里有数十亿、上百亿的细胞,它们共同形成了我们。我们要这样做的话,就需要把它做的更小,我们需要使用纳米技术,或者说至少是微米技术,这是我们的下一个目标。因为在它的每一个部件足够小之前,是不可能有实用场景的,因为在大的规模上没有办法实现细胞之间永续的更新,如果它足够小,能够做到很多有趣的事情。

比如说我们现在看到工厂里的机器人,乃至你家里的吸尘器,现在都是一些大的部件坏了,整个机器就不能运作的部件组成的。将来它们也可以由这样一个一个小的细胞组成,它的好处有很多。

首先,就是它能够应对某个部件出现故障,但是整体不会出问题,可以完全循环。在今天我们看到的这些机器是不能够循环的,机器坏掉之后相当于把它埋葬了,或者说这个机器的某个金属部件、塑料部件是可以循环的,但是机器作为一个整体是不行的。

但是生物体不一样,生物体是可以百分之百循环的。比如说你吃掉了一只鸡,你就能够充分利用鸡提供给你的蛋白质,如果你吃了植物或者素食,你也会充分利用它给你提供的一切,因为你的身体会把它所提供给你的有用物质进行循环,从氨基酸开始,然后对它实现充分的利用。

我们现在希望能够有一种物理的机器,使它也能够实现这样的循环,这样它就由数百万、上千万的小部件组成,形成这样一个小粒子的生态系统。只有实现这样的生态系统,才有机会使我们维持使用很多机器的人类文明生生不息,因为这些机器自己可以照顾自己,但是应该说这是一个非常长远的目标,这不是一个明天就能用上的技术。

提问:能够用两个词谈一谈对于腾讯明天WE大会科学精神的理解吗?并且讲一下故事,教授这边是不是采取了什么行动,来防止相关的技术被误用,是否存在一些规则,如何对相关的技术进行监管?

HodLipson:我非常期待明天的大会,而且我知道大会涉及到很多不同的主题,内容都非常有趣,这也使我想到中国和美国科学界的合作。

您提到我团队里面有中国人,其实我那里总共有10个博士生,里面有四个中国人,从硕士的学生来说,数量就更多了,大概占到了一半,可能大概有10多个。

所以,不管是哥伦比亚大学还是其它大学,其实都是如此。我想这也表明中美在这个领域的合作比历史上任何时候都要多,不仅在我们的项目组有中国学生,在大学的教职员工里面也有不少的中国人。

人工智能和机器人领域尤为如此,在这个领域发表论文的数量,中国、美国、欧洲数量大致是一样的,我们也知道在中国、美国,在世界上很多地方都存在着很多竞争,但是在人工智能和机器人的世界里,世界确实是平的。

其中部分原因是因为这个领域对资本投入的需求很低,因此你不需要投入大量的资金,就可以去研究和发展这个技术,所以每一个人感兴趣都可以参与进来。另外一部分原因是在人工智能和机器人的领域,我们分享意识是非常强的,迄今为止这个领域所取得的每一项成就都是开源的,这也大大促进了国际合作。

至于监管的问题,从目前来看,我们唯一能做的就是不断的谈论这样的事情,我们绝对不能关上门搞开发,要保持百分之百的开放。在我们的实验室白天黑夜都有记者找我们,他们会来拍照,会问问题,而且有些时候会问非常难回答、根本就没有答案的问题。

在机器人技术的发展领域,我想这是唯一的出路。可能我们进行大量的交流还不能确保这个技术一定是用于好的事情,但是至少通过这个讨论,人们可以了解到这种技术的危险性何在,而不是在未来某一天突然被它吓坏了。

提问:单个粒子机器人现在的收缩状态直径是15厘米,您刚刚提到在它做的足够小之前是不太可能应用的,大概要等多少年时间才有可能做到微米级、纳米级?在这期间会遇到什么难题?如果真的做到纳米级、微米级,这个粒子机器人具体落地应用场景大概是什么样的?可以举几个例子描述一下吗?

HodLipson:需要多少年才能达到你说的这个尺度我确实不知道答案。这个研究的进展并不仅仅取决于研究的难易程度,还涉及到是否能够得到资金支持,是否有学生对这个课题感兴趣。可能他们会被其它的技术所吸引,这些都是一些影响因素。

但是,我个人仍然觉得它会在我们的有生之年达到微米。比如10年,或者说我不会想像做的比微米更小,我不会真的想像那时候就能做到纳米级,但是或许我们只能做到毫米级的,比如说像小的砂糖颗粒一样,毫米级的,那时候就可以做这样的细胞。

没有办法把毫米级的粒子机器人到人类的血管中去,或者我们现在想像的那些医学中特别先进的应用,可能还是做不到,但是它应该可以成为一些机器的组成部分,这些机器能够行走、恢复、重复使用。

比如在外空有一些需要做的工作,或者是如果我们需要登上月球的话,我们就需要这些机器人能够根据任务的需求,改变自己的形态,在一些地方可能把材料运过去非常昂贵,我们需要重复使用我们的机器人,让它能够根据任务需求进行形态的调整。我个人想像,这很可能是这种机器人比较早的应用形态。

提问:有人说中国和美国在人工智能、机器人领域的不同是中国可能研究更偏应用一点,美国可能在基础研究做的更扎实一点,怎么看待中美在这两个领域当中研究发展程度的不同?中国人工智能领域在基础研究方面的缺乏和不足会不会对未来应用造成一些影响?

HodLipson:我不太确定我看到的情况和您的这个描述是一致的。因为我觉得中国也有很多人在做应用和基础研究,也有很多美国人在做应用方面的研究,中国这边也是两方面研究都有。

应该说这个领域的研究一直都是混合的。在机器人和人工智能领域,一向都是这两种,并不总是两分法的判断,很多人都是同时在做的。而且你很少看到有人只会研究某个特定的应用。比如说只研究某个医学的应用,或者某个康复功能的应用,或者他只关注于自动驾驶的机器人,更准确的描述就是这个领域非常广泛,确实没有人能够把所有的细分学科、某个技术细节都关注到。

但是在这两个国家都有大量的人做各种各样的研究,所以恐怕不能一下子判断中美出现这样一种不同偏好的原因。

即便在我自己的实验室,有的研究人员比较重视应用。我们有一个项目是能做“抓”这个动作的机器人,他们会和工厂有很多的联系,去看现有这样的机器人和我们自己的机器人,能不能保证它抓10万次不出故障。

此外也有特别关注于机器人创造力和自我意识的人,这个更具有哲学性的思考。恐怕只能说这个领域的内容如此丰富,所以一个人恐怕没有什么都关注到,但是放在国家尺度上,两国都既有实用研究,也有大量的基础研究,这就是我们这个学科和其它学科不一样的地方。

比如天文学肯定要做大量理论研究。我们这一行是不一样的,机器人这个领域有很多商业的力量参与,也有很多政治、经济的力量参与,这个领域的钱非常多,比如说百分之百人工智能驱动的无人驾驶汽车,在这个领域投入了大量的资金,它非常热,有来自于各个方向上的压力和兴趣,所以可能像这样的一些特定细分领域会吸引到更多的关注,但其实在更广泛的人工智能和机器领域,实用和理论基础性的研究都在广泛进行。

责任编辑:ct

版权声明:本文内容由互联网用户自发贡献,该文观点仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌抄袭侵权/违法违规的内容,一经查实,本站将立刻删除。

上一篇

下一篇