今天的人工智能还不能做的7件事
迁移学习技术已经取得了一些初步的成果,但这只是计算机在跨领域思考道路上前进的一小步。一个能像福尔摩斯一样,从犯罪现场的蛛丝马迹,抽丝剥茧一般梳理相关线索,通过缜密推理破获案件的人工智能程序将是我们在这个方向上追求的终极目标。
抽象能力
抽象对人类至关重要。漫漫数千年间,数学理论的发展更是将人类的超强抽象能力表现得淋满尽致。最早,人类从计数中归纳出1,2,3,4,5的自然数序列,这可以看作一个非常自然的抽象过程。
人类抽象能力的第一个进步,大概是从理解“0”的概念开始的,用0和非0,来抽象现实世界中的无和有、空和满、静和动………这个进步让人类的抽象能力远远超出了黑猩猩、海豚等动物界中的“最强大脑”。
接下来,发明和使用负数一下子让人类对世界的归纳、表述和认知能力提高到了一个新的层次,人们第一次可以定量描选相反或对称的事物属性,比如温度的正负、水面以上和以下等。
引入小数、分数的意义自不必说,但其中最有标志性的事件,莫过于人类可以正确理解和使用无限小数。比如,对于1=0.99999……这个等式的认识(好多数学
不好的人总是不相信这个等式居然是成立的),标志着人类真正开始用极限的概念来抽象现实世界的相关特性。
计算机所使用的二进制数字、机器指令、程序代码等,其实都是人类对“计算”本身所做的抽象。基于这些抽象,人类成功地研制出如此众多且实用的人工智能技术。
那么,AI能不能自己学会类似的抽象能力呢?就算把要求放低一些,计算机能不能像古人那样,用质朴却不乏创意的“一生二、二生三、三生万物”来抽象世界变化,或者用“白马非马”之类的思辨来探讨具象与抽象间的关系呢?
目前的深度学习技术,几乎都需要大量训练样本来让计算机完成学习过程。可人类,哪怕是小孩子要学习一个新知识时,通常只要两三个样本就可以了。这其中最重要的差别,也许就是抽象能力的不同。
计算机就很难做到这一点,或者说,我们目前还不知道怎么教计算机做到这一点。人工智能界,少样本学习、无监督学习方向的科研工作,目前的进展还很有限。但是,不突破少样本、无监督的学习,我们也许就永远无法实现人类水平的人工智能。
知其然,也知其所以然
目前基于深度学习的人工智能技术,经验的成分比较多,输入大量数据后,机器自动调整参数,完成深度学习模型,在许多领域确实达到了不错的效果,但模型中的参数为什么如此设置,里面蕴含的更深层次的道理等,在很多情况下还较难解释。
人通常追求“知其然,也知其所以然”,但目前的弱人工智能程序,大多都只要结果足够好就行了。
想一想中学时学过的“一轻一重两个铁球同时落地”,如果人类仅满足于知道不同重量的物体下落时加速度相同这一表面现象,那当然可以解决生活、工作中的实际问题,但无法建立起伟大、瑰丽的物理学大厦。
而计算机呢?按照现在机器学习的实践方法,给计算机看一千万次两个铁球同时落地的视频,计算机就能像伽利略、牛顿、爱因斯坦所做的一样,建立起力学理论体系,达到“知其然,也知其所以然”的目标吗?显然不能。
几十年前,计算机就曾帮助人类证明过一些数学问题,比如著名的“地图四色着色问题”,今天的人工智能程序也在学习科学家如何进行量子力学实验。但这与根据实验现象发现物理学定律还不是一个层级的事情。至少,目前我们还看不出计算机有成为数学家、物理学家的可能。
常识
人的常识,是个极其有趣,又往往只可意会、不可言传的东西。
仍拿物理现象来说,懂得力学定律,当然可以用符合逻辑的方式,全面理解这个世界。但人类似乎生来就具有另一种更加神奇的能力,即使不借助逻辑和理论知识,也能完成某些相当成功的决策或推理。
深度学习大师约书亚·本吉奥举例说:“即使两岁孩童也能理解直观的物理过程,比如丢出的物体会下落,人类并不需要有意识地知道任何物理学就能预测这些物理过程。但机器做不到这一点。”
那么,人工智能是不是也能像人类一样,不需要特别学习,就可以具备一些有关世界规律的基本知识,掌握一些不需要复杂思考就特别有效的逻辑规律,并在需要时快速应用呢?
拿自动驾驶来说,计算机是靠学习已知路况积累经验的。当自动驾驶汽车遇到特别棘手、从来没见过的危险时,计算机能不能正确处理呢?也许,这时就需要一些类似常识的东西,比如设计出某种方法,让计算机知道,在危险来临时首先要确保乘车人与行人的安全,路况过于极端时可安全减速并靠边停车,等等。
自我意识
显然,今天的弱人工智能远未达到具备自我意识的地步。至今,我们在自己的宇宙中,只发现了人类这一种具有自我意识的生物。茫茫宇宙,尚无法找到如《三体》中所述的外星智慧的痕迹。这一不合常理的现象就是著名的费米悖论。科幻小说《三体》用黑暗森林理论来解释费米悖论。而费来悖论的另一种符合逻辑的解释就是,人类其实只不过是更高级别的智慧生物养在VR实验室里的试验品而已,人类的所谓自我意识,也许不过是“上帝”为了满足我们的虚荣心而专门设计的一种程序逻辑。
好了好了,不聊科幻了。拥有自我意识的人类能否在未来制造出同样拥有自我意识的智能机器?在我看来,这更多的是一个哲学问题,而非一个值得科研人员分心的技术问题。
审美
虽然机器已经可以仿照人类的绘画、诗歌、音乐等艺术风格,照猫画虎般地创作出电脑艺术作品来,但机器并不真正懂得什么是美。
审美能力同样是人类独有的特征,很难用技术语言解释,也很难被赋予机器。审美能力并非与生俱来,但可以在大量阅读和欣赏的过程中,自然而然地形成。审美缺少量化的指标,比如我们很难说这首诗比另一首诗高明百分之多少,但只要具备一般的审美水平,我们就很容易将美的艺术和丑的艺术区分开来。审美是一件非常个性化的事情,每个人心中都有自己套关于美的标准,但审美又可以被语言文字描述和解释,人与人之间可以很容易地交换和分享审美体验。这种神奇的能力,计算机目前几乎完全不具备。
情感
2016年3月,谷歌AlphaGo与李世石“人机大战”的第四盘,当李世石下出惊世骇俗的第78手后,AlphaGo自乱阵脚,连连下出毫无道理的招法,就像一个本来自以为是的武林高手,一下子被对方点中了要害,急火攻心,竟干脆撒泼要赖,场面煞是尴尬。那一刻,AlphaGo真的是被某种“情绪化”的东西所控制了吗?
我想,一切恐怕都是巧合。AlphaGo当时只不过陷入了一种程序缺陷,机器只是冷冰冰的机器,它们不懂赢棋的快乐,也不懂输棋的烦恼,它不会看着对方棋手的脸色,猜测对方是不是已经准备投降。返回搜狐,查看更多
不过,抛开机器自己的情感不谈,让机器学着理解、判断人类的情感,这倒是一个比较靠谱的研究方向。“人工智能教父”杨立昆:ChatGPT没那么厉害
本文来自微信公众号:巴伦周刊(ID:barronschina),作者:金泰,题图来自:视觉中国
ChatGPT或GPT-4并没有什么令人惊讶或者秘不可宣的地方,除了它们可以公之于众这一事实之外。
请大家平静一下。对生成式人工智能技术进步的兴奋已经达到了狂热的程度,随之而来的是一系列极端的担忧。散布恐惧者分为了两大阵营:要么认为人工智能很快就能创造一个巨大的反乌托邦未来,要么认为它即将对人类的生存构成威胁。
上个月,包括埃隆·马斯克(ElonMusk)和一些人工智能大师在内的一群科技业高管,呼吁暂停开发先进的人工智能系统6个月,以便该行业能够建立针对有害结果的保障措施,这让这场危机火上浇油。这些科技业高管呼吁暂停创新既是前所未有的,也是毫无必要的。
《巴伦周刊》科技栏目最近就人工智能的现状、ChatGPT的兴起以及为什么要求暂停人工智能研究是错误的观点,与MetaPlatforms(META)首席人工智能科学家杨立昆(YannLeCun)进行了交流。
杨立昆是人工智能行业最杰出的科学家之一,他一直直言不讳地批评那些夸大ChatGPT等人工智能聊天机器人所使用的基础技术能力的人。
他是纽约大学(NewYorkUniversity)的教授,2013年加入了Facebook(现在改名为Meta)。与杰弗里·辛顿(GeoffreyHinton)和约书亚·本吉奥(YoshuaBengio)一起,杨立昆因围绕深度学习技术的研究而获得了2018年ACM图灵奖——计算机领域的诺贝尔奖,这些技术已经成为现代人工智能技术的基础。这三位科学家因其在人工智能领域中的工作而经常被称为“人工智能教父”。以下是我们与杨立昆经过编辑后的谈话摘录:
《巴伦周刊》:请解释一下ChatGPT和大型语言模型(LLM)背后的技术是如何工作的?
杨立昆:你可以把它想象成一个超级强大的预测键盘。大型语言模型首先要对大量的单词进行训练,我们向模型展示一个单词窗口,并询问它下一个单词是什么,它将预测下一个单词,填入这个单词,然后问自己下一个单词是什么。
《巴伦周刊》:这些模型擅长什么,又不擅长什么?
杨立昆:它们适合担任写作助手,可以帮助你用正确的语法风格来表述事情。但是对于回答事实类问题,它们干得并不是很好,因为这种模型要么是反刍存储在其记忆中的内容,要么是反刍一些类似于它在训练数据中读取的各种内容的组合或者插值,这意味着它可能会发生事实上的错误,或者它只是在编造一些听起来不错的东西。
《巴伦周刊》:为什么人工智能聊天机器人有时在准确性方面存在这么大的问题?
杨立昆:当你拥有一个基本上是这样一个字一个字地预测的系统,你就很难进行控制或者操纵,因为它们会产生什么,完全取决于它们训练的统计数据和给定的提示。
在数学上来说,它很有可能与正确答案的路径呈现出指数性的偏离,它生成的答案越长,最终答案是彻头彻尾的垃圾的可能性就越大。
《巴伦周刊》:你为什么如此反对要求人工智能开发中止六个月的联名信?
杨立昆:我同意人工智能是一项强大的技术,必须负责任和安全地部署和开发。但我不认为停止研究和开发六个月是正确的答案。这根本无济于事,而且也非常天真,因为没有人会这么做。
让我们来看看在这封信上签名的人的类别。第一类是最令人震惊的:真正的末日预言家。他们说我们正在制造的机器最终会像人类一样聪明。而一旦发生这种情况,人类就完了。
我觉得这太愚蠢了,而且他们肯定搞错了。这是基于人工智能系统不易控制、很难提出符合人类价值观的目标的想法。但我们可以设计目标,以便它们能够正确行事。
第二类是担心直接伤害的人。有了大型语言模型,你可以产生无意义和错误的信息。一些人担心互联网将被机器生成的内容所淹没,这些内容具有误导性,用户可能会被洗脑。我也不相信这种情况,因为它已经存在了。人们的适应能力很强,他们已经学会了如何应对新媒体。
第三类是担心少数科技公司生产的人工智能产生的系统性社会影响。我还是不同意这种观点。部分原因是因为我为Meta工作,我能从内部看到科技公司的动机是什么。
《巴伦周刊》:OpenAI的技术与谷歌、Meta和其他初创企业的AI技术相比如何?
杨立昆:OpenAI似乎有点走在了游戏的前面,因为他们比其他人更早地开始训练那些大型系统,并根据用户反馈进行微调的过程。但是ChatGPT或GPT-4并没有什么令人惊讶或者秘不可宣的地方,除了它们可以公之于众这一事实之外。
自然语言理解并不是一项新技术。这是相同的技术,transformer(机器学习模型)的整个想法来自谷歌。Meta、谷歌和一些初创公司的很多人已经开始研究这项技术,有成百上千的科学家和工程师知道如何搭建这些东西。
你之所以没有(更早)在谷歌和Meta上看到类似的系统,是因为对于一家大公司来说,推出一个不完全可靠、可以发布无稽之谈的系统,会对其声誉造成更大的损失。
《巴伦周刊》:当机器能够自己学习和思考时,我们是否已经接近通用人工智能(AGI)?
杨立昆:有人声称,通过扩展这些大型语言模型系统,我们将达到人类的智力水平。我的观点是这是完全错误的。有很多事情我们不明白,比如我们还不知道如何用机器进行再生产——有些人称之为AGI的东西。
我们不能使用像ChatGPT或GPT-4这样的技术来训练机器人清理桌子或者填满洗碗机,即使这对一个孩子来说是一件微不足道的任务,我们还是做不到。我们仍然没有实现L5级完全自动驾驶。这需要一套完全不同的技能,你无法通过阅读文本来进行学习。
《巴伦周刊》:什么时候有可能?
杨立昆:未来五年,我们将取得重大进展。但我不认为我们能达到人类的智力水平,这还需要很长时间。每次出现这种预测时,我们都低估了人类智力的复杂性。
《巴伦周刊》:谢谢你的时间,杨。
本文来自微信公众号:巴伦周刊(ID:barronschina),作者:金泰
为什么人工智能下围棋,算圆周率很厉害,但无法证明数学猜想
为什么人工智能下围棋,算圆周率很厉害,但无法证明数学猜想?
人工智能是研究、开发用于模拟、延伸和扩展人的智能的理论、方法、技术及应用系统的一门新的技术科学。这个高大上的名词,是当下最火热的一个研究领域。各大科技公司都在人工智能领域投入了巨大的人力物力。仿佛稍微懈怠一下就会失去公司未来一样。
AI技术是用先进的算法来实现本来应该由人工实现的动作,比如无人行驶,智能语音,机器视觉,人脸识别等等。
人工智能(AI)最著名的应用就是2016年,DeepMind的AlphaGo大战人类顶尖棋手李世,并以4:1的巨大分差几乎横扫了李世。到现在我都记得当时看直播的时候激动的心情,也就是在那一年,人工智能彻底流传开来。
虽然现在人工智能显得很智能,已经给我们的生活带来了巨大的改善,但是归根到底,人工智能并不是我们理解的智能。首先AI没有自己的思想,不会对眼下的状态分析给出创造性想法。只不过是我们人类赋予了他们高级算法,他们可以很好地理解并且执行这些算法,执行到最后给我们的感觉就是,AI已经表现得相当聪明了。然而这却远远不够,这仅仅是一个开始。
在我看来,人工智能的最终结局就差不多是终结者系列里的红皇后一般,有思维,有逻辑判断,甚至还会有个人情感,除了硬件不是肉体之外,其余跟正常人类无异。这还要有太多太多发展的时间了。
这么一说,那么为什么现在的人工不能破解一些著名的数学难题就比较好理解了。真正的数学难题被困扰了很久很久,很少是因为我们只是在眼下的理论中没有找到方法来解决,基本上都是缺少一种直接有效的数学工具,也就是说你要创造出一种全新的数学工具才有可能解决最后难题。
目前数学界已经达成共识了,无论你用什么精巧的筛法都已经不可能哥德巴赫猜想的1+1了,筛法到了陈景润这里就停止了。要不然,五六十年来,数学界蓬勃发展的年代,不可能在这个问题上没有丝毫进展。大家都期待着新方法新思维的出现。
有创造性思维和想法,这一点对于顶尖的人类科学家都非常困难,更别说是对于当今还处在幼年时期的人工智能了。我们不排除以后人工智能空前强大,强大到理性与创造性思维并存。那个时候,机器才有可能从另外一个方向上给出方法来直接解决这个难题。
也许,那个时代才是人类最幸运的巅峰。
人工智能工资待遇怎么样
企业服务
公司搜索查工资看面经数据合作通道使用与帮助
用户协议及隐私政策使用帮助意见反馈关于我们联系看准
北京华品博睿网络技术有限公司公司地址:北京市朝阳区太阳宫中路16号院1号楼18层1801内09涉及未成年人及违法和不良信息举报邮箱:support@kanzhun.com违法和不良信息举报电话:400-612-9066工作日:9:00-18:30老年人直连热线:400-661-6030工作日:8:00-22:00休息日:9:30-18:30kanzhun.com
看准网小程序
看准网公众号
看准网APP