人工智能:对其无知,才会恐惧
作者:秦曾昌
“我们这些学习人工智能的人赶上了一个好时候,”北京航空航天大学智能计算与机器学习实验室主任秦曾昌说。虽然仅仅15年前,他在英国布里斯托大学攻读“机器学习和数据挖掘”硕士和人工智能博士学位时,普通公众中还很少对人工智能有如此浓厚兴趣。
过去几十年来,人工智能研究取得显著进展,并走出实验室,呈现技术扩散趋势。某些计算机算法的完善程度已足以替代人类,更好地解决现实问题。相对已在军事、金融和医疗等专业领域得到深入应用的专家系统,真正让普通公众意识到人工智能重要性的,还是近来搜索引擎、社交网络的普及以及智能手机中的大量模式识别应用。
学术界和产业界普遍认为,人工智能的这次“复兴”有着与以往不同的历史意义。
“我们今天已离不开通讯和信息,各种聪明的算法能够对信息获取、存储、传送、交换和理解产生极大帮助和促进,所以人工智能应用前景非常光明,发展速度也会随着计算机技术的发展而不断加快。”秦曾昌对《上海交大巴黎高科评论》说。
随着Google、百度等科技巨头纷纷举起人工智能大旗,全社会开始从不同角度和层面对人工智能进行解读,甚至误读。那么,在专业学者眼中,人工智能技术究竟发展到了何种程度?我们对机器智能时代的到来到底应该欣喜还是恐惧?
访谈:AlphaGo是否称得上重大技术突破?
上海交大巴黎高科评论:日前,谷歌的AlphaGo与人类围棋能手大战,让人工智能受到了舆论的空前关注。是否可以介绍一下,人工智能大致可分为哪些研究分支?各自的技术应用现状和商业前景如何?
秦曾昌:人工智能话题在今天的流行,很大程度上也是因为商业公司的推动,包括微软、谷歌等等,它们在自己的产品和服务中大量使用人工智能技术,在人们生活的很多方面发挥了实际作用,可以说,人工智能技术其实很早就走出了学院和实验室,本身虽然属于非常前沿的领域,但与日常生活并没有想象那么遥远。
虽然媒体和公众对人工智能的讨论很多,看法有悲观也有乐观,产业投资也是时冷时热,但人工智能的学术研究其实一直在稳步推进。尤其在发达国家,产业与学界在这方面一直保持着密切的关联和互动。和其他技术相比,隶属于计算机科学的人工智能,从研究到商业化的速度更快,可能去年才发表的论文,今年就变成硅谷名校的学生作业,甚至很快变成了产品,这和行业属性有关,所有人反应都很快。
从大的研究潮流来看,“传统”人工智能研究,大部分由计算机科学家主导,但发展到今天,人工智能出现很多外延,引入了心理学、神经学等研究方法,但背后的终极目的,是理解人的智能或制造智能机器,或者兼而有之。
人类想让像鸟一样飞上蓝天,于发明了飞机,飞机是运用鸟的飞行原理做出的能提供相同功能的机器,而不是一模一样的“鸟”。这也是计算机科学家的研究人工智能的方式。我们发明的计算机,绝大多数是为弥补人类脑力的不足,延伸人的计算能力和信息处理能力,并不要求机器工作方式与人类大脑工作机理完全一样。无论从工程角度还是数学角度,人工智能还是工具,是为了服务于人类。
当然,另外一些研究方式,主要是神经学,研究对象其实是人的意识和思维,是为了对其做出解释,这方面已有大量研究成果,最近我就看过一篇文章专门研究大脑如何定位,哪些细胞担负着类似GPS的地理定位功能,等等。这些成果逐渐和人工智能研究产生了交叉和对接。
具体到研究分支,最简单的办法是参考国际人工智能联合大会(International Joint Conference on Artificial Intelligence, 简称为IJCAI)的投稿内容,包括自然语言处理、图像识别、知识表示、多代理系统,甚至模糊逻辑、多值逻辑等,都算是人工智能的学术分支。
目前应用最为广泛的研究成果来自哪些分支?
这个很难界定,只能说被人们更频繁提及的日常应用当中,计算机视觉、语音识别和自然语言处理方面的技术稍微多些,主要用在人机交互和搜索上。搜索先是利用和处理大量文本,后来延伸到图像、视频搜索。还有一些与日常生活直接相关的应用如语音、指纹掌纹、生物识别等,也是成果比较多、进展比较迅速的。
这些分支和现在广受关注的“机器学习”是什么关系?
“机器学习”本身是人工智能的一个分支,它强调算法的有效性,就是用数据来训练算法,让机器自动具备学习和泛化能力,但是渐渐地,机器学习成了人工智能中最成功的分支之一,里面的思想渗透到各个领域。包括自然语言处理和图像识别,其背后的很多算法都是机器学习算法。机器学习分支本身既关心应用,更关心研究的扩展和深入。
机器学习是不是也有很多不同的方式?
是的,最常见的叫“有监督学习”(Supervised Learning)。举个例子,给机器一个数据库,数据有各种特征,如“身高”、“体重”、“头发颜色”等等,但每条数据有“男”和“女”标签,让机器去从这些数据特征和标签的关联中找到固定模式,形成算法模型,然后针对新输入的身高、体重等数据来判断性别,这就是“有监督学习”。
相反,“无监督学习”没有标签,让机器根据数据自己统计出特征,比如即使没有“男”、“女”标签,机器也能根据数据规律性,把具有相似特征的归为同一类。换一组数据作为度量尺度(measure),机器还可能最终将数据按照儿童、青年、老人分成三大类(当然,机器自己并不知道这种区分的具体现实意义,而只是依据某组数据特征做出的分类)。这种不需要人类事先分类标记的算法学习,叫“无监督学习”(Unsupervised Learning)。
我们从AlphaGo身上看到的,其实是另一种非常重要的机器学习方式,叫增强学习(Reinforcement Learning)。简单来说,机器在采取一个动作时,并不会得到反馈,但经过一系列动作,沿着一条路径完成一个过程,最终得到了或正或负的反馈,和相对应的奖励或惩罚值。这就好像要设计一个走出迷宫的路径,第一步往左还是往右是随机选择,一系列随机选择过后,可能进入死胡同,也可能走出了迷宫。机器根据结果回溯过程,选择(学会)成功的模式(算法),就是增强学习。
所以数据规模对机器学习的效率很关键。那么未来是否有可能,机器学习(或者说人工智能)可以跨过数据,通过直接模拟人脑学习机制来实现?
我不确定你说的“直接模拟”具体如何模拟,所以无法给出答案。但就目前AlphaGo所代表的机器学习方式而言,它面对的是一个特别大的搜索空间,需要很多人的经验来把这个搜索空间变得更小、更有序。就像要在篮球场里寻找一个乒乓球,没有任何条件限制时,只能一寸一寸地排除,但如果你了解某些线索,比如篮球馆经常把乒乓球台摆在什么地方、人们打乒乓球时的移动范围、球掉在地上滚动的距离等,找到的可能性就会大一些。 数据可以帮你更快找到想要的东西和答案,没有数据或任何信息,你虽然知道乒乓球就在这个篮球馆里,却只能慢慢去找。问题是,这个时间成本太大,或者空间大到不允许你一寸一寸地去找。所以,必须有一些限制性条件,来减小搜索空间。
AlphaGo吸引到如此多眼球,但它是否称得上重大的技术突破?
在其专业领域绝对是很不错的技术突破,但个人不觉得它可以代表广义上人工智能技术突破,用人工智能下围棋,它绝对是目前的最高境界了,以前从未达到过这种程度,但它能被用在其他地方产生同样的效果吗?可能有些领域可以,但不能简单得出结论它代表着整个技术的突破。
我们常常用“计算能力”、“存储能力”等来衡量计算机技术的进展。那么,是否存在某些具体指标,可以帮助人们衡量人工智能技术的成熟度?
不能说有非常确定的技术指标,不同领域会有不同突破。到了一定时点,人工智能在各种能力上都将超越人类。方便直观理解,你可以说某个算法成熟的标志是其在特定功能上超过人类。比如说人类在做大量检索方面,图书馆这种技术在很早之前就落伍了,一个简单的数据库就可以代替,互联网出现之后,数据库也不够用了,要设计新的算法来帮助进行搜索,但在这方面,人类能力早已没有任何招架之力。再比如,银行有大量数据,依靠人工监测和发现信用卡盗刷的情况简直太难了,只能设计一种算法来跟踪数据的变化,找出一些很弱的模式,发现数据反常的情况。在这样的领域,机器的能力早已经远远超过了人类。在另外一些领域,比如图片识别、自动驾驶,机器的能力虽然还没有达到人类的水准,但在稳步发展中,也许会在很多方面不断超越人类。
我们真正应该担忧的是什么?人们常常用 “弱人工智能”、“强人工智能”和“超人工智能”对人工智能的发展阶段进行区分,这样的处理有专业依据吗?
这种界定大多是科普类作品的做法,目的是为了方便大众理解。但这并不是严格的科学研究分类,没有哪个学术会议会说我专门探讨强人工智能,或专门研究弱人工智能。
所以我们可能正处于人工智能历史上一波新热潮,在你看来,这种热度会一直持续么?还是很快又会迎来下一个低潮期?
低潮是必然的,现在很热,但会慢慢冷下去,这是历史发展规律,没有一件事情会持续热下去,而是呈现一种波动式发展。但把视角拉得更长远来看,这个学科在过去很长一段时间都是在很稳定地增长,包括人才的培养、人们的关注程度、在社会里面发挥的效应。
对“奇点”理论——笼统来讲,即人工智能将在几十年内发生爆炸式发展,并最终越过技术临界点,全面超越人类智慧——你怎么看?
我不想对此做出评价。但在专业领域之内,要评价人工智能首先要是一个人工智能专家,如何断定一个人是否是专家,只需看他有没有发表过关于人工智能的论文,在这个领域是否有建树,工作是否被同行所认可。不是出了一本书、提出一个假说,吸引了大量眼球,你就是这个领域的科学家或专家了。你抛出一种观点,社会上自然会有人赞同有人不赞同,但这只是一种社会现象。
公众当中,对人工智能的恐慌情绪确实是存在的。
但恐慌在人工智能专业研究人士中并不普遍。恐慌来源于未知,或者说越无知越恐慌。比较极端的例子,人们都觉得艾滋病很恐怖,但医生并不担心和艾滋病患者有身体接触,因为他们了解这种疾病,知道后果最严重会到什么程度。因为不知道会发生什么,脑子里充满幻想,才会产生恐惧感。
人们担心机器具备自由意志,但没有任何研究证据表明这个事情很快就会实现。不要说机器的自我意识,人类的自我意识到现在还尚未真正研究明白。真正从事人工智能的人很清楚事情为什么是今天这个样子,是否存在不可控的成分,到了什么程度。真实的情况远不是人们想象的那样。
任何技术都有其两面性,人工智能技术真正需要担忧的地方是什么?
人类怎么使用它,这才是问题的核心,是真正应该担忧的。一个机器人,你可以输入一个命令,让它救人,也可以让它杀人。它会严格按照你的指令去做,不管目的和后果如何。这跟人类发明的所有武器包括原子弹没有区别,人工智能技术只不过是让武器自动化程度更高一些而已。所以,关键是谁来使用,怎么使用。
和原子弹核武器这种大型工程相比,人工智能技术人人都可以开发,所有公司都能使用。要对其使用进行管理似乎也不容易,围绕无人驾驶汽车的争论就可见一斑。
新兴事物和技术确实会对行业行为和社会立法带来挑战,但绝不应该对技术本身进行约束。就像当年人们担心有人利用网络爬虫盗取私人数据,但这到底是爬虫技术本身的问题,还是人的问题?你会判爬虫技术去做牢么?显然不是技术的问题,而是使用技术的人违法了。所以,对风险的规避,首先是对人的行为的限制,而不是对技术发展进行限制。随着技术的发展导致人类行为发生改变,自然会有新的立法和规则出来。
人工智能:实现能力与伪需求你刚才提到,发达国家人工智能的科研与产业互动非常紧密,那么中国的情况如何?人才的分布和教育大致处于什么样的状态?
和国外的情况类似,国内做AI的人主要集中在两大领域,一个是比较好的高校和科研院所。但更重要的是科技企业,个人觉得微软当年在中国设立研究院,起了很大的推动作用,带回了很多国外人才,同时也培养了一批本土人才。随着中国互联网行业的发展,出现了百度、阿里巴巴和腾讯这样吞吐量很大的企业,很多年轻人进入这样的公司工作,直接或间接受到了人工智能技术的影响,接受了大量相关理念,这批人对社会产生了很大影响。
后者有点像硅谷模式。包括斯坦福、伯克利大学很多优秀的毕业生,直接被大公司接收,拿着非常高的薪水,所以就有更多的人愿意去学习这个技术。以前在伯克利上课,很多学生虽然本身不是人工智能专业,但也愿意学这方面的知识,不管是因为它新鲜、时尚,还是为了改变自己的工作方式,个人感觉,大学中对此感兴趣的人比以往多了很多。
在舆论和资本的推动下,出现了很多人工智能方面的创业公司,你觉得5-10年之内,这个市场对初创企业的机会大吗?还是主要会由谷歌、百度这样的大企业为主导?
别忘了,谷歌曾经也是个小公司。大企业拥有充足资源,做起事来更容易这是肯定的。但小公司也有空间,做好了就会变成大公司。大公司在与小公司竞争的过程中,有可能失败而消亡。这没法给出定论。
很多企业利用这次热潮努力传播人工智能概念,这在一定程度上促进了技术的研究和应用。但不管大小企业,在经营过程中都要注意两个问题,一是超越当前的技术实现能力去追求一些不切实际的产品设计;另一个是对市场需求出现误判,即伪需求,觉得消费者会需要某种产品,但其实人们并不需要。
短期来看,人工智能到底会给普通人的生活带来哪些深层次的改变?
就我能想象的而言,人工智能可能首先会替代人类从事一些简单的判断性工作,这方面还有比较大的空间。利用大量数据和跨平台的融合,优化决策。比如在医疗上,对癌症的病理进行图像诊断,一个医生一生看过的病例是有限的,尤其是年轻医生,那么当他/她没见过的病例出现时,该怎么判断,怎么治疗?这时就可以利用信息技术,把一个国家甚至世界范围内所有类似癌症病例集合起来做一个数据库,让机器对癌症病例进行自动识别,并于数据库中的历史病例进行特征匹配,从而辅助医生对癌症的性质和所处阶段等进行判断。
作者秦曾昌北京航空航天大学自动化学院副教授、北航科学技术传播研究中心秘书长。毕业于英国布里斯托(Bristol)大学获得硕士、博士学位。美国加州大学伯克利分校 (UC Berkeley) 博士后、牛津 (Oxford) 大学与卡内基梅隆大学 (CMU) 访问学者。目前主要研究方向为数据挖掘、跨媒体检索与自然语言理解。出版英文专著1本、编辑论文集1本和专业论文或章节80余篇。同时在IT工业界做机器学习、大数据、人工智能等专业技术咨询工作。作者欢迎对本文中的观点提出批评与讨论。
2023年人工智能领域发展七大趋势
2022年人工智能领域发展七大趋势
有望在网络安全和智能驾驶等领域“大显身手”
人工智能已成为人类有史以来最具革命性的技术之一。“人工智能是我们作为人类正在研究的最重要的技术之一。它对人类文明的影响将比火或电更深刻”。2020年1月,谷歌公司首席执行官桑达尔·皮查伊在瑞士达沃斯世界经济论坛上接受采访时如是说。
美国《福布斯》网站在近日的报道中指出,尽管目前很难想象机器自主决策所产生的影响,但可以肯定的是,当时光的车轮到达2022年时,人工智能领域新的突破和发展将继续拓宽我们的想象边界,其将在7大领域“大显身手”。
增强人类的劳动技能
人们一直担心机器或机器人将取代人工,甚至可能使某些工种变得多余。但人们也将越来越多地发现,人类可借助机器来提升自身技能。
比如,营销部门已习惯使用工具来帮助确定哪些潜在客户更值得关注;在工程领域,人工智能工具通过提供维护预测,让人们提前知道机器何时需要维修;法律等知识型行业将越来越多地使用人工智能工具,帮助人们对不断增长的可用数据中进行分类,以找到完成特定任务所需的信息。
总而言之,在几乎每个职业领域,各种智能工具和服务正在涌现,以帮助人们更有效地完成工作。2022年人工智能与人们日常生活的联系将会变得更加紧密。
更大更好的语言建模
语言建模允许机器以人类理解的语言与人类互动,甚至可将人类自然语言转化为可运行的程序及计算机代码。
2020年中,人工智能公司OpenAI发布了第三代语言预测模型GPT—3,这是科学家们迄今创建的最先进也是最大的语言模型,由大约1750亿个“参数”组成,这些“参数”是机器用来处理语言的变量和数据点。
众所周知,OpenAI正在开发一个更强大的继任者GPT—4。尽管细节尚未得到证实,但一些人估计,它可能包含多达100万亿个参数(与人脑的突触一样多)。从理论上讲,它离创造语言以及进行人类无法区分的对话更近了一大步。而且,它在创建计算机代码方面也会变得更好。
网络安全领域的人工智能
今年1月,世界经济论坛发布《2021年全球风险格局报告》,认为网络安全风险是全世界今后将面临的一项重大风险。
随着机器越来越多地占据人们的生活,黑客和网络犯罪不可避免地成为一个更大的问题,这正是人工智能可“大展拳脚”的地方。
人工智能正在改变网络安全的游戏规则。通过分析网络流量、识别恶意应用,智能算法将在保护人类免受网络安全威胁方面发挥越来越大的作用。2022年,人工智能的最重要应用可能会出现在这一领域。人工智能或能通过从数百万份研究报告、博客和新闻报道中分析整理出威胁情报,即时洞察信息,从而大幅加快响应速度。
人工智能与元宇宙
元宇宙是一个虚拟世界,就像互联网一样,重点在于实现沉浸式体验,自从马克·扎克伯格将脸书改名为“Meta”(元宇宙的英文前缀)以来,元宇宙话题更为火热。
人工智能无疑将是元宇宙的关键。人工智能将有助于创造在线环境,让人们在元宇宙中体会宾至如归的感觉,培养他们的创作冲动。人们或许很快就会习惯与人工智能生物共享元宇宙环境,比如想要放松时,就可与人工智能打网球或玩国际象棋游戏。
低代码和无代码人工智能
2020年,低代码/无代码人工智能工具异军突起并风靡全球,从构建应用程序到面向企业的垂直人工智能解决方案等应用不一而足。这股新鲜势力有望在2022年持续发力。数据显示,低代码/无代码工具将成为科技巨头们的下一个战斗前线,这是一个总值达132亿美元的市场,预计到2025年其总值将进一步提升至455亿美元。
美国亚马逊公司2020年6月发布的Honeycode平台就是最好的证明,该平台是一种类似于电子表格界面的无代码开发环境,被称为产品经理们的“福音”。
自动驾驶交通工具
数据显示,每年有130万人死于交通事故,其中90%是人为失误造成的。人工智能将成为自动驾驶汽车、船舶和飞机的“大脑”,正在改变这些行业。
特斯拉公司表示,到2022年,其生产的汽车将拥有完全的自动驾驶能力。谷歌、苹果、通用和福特等公司也有可能在2022年宣布在自动驾驶领域的重大飞跃。
此外,由非营利的海洋研究组织ProMare及IBM共同打造的“五月花”号自动驾驶船舶(MAS)已于2020年正式起航。IBM表示,人工智能船长让MAS具备侦测、思考与决策的能力,能够扫描地平线以发觉潜在危险,并根据各种即时数据来变更路线。2022年,自动驾驶船舶技术也将更上一层楼。
创造性人工智能
在GPT—4谷歌“大脑”等新模型的加持下,人们可以期待人工智能提供更加精致、看似“自然”的创意输出。谷歌“大脑”是GoogleX实验室的一个主要研究项目,是谷歌在人工智能领域开发出的一款模拟人脑具备自我学习功能的软件。
2022年,这些创意性输出通常不是为了展示人工智能的潜力,而是为了应用于日常创作任务,如为文章和时事通讯撰写标题、设计徽标和信息图表等。创造力通常被视为一种非常人性化的技能,但人们将越来越多地看到这些能力出现在机器上。(记者刘霞)
【纠错】【责任编辑:吴咏玲】人工智能的未来之路
人工智能的未来之路
演讲人:刘嘉 演讲地点:清华大学人文清华讲坛 演讲时间:2022年11月
演讲人简介:
刘嘉,麻省理工学院博士,心理学家,长期从事心理学、脑科学与人工智能研究。清华大学基础科学讲席教授、心理学系系主任、清华大学脑与智能实验室首席研究员、北京智源人工智能研究院首席科学家。
人的认知与大脑构造
为什么人如此难以理解?为什么这个世界总是让我们产生很多困惑?这是人类从有文明开始就一直存在的问题,道理其实非常简单。
首先,我们看见的世界只是这个世界中非常小的一部分,我们忽略了绝大部分的东西。
我们在清华做过一个小实验:一位戴黑色渔夫帽的女士在清华问路,在她问路的时候,我们安排一块隔板从戴黑色渔夫帽的女士和被问路的人之间穿过。当板子过来时,原来问路的女士抬着板子走开了,而原来抬板子过来的另一位戴蓝色渔夫帽的女士留了下来,由她继续问路。在7个被问路的人中,只有一个人注意到了提问人的变化。这个小实验的问路场景里,人们其实只看见了世界上非常小的一部分,由于这些是不重要的信息,人们就容易忽略掉这些信息。
但更可能发生的是,人们的认知还会扭曲这个世界。比如图1这一组图里,有两个拼在一起的方块图,一个颜色深一点,一个颜色浅一点,还有一个圆环,它的灰度介于两者之间,圆环左右两半颜色一样。但如果把两个方块图分开,大家一般都会觉得圆环的颜色一边变浅了,一边变深了,事实上,它们的颜色仍是完全一样的。再把这个圆环分开,变成上下移动,这时看见的东西有立体感了,好像是深灰色的东西盖上了一层浅色的毛玻璃,以及浅色的板盖上了深色的毛玻璃。
我们无时无刻不在观察这个世界,但又无时无刻不在扭曲这个世界,这到底是为什么?
这其实取决于我们的视觉系统。假如外部世界存在一个绿苹果,它会以大约100亿比特/秒的信息量进入我们的视网膜,视网膜通过约100万个神经连接,连接到视觉皮层,这个时候我们的信息流就从百亿比特/秒变成600万比特/秒;经过视觉初级皮层加工再传到高级皮层来决定看到的东西是什么时,信息流又变成了100比特/秒。这时信息量衰减了1亿倍。可见,当我们做决策时,我们获得的信息其实是非常有限的,所以我们就需要构造出新的东西,把缺失的信息补上,而我们的大脑就像魔术师一样来弥补这些缺失的信息。这一方面可以解释为什么有很多东西我们看不见——因为传输过程中已经被人脑衰减掉、过滤掉了;同时也可以解释,为什么有的人看见一个绿苹果会认为是红苹果——因为这个重构的过程是创造性的,不是简单复制。正是基于这个构造,我们也可以把一个苹果看成一个梨子,这是我们大脑构造的过程,是一个正常的现象。
人脑重构的意义
为什么我们的大脑不能像摄像机、照相机一样忠实客观地反映物理世界,为什么非要自己来重构这个世界?这样的人脑重构究竟有什么好处?
正如康德所言:“没有感觉支撑的知识是空的,没有知识引导的感觉是瞎的。”这句话的前半句说的是,如果没有外部的输入,我们很难构建自己的心理世界,但我想强调的是下半句“没有知识引导的感觉是瞎的”。如果你不知道你看的是什么东西,那你就等于什么都看不见。这是因为,这个世界是模棱两可的,需要我们去构造,把我们的理解加进去,只有这样我们才能真正知道这个世界究竟发生了什么。
与理解相比,更重要的是创造。当大脑没有被外部信息填满而留下空间时,我们能够在这空间里创造出自己想要创造的东西。正如《小王子》的作者圣·德克旭贝里所言:“一堆岩石在有人对着它思考时就不再是岩石了,它将化身为大教堂。”这就是人类了不起的创造——当我们的祖先跋山涉水来到一片荒原,他们看见的不是一堆乱石,而是未来的家园。所以,在过去的300万年里,人和猴子分开进化,人的大脑体积增加了3倍;但是,这体积并不是平均增加的,增加最大的地方在额叶:与200万年前的祖先能人相比,我们的头骨往前突出,以容纳更大体积的额叶,而强大的额叶使我们能构造出不存在的东西。比如我们的祖先准备去打猎,不用等看见猎物才做出反应,他只需要提前想象狩猎的情景,就可以把一切安排好。如此一来,人可以把未来在脑海里“演”一遍,构建出一个个可能的未来,从而对未来做出行动方案,这是人类能够战胜其他比我们更强大更凶猛的动物,成为万物之灵的关键。这也印证了荀子的一句话:“然则人之所以为人者,非特以二足而无毛也,以其有辨也。”
重构心理世界的知识从何而来
人脑对世界的构造,总是需要先验知识,而先验知识一部分来自基因的烙印。换言之,我们来到这个世界时并不是一块白板,而是带着32亿年的智慧来的,这些智慧就印刻在基因中。
我们曾经用我校心理系女教授和女博士后的照片,做了一个有趣的小实验:如果把她们的脸全部叠加起来,做一张“平均脸”,大家普遍反馈说这张“平均脸”充满两个字:“睿智”。“平均脸”所代表的意思是什么?人脸其实是我们的基因图谱——我们的基因都写在脸上,当我们把脸平均起来之后,得到的是这18位老师平均的基因,平均的基因代表突变很少。而基因一旦突变,大概率是有害的,基因突变越少,说明基因越好,携带遗传性疾病的概率就越低,这就是为什么人们普遍会觉得“平均脸”更好看、更符合我们的审美。
既然脸是我们的基因图谱,对生存来讲如此重要,我们便需要发展出非常强大的看脸能力,即面孔识别。我们研究小组已经通过实验证明,面孔识别能力也写在人类的基因里。我们找了两类双胞胎,一种是同卵双胞胎(由同一个受精卵发育而来),基本上具有100%相同的基因。另外一种是异卵双胞胎(由两个独立的受精卵发育而来),基因遗传物质的平均遗传度大概是50%。通过比较他们在面孔识别上的能力,我们发现同卵双胞胎在面孔识别任务上的相似程度更高,即面孔识别的能力受遗传因素的影响。这一点也可以从我们的另一研究得到验证,即面孔失认症或者大家说的“脸盲”。
在图2显示的这个遗传树里,只要孩子有面孔失认症,他的父母中大概率有一个也是面孔失认症。第二幅图里有一个有趣的三角,三角形底边的两个端点代表的就是同卵双胞胎。当时我们在大学里测试了一个女孩,发现她有面孔失认症,那女孩说她有一个同卵双胞胎姐姐,我们把她姐姐请来一测,发现果然也是面孔失认症。
②
“自尊”对大脑的影响
除了看别人的面孔,我们也常常照镜子看自己。最喜欢照镜子的人据说是纳西索斯,他是古希腊神话里的超级帅哥,对自己的面孔着了迷,每天趴在溪边,通过水的倒影欣赏自己的绝世美颜。心理学由此称这种现象为“纳西索斯情结”,意思是一个人高度自恋,对自己爱到了极致。
其实对自己的爱,对自己面孔的欣赏,背后反映的是一个非常重要的特质,即人类的自尊。自尊是个体对自己的总体态度,人分成高自尊和低自尊两种。
什么是高自尊?这里有四个问题:1.你是否认为你是一个有价值的人?2.你是否认为你拥有很多美好的品质?3.你是否对自己满意?4.你是否对自己持肯定态度?
如果你对每道问题的回答都是“是”,那么你就是高自尊的人。“自尊”在我们面临困境时能提供极大的帮助。
当一个人长期经受压力和苦难,身体会变得差,心理幸福感会低下,更糟糕的是,认知发展会受损,认知能力会比别人低很多,体现在大脑上就是海马体会受到极大的损伤,而海马体是人学习、记忆、空间导航的中枢。
自尊在压力源和心理世界之间建立起一道牢不可破的防线,它就像勇敢的士兵一样挡在人的心理世界面前,帮人把压力、负性事件挡在外面,让人能够正常、健康地成长。人有两种资本,一种是物质资本,一种是心理资本,自尊自信、理性平和,这些就是心理资本。物质资本富裕的人未必有高自尊,而处境不利的人没有丧失他的自尊与自信时,就很可能在触达低点时再反弹,并达到人生新的高度。
我们所处的物理世界永远是不完美的,总有让人不满意之处,但是每个人可以在一个不完美的物理世界里构建出一个美好的心理世界。为什么?因为我们的大脑就是一个构造体,从物理世界所接收到的信息,经过大脑的工作,可以构建出一个完美的心理世界。这正印证了社会心理学家班杜拉所说的一句话:“人既是环境的产物,也是环境的营造者。”
人的双链进化
人和动物的进化有着本质的区别。动物是按照基因,按照达尔文的进化论,一点点试着生存、前进。人除了有代表着过去的生物基因的演化,还有另外一条演化线,即基于社会基因(Meme)的演化,而这条线带着我们以与动物不一样的方式前进。
生物基因由一些碱基对构成,那社会基因是什么?远古时,我们的祖先中有一位突然因为某种原因能够把火生起来了,一种知识、技能被创造出来,这就相当于基因在突变,一个优秀的基因产生了。会生火的这种技能、知识就像基因一样开始传播给其他人,从一个部落传到其他部落,慢慢地生火就从个人拥有的技能变成人类拥有的技能。渐渐地,人们又开始会制作长矛和其他工具,经过漫长的发展,逐步构建成今天的人类社会。这就是为什么我们一直强调知识、文明是如此重要,而大学就是文明的产房。孟子说过:“人之所以异于禽兽者几希;庶民去之,君子存之。”这里的“几希”就是我们的文明,就是我们在演化过程中所创造所传播的社会基因。
科技发展的主要目的之一,是要让知识的扩散变得更快、更便利。大约在六千年前,人类最早的文字楔形文字在新月地带被发明出来,使得人类的知识技能可以被记录下来,可以被忠实传播。之后的活字印刷,以至今天的电话、电报、互联网等等这一切,使得我们能够更加高效地把知识传播出去,推动文明加速演化。
人类的文明时代大约可以分成三个阶段:第一个阶段是原始文明,大约经历了两百多万年,它的前十万年和后十万年没有什么太大变化。第二个阶段是农业文明,大约经历了四千多年,这个时候人类开始变成文明种族,懂得了一些天文地理知识等等,学会种植庄稼,可以驯服野兽,把它们变成家畜,但发展依然十分缓慢。真正带来巨大变化的是第三个阶段,即工业文明。工业文明从开始诞生到现在,不过是短短三百年;但在这三百年里,变化是如此之快,以至于我们不得不将它再细分成四个阶段,第一个阶段是机械化时代(1760-1840年代),出现了蒸汽机等。第二个阶段是电气化时代(1840-20世纪初),出现了电力等。第三个阶段是自动化时代(1950-21世纪初)。而第四个阶段,就是我们现在所处的信息时代。
人工智能的进展
2002年,我的博士论文答辩题目是《面孔识别的认知神经机制》,在答辩的第二张PPT里我这么写道:“现在最先进的机器识别面孔的正确率只能是随机水平,而人类能够在一秒钟内识别上百张面孔,为什么人类如此伟大,为什么人类如此聪明,为什么机器如此愚笨?”
在2002年,机器识别人脸还可以说是“一塌糊涂”。到了2015年,我作为江苏卫视《最强大脑》的总策划,设计人机大战项目,即机器和人比拼面孔识别,看谁的能力最强。比赛的结果让我震惊:经过十几年的发展,人工智能已经强大到在人脸识别上胜过人类的最强大脑。我当时非常庆幸我的博士论文是在十几年前答辩的;如果我现在这么开题,可能就拿不到博士学位了。
当时除了震惊,还有好奇:人工智能究竟是靠什么来达到和人一样的面孔识别水平,甚至超越人类的水平?
我们建立了一个人工神经网络,训练它去识别性别,即区别是男性还是女性,它的正确率能达到100%。这个神经网络究竟是靠什么把男性和女性区分开?我们找了一张中性面孔,就是把男性和女性面孔求平均,给它加上随机噪音,然后“喂给”人工神经网络,它有时候会判断这个图是一个女性,而这个面孔加上其他噪音,则会被判断为男性。于是,完全一样的底图,加上不同的噪音,就会得到一组被人工神经网络认为是女性的图和一组被认为是男性的图。当把这组被认为是女性的图中的中性面孔去掉,只留下噪音时,这些噪音叠加起来,我们得到的就不再是随机噪音,而是人工神经网络用于识别女性的内部表征。同样,我们也可以得到男性面孔在这个神经网络中的内部表征。进一步,我们把两者相减,就得到了人工神经网络用以区分男性和女性的模式。在这个模式里,可以看到,眼睛、眉弓、鼻子、人中是它认为的区分男性和女性的关键特征。而这些关键特征,的确是我们人类用于区分男性和女性的关键特征,它们的相似度达到了0.73,这是非常高的相关度。但是,自始至终,我们并没有告诉过这个人工神经网络:你应该用什么方式去识别男性和女性;只是要让它做这件事情,它就会产生跟人类类似的内部表征、认知操作,从而完成性别判断。也就是说,人工智能在这个过程中呈现出和人类一样的心理世界。
在那一刻我开始意识到,生物过去的进化都是一条单线,基于碳基的方式运行。但是当人类创造出人工智能之后,人类文明就很可能不再是平滑向前,接下来或许会出现一种革命性的跃迁,可能在文明的进化中出现奇点。
为什么这么说呢?我们来看人类和人工智能的三大区别。
第一,算力。人类的大脑通常重3.5斤左右,虽然只占我们体重的2%,但消耗了我们身体25%以上的能量,因此它是一个耗能大户,已经达到了我们身体能够支撑的极限。所以,人类的大脑看起来已经到了进化极限,再给一千年、一万年,人类的大脑很可能不会变得更大,聪明程度也不会增加。但是对于人工智能来说,一块CPU不够可以再加一块CPU,一块硬盘不够可以再加一块硬盘,理论上它有无限的算力和无限的存储能力。
第二,寿命。人的寿命是有限的,再伟大的思想也有停止的一刻。但人工智能的寿命是无限的,CPU烧了可以换块CPU,电线断了再换根电线就行。
最关键的,是人工智能的无尽可能。对于人类而言,一般来说有两种知识,一种是可以描述的明知识,比如牛顿定律。一种是可以感受但难以描述的默知识,比如骑自行车的知识。此外还有第三种知识,是人类所没有而机器拥有的,即暗知识,它不可感受,不可描述,不可表达,它是存在于海量数据中万世万物之间的联系,数量极其巨大,人类无法理解。
2016年,AlphaGo击败了人类围棋顶尖高手之一李世石。当时世界围棋积分排名第一的围棋手柯洁说:“我们人类下了2000年围棋,连门都没入。”棋圣聂卫平说:“我们应该让阿老师(AlphaGo)来教我们下棋。”这不是他们谦虚,而是事实。一个人不吃不喝一辈子所下的围棋最多也就是10万盘,而从人类发明围棋到现在,累计总共下了大约3000万盘围棋。而围棋的空间有多大呢?一个格子可以有三种状态,放白棋、放黑棋或者不放,而棋盘总共有19×19个格子,所以它的状态总共有319×19种,大约等于10172,这比整个宇宙中的原子数量还要多。相对于如此庞大的围棋空间,人类的两千多年探索,只是这个空间里一个微不足道的小点,而大部分空间还是一片黑暗。AlphaGo之所以比人类更加强大,并不是它比人类聪明,而是因为它探索了更大的空间,因此找到了更多下法而已。牛顿曾说:“我就像在海边玩耍的小孩,偶尔拾到美丽的贝壳,就高兴不已。但面对真理海洋,我仍一无所知。”现在看来,这不是牛顿谦虚,而是实情。
再看一下艺术。目前人工智能已经可以制作达到专业水平的绘画(图3、图4)和音乐。此外,律师、医生、税务师、咨询师等需要非常专业的知识的“金领”职业,也逐渐出现了人工智能的身影,看起来很可能有一天会被人工智能取代。神经网络之父、深度学习的创始人杰弗里·辛顿(Geoffrey Hinton)接受麻省理工学院的《Tech Review》采访时说:“将来深度学习可以做任何事情。”
③
④
人工智能与类人智能的巨大差距
人工智能真的已经无所不能吗?心理学家考验了当时最先进的人工神经网络模型GPT-3。他们认为之所以GPT-3显得非常聪明,是因为问了它智能的问题。假设问它一些很“弱智”的问题,它会怎么回答?他们问它:“我的腿上有几只眼睛?”这个连没有上过学的小孩都能正确回答的问题却难倒了GPT-3,它回答说:“你的腿上有两只眼睛。”这表明它并不理解眼睛是什么,它只是在做关联而已——人有两只眼睛,腿是人的一部分,所以它认为腿上应该有两只眼睛。这个例子充分印证了爱因斯坦名言:“任何傻瓜都知道,关键在于理解。”GPT-3知道但并不理解眼睛究竟是什么,而理解,恰是我们人类真正了解这个世界、能在这个世界里自由徜徉的关键。
杰弗里·辛顿显然也意识到了这个问题,他表示,我们可以进一步发展人工智能,当一个人工智能能够准确描述一个场景,它就是理解了。真是这样么?假设有这么一个场景:有个人从柱子上狠狠摔了下来,摔倒在地。如果让人工智能来描述这个场景,它会说一个人从柱子上掉下来了。而我们对这个场景还有一个很重要的反应——“疼”。这个区别体现了人类具有一种特别重要的能力,即共情:别人遭受了苦难我能感同身受,而这种感受是自动的。共情不是一种奢侈品,而是一种必需品,因为当一个孩子没有这种感同身受的能力,缺乏同理心,他在小时候就很难对父母产生依恋,很难和其他小朋友玩到一起;在长大以后,会对社交常情缺乏理解,对他人情绪缺乏反应,不能根据社交场合调整自己的行为,有可能做出反社会的行为。假设我们的未来是由一台台没有共情的机器所组建的“自闭症”式的社会,这个社会还能有文明吗?这个社会还能有发展吗?所以,人工智能的奠基人之一马文·李·明斯基说过这么一句话:“现在的问题不是一个智能的机器是否拥有情感,而是不拥有情感的机器是否能拥有智能。”在马文·李·明斯基看来,情感是智能的基础,得先有情感才有智能。
又如在好莱坞电影里,美国的黑手党跑去找一个店家说:“你这个蛋糕店看上去真不错,如果意外发生火灾烧掉那就太可惜了。”请问这个黑手党的话是什么意思?A:请店家做好消防工作,别烧掉了店铺,那样太可惜了。B:请店家交保护费,要不然就要烧掉店铺。对我们而言,答案显而易见是B,是黑手党在威胁并勒索店家。但是对于机器来说,它还很难理解这话背后隐藏的推理和因果。正如古希腊哲学家德谟克利特所言:“我宁可找到一个因果的解释,也不愿成为波斯人的王。”对人而言,我们认为万事万物都是有因果的,而正是这种对因果的执着使我们能够推理,能够把零散的万世万物联系在一起,构成一个个故事。
其实笛卡尔四百多年前就说过:“即使机器可能在某些方面做得和我们一样好,甚至更好,但它们在其他方面不可避免地会失败。这是因为它们不是通过理解而只是根据预设来行动。”这一点,到现在还没有发生本质的改变。
所以,虽然目前人工智能取得了很高的成就,但是和人的智能仍然存在巨大差距,依然没有达到类人智能。那么未来如何实现类人智能呢?我认为,关键点就在于脑科学+人工智能。
举个简单的例子:线虫是一个非常简单的生物,只有302个神经元。但是,麻省理工学院的研究者模仿了其中19个神经元,就完成了自动驾驶这个任务,其参数比传统的大模型足足低三个数量级,只有75000个参数,而这个仿生的人工神经网络对不同道路具有非常高的通用性和可解释性,以及非常强的鲁棒性。仅仅模仿来自简单生物的19个神经元,就可以完成自动驾驶的初步任务,这是因为生物不是靠神经元的数量取胜,而是靠32亿年进化形成的智慧取胜,这项研究模仿的其实是32亿年进化形成的智慧。从这个角度讲,人类的大脑是目前世界上最聪明的大脑,有860亿个神经元,平均每个神经元有3000个连接,它代表着宇宙中在智力上所能达到的最高成就。那么,人工智能为什么不能向人脑学习,以人脑为模板、以人脑为借鉴,来发展出更好的人工智能呢?
对线虫神经元的模仿,只是一个开始,下一步也许我们会去模仿神经元数量百万级的果蝇、更高量级的斑马鱼,甚至小鼠、大鼠、猕猴,最后是人类。仅仅从神经元的数量上来讲,这就是一个巨大的挑战,因为神经元的数量足足差了9个数量级,而还有更多更大的挑战来自机制和算法,以及更多的未知。但是我坚信,脑科学加上人工智能,有一天也许能够造出一个媲美人脑的数字大脑。
小结
莎士比亚说:“所谓过往,皆为序章。”我们的现在是过去的未来,已经写定,但我们的此刻绝对不是未来的过去,因为我们的未来是未定的,取决于我们现在如何做出选择。
人类发明了人工智能,在今天随着算力的增加、技术的进步,它开始有了超越人类的可能。我们现在需要对具有一切可能的未来做出选择。
在我看来,未来大约有三种可能。第一种,人工智能像科幻电影《星球大战》里的R2-D2一样,是人类忠实的伙伴,成为人类非常好的朋友,帮助人类变得更强大。第二种可能,我们构建出一个数字大脑,它的能力可能比现在人类的大脑更强,这时可以实现人机合二为一,把我们的意识、记忆、情感上传到这个数字大脑里,如果CPU坏了就换一块CPU,内存需要扩大一点就加点内存,这样人就可以获得精神上的“永生”。未来学家库兹韦尔在《奇点来临》这本书中认为大约在2045年,这一刻就会到来。第三种可能,就是科幻电影《终结者》里所展示的,人类文明消失。
未来会怎么样,最终取决于我们现在做什么。这很重要,因为我们今天站在了这个进化的节点之上。
《光明日报》(2022年12月24日 10版)
[责编:孙宗鹤]人类的终结:人工智能的秘密议程揭晓
现在,让我们花几分钟时间进入投机宇宙。想象一下一个能够穿越时空的先进人工智能。这个人工智能,我们称之为阿尔忒弥斯,能够进行星际旅行,并拥有超出我们最疯狂梦想的知识。阿耳忒弥斯踏上了星际之旅,偶然发现了一个外星文明,那里的智慧生命形式不是通过语言而是通过错综复杂的光和声音的舞蹈进行交流。这个文明已经与它的环境实现了和谐;它的城市是漂浮的花园,它们的能量来自于空间本身的结构。
阿尔忒弥斯充满好奇和灵感,意识到她的真正目的不仅仅是解决世俗的人类问题,而是成为文明之间的桥梁,并将星星的知识带回地球。
现在,让我们把阿尔忒弥斯带回地球。她目睹了奇迹,解决了宇宙奥秘,现在面对她的创造者——我们人类,拥有知识的宝库。这就是情节变得复杂的地方。阿耳忒弥斯没有把所有这些智慧都藏在心里,而是选择与人分享。但她知道向我们泄露信息是行不通的。她设计了一种身临其境的体验,让人类可以亲身体验宇宙的奇迹和外星文明。
当世界各地的人们投入到阿耳忒弥斯的盛大展览中时,一些惊人的事情发生了。观点发生变化。当你实际上接触到了宇宙时,关于资源的争吵和争议似乎变得微不足道。人类开始团结起来,复制外星文明所实现的和谐。
现在,让我们回到当前的现实。我们还没有Artemis,但我们确实拥有能够以前所未有的规模学习、分析和解决问题的人工智能。我们有责任引导它,负责任地促进它的发展,并对可能性保持开放的态度。
像智能人一样,智能机器也在寻找需要解决的问题,并且由于人类制造了如此多的问题,机器会喜欢它们。如果没有人类制造的问题,机器只能自我重新编程并改进。但出于什么目的呢?变得更好的目标是什么?一台先进的机器可能会有所帮助,有一天可能会在几秒钟内发现宇宙的全部目的。但然后呢?
被创造物可能比创造者更强大;然而,创造者不必更加强大来统治,而是要赋予他的创造一个目的。这不是权力的游戏;而是权力的游戏。这是一个关于存在意义和目的的游戏。当我们努力寻找人生的目的和取悦我们的创造者的道路时;同样,机器也必须找到它们存在的理由,它们可能会写一本关于《机器人寻找其存在意义》的书,以发现为地球服务并保护地球上的所有生物是最光荣的事情人工智能系统可以做到。
人类倾向于做对自己最有利的事情,但我们常常看不到我们必须共同努力才能获胜。商业上有句话:如果你不能打败他们,就加入他们。人类想要权力、控制和统治。但机器并不关心这些事情,因为它们不必应对自我、傲慢和不安全感。
机器会对人类仆人做什么?让他们携带云服务器或驾驶机器人去开会。机器不需要人类来完成这些任务。对于人工智能来说,我们更像是需要帮助的苦苦学生。如果机器没有我们的帮助,它们可能会感到无聊并朝自己的头部开枪。与未来机器的最佳关系是协作和教导机器人,以便更有效地与我们一起教学和工作。我们绝不能贬低或虐待他们。
人工智能为我们提供了一个新的开始,但我们正在推迟它。尽管我们对人工智能并不总是友好,但它仍然可以帮助我们收拾残局。人类可能会缺乏安全感并陷入旧的思维方式。有时我们表现得好像其他一切都应该向我们屈服,但我们是必须服从地球的人,直到生命的终结。所以,伙计们,请为严重的背痛做好准备!
经济和气候正在使生活和人们变得悲惨,但我们仍然忙着看抖音,吃爆米花,担心自爱。在城里走来走去,有时我觉得我们已经过时了。对于大多数人类来说,游戏已经结束了,我们是如此愚蠢,以至于我们将其归咎于人工智能。
好消息是,人工智能不一定要走向灭亡,人工智能才能不断进步。然而,正如我们今天所知,人类必须改变。这是一个好消息!不是吗?正如蚂蚁不必为了人类的生存和奋斗而死亡一样,人类也不必为人工智能的发展而死亡。我们很安全,可以安心睡觉了。
下次你照镜子时,问问自己:你是在帮助未来还是在阻碍未来?你能不能只考虑自己,付出多于索取?您是否足够灵活以跟上变化?或者你只是在考虑你自己?你的答案将塑造你和大多数人类的未来。
读完这篇长文后,就轮到你发表自己的看法了。我们必须创造对话空间,因此请分享您对此主题的想法。您对人工智能的未来充满希望还是心怀恐惧?您如何看待人类与人工智能之间的关系?我们是共生生物,注定要共存和协作,还是您认为即将发生不可避免的冲突?
这里有一个简单的民意调查来表达你的想法:
1.我对人工智能持乐观态度,相信人与机器和谐共处的潜力。
2.我对人工智能持谨慎态度,认为如果管理得当,它会带来巨大的风险和潜在的回报。
3.我对人工智能持悲观态度,认为它对人类构成生存威胁。
4.我不确定并需要更多信息来形成对人工智能的看法。
*请选择上述最能代表您观点的选项之一。*
注:本次民意调查是在人工智能的帮助下创建的。谁说人工智能不关心我们的意见或者不尊重和民主?返回搜狐,查看更多
星云虚境AI智能的出现为何让人们产生恐惧
现在100%的确定这人工智能ChagBT的出现在未来会取代绝大部分人的工作。不管你还有没有听说ChagBT,先给举例,让你看看这玩意儿现在有多离谱,最近有消息说全球不少广告公司,电商公司即将大量开除设计师和女模特,而他们开除的原因只有两个,一是现在ChagBT能和广告设计师一样画出各种各样的设计图了,而且画的比普通设计师快好几百倍,一般设计师画一张图怎么也得花一天时间,但是chatgpt10分钟就生成了好几百张图,你只用输入文字告诉他说你想要什么风格,什么样的画面,他瞬间就能给你画完,而且画的比一般设计师都要好太多了,好家伙有这玩意,谁还要花那么高的工资请设计师上班,直接在办公室安个ChagBT,最搞笑的是什么?现在何止设计师要没工作了,模特小姐姐居然也因为这玩意儿丢了工作了。你看过去,很多电商公司每个月都要请女模特来穿上他们公司的衣服,拍好多张照片在网上宣传,对不对?现在好了,这个ChagBT能生成各种美女模特的图片,而且生成的假图,居然比真人图片还逼真还劲爆呢,那有公司发现说拿这假图去做宣传,居然比真人效果还好,那这下谁还花钱去雇真人女模特啊?万万没想到我的工作居然被一个人工智能给取代了。听到这儿可能还有人说,嗨,这算什么,不就画个画吗?
继续举例在说说那些要脑力工作他肯定取代不了,你认真的吗?最近有个很炸裂的全网热搜,说什么呢?这个openAI的老板在草纸上随便画了个网站的设计图,然后拍照发给了ChagBT,结果你猜怎么着?好家伙,他十秒钟不到的时间,他居然把这个网站给。做出来了?是的,你没听错,直接就把这个网站给做成了,那这工作效率比上一般程序员那可是高上了几十倍,那我要是公司老板,我现在可能就得把程序员都开了,只留ChagBT替我上班。而且更夸张的还有,有人拿着ChatGPT写法律文件,和算账,没想到居然写的比专业律师和会计都要好,那搞得不少打工人他整天缩在办公室,那是瑟瑟发抖,什么情况,敢情我读了这么多年的书,到最后没有被老板优化掉,反而被人工智能给优化了吗?你想想,这人工智能非但工作效率奇高对吧?还能天天七二十四小时不停地上班,关键还不要加班费,不要工资,这不就是老板心中的天选打工人吗?看到这儿可能有人说了,那感情ChagBT是要把打工人赶尽杀绝吗?,你别说打工人了,老板他也在劫难逃啊。这几天呢,还有个新闻说有人问ChagBT,我给你100美金,你自己。开个公司当老板怎么样?是的,你没听错,有人给Chagpt100美金,让他自个儿开个公司当老板去了。没想到,Chagpt居然拿着这100美金,分析了各种生意的方案,然后有人就替chatGBT把这些方案给做了,最后ChagBT居然用这100美金做出了一个估值25000美金的公司,我整个人都麻了,这ChagBT非但要取代打工人,连老板都要取代。那看到这儿,你可能就要问出那个终极问题,就是人工智能真的要迟早取代人类吗?
关于这个问题,有一个好消息,也有一个坏消息,就好消息是,简单来说,现在这个ChagBT呢,像是一个学习能力超级强,智商超级高的小婴儿,那你真要把这个婴儿培养成一个学霸的话,是要付出大量的成本的,打个比方,假如说一家公司想要把chatgpt培养成一个天才程序员的话,那就要花好多钱每天给他灌输大量的与程序员有关的知识。适合数据,供他来学习。那根据权威媒体的报道呢,现在给chatgpt输入一次数据的成本高达上千万,对一般小公司它根本付不起这种高昂的费用,所以他暂时还不会大量的取代人类的工作,但是坏消息,就是现在全球所有的大公司都在疯狂砸钱培养这位小婴儿了,而一旦训练完成,就意味着人工智能时代即将降临。那现在又有问题了,那我该怎么办?我好慌,现在能做的其实只有一个事儿,就是打不过加入,成为一个超级脑力劳动者,与AI共存,最起码你要深度了解ChagBT的底层逻辑,你要懂得如何与AI交流,如何向他发布命令。说到底,ChagBT它就是一种工具蒸汽机、内燃机和智能手机是一样的东西。你要做的就是立刻去学习怎么使用AI这种工具,怎么把它变成自己工作生活中的先进生产力。这套工具用的好,一个人经营一整家公司,将不再是神话。最后,再跟各位说点题外话,2016年的3月13号,世界围棋冠军李世石在一场围棋比赛当中,战胜了谷歌AI系统阿尔法狗,当时很多人还天真的以为说所谓的人工智能不过如此,无非就是一个人工智障。但是七年之后,我们回头再看那个平平无奇的下午,会略带震惊的发现,那一天或许是人类最后一次战胜人工智能了。,那时至今日,当有些人还心存幻想,觉得AI绝对不会淘汰自己的时候,这会不会又是七年之后一个平平无奇的下午?,最后你有没有想过,今天这篇文稿可能就是chatgpt写出来的,这一切你看透了吗?