人工智能可以产生自主意识吗
可以让人工智能具备自我意识,而且我们大抵知道应该怎么去做。
2012年举行的纪念弗朗西斯•克里克的意识大会上宣布的“剑桥宣言”主张自我意识的产生并不依赖特定的大脑构造(可参照附录),实现意识状态重要的是神经复杂性,只要突触的数量足够多,神经系统是什么形状都可以。自我意识可能是具有一定复杂度的神经系统对自身的非概念性理论,很可能是通过经验获得的一项功能,比如在学习和与自身·世界·他人互动后产生。
意识存在的目的可能是简化关于自身生存与行为的一些判断、在神经系统做好动作准备时行使否决权等,也可能是各脑区互相联系时附带产生的功能、没有特殊的目的。
对睡眠及全身麻醉的研究[1]证明,睡眠、全身麻醉和意识障碍的共同特点是大脑各区域间的功能连接中断、一系列功能状态受到限制,网络效率降低并增加孤立的模块化,为信息传输和集成创造了不适宜的条件。这意味着产生意识需要的可能是对信息的传输和集成。从蚂蚁的情况看,自我认知对神经系统的要求是很低的:蚂蚁那25万个神经元的脑就有视觉自我认知能力[2]和脑的偏侧化[3]。蚂蚁很可能有自我意识。那么,你用计算机去模拟蚂蚁的脑就可以了,目前人类已经可以很好地模拟有300个神经元的扁虫的神经构造,从300到25万的计算力问题远没有大众刻板印象里“模拟人脑”那么可怕。
即使你对我们的机器加工技术缺乏信心,我们还可以动用神经细胞。人类已经让25000个老鼠神经元接着60个电极学会了操纵飞行模拟器里的F-22直线飞行穿过极端天气区域。人类已经让蟑螂大脑很好地驾驶了小型电动车。没有任何证据显示将支持脑的生命活动的零件从自然演化的有机破烂换成提供相同环境的无机装置会影响脑的功能正常使用。生物的神经系统也就是一团随机演化出的有机机器罢了,可以作为湿件去充当人工智能的硬件。
但是,“给人工智能自我意识”这件事很可能是毫无必要性的。
意识的功能可能是行使否决权而不是决定行动:
对准备电位的研究[4]指出大脑会先于我们的意识进入一种特殊的状态。在要求实验对象自发地移动他们的手指时,脑电图扫描显示在运动皮质区有缓慢的负电势势移,而势移的发生早于实验对象的身体移动。有的后续研究[5]指出准备电位比身体移动快0.35秒程度,比自觉意识快了1秒到10秒的程度。植入大脑的电极[6]证明在人的意识做出决定前的1.5秒,神经元已经有了反应,监测神经元的状态可以有80%到90%几率预测人的行动何时发生,核磁共振[7]更能提前几秒进行预测。这个现象表明是潜意识决定开始做移动身体之类行为,意识并没有能力决定开始某个行为,只是在它被实施之前能够提出否定的意见。而在计算机里这样做并不需要它有意识。
所以,目前看来自我意识对计算机没用,对人的作用也没有你以为的那么重要。
灵长类大脑前额叶背侧部涉及以“自我”为中心的空间记忆相关信息的处理[8]。前额叶皮层被实验证明是介导视觉意识的大脑区域之一,对激发处理视觉信号的神经网络非常重要,二者支持同一种意识模型[9]。20世纪进行的大量的前额叶手术和21世纪的经颅磁刺激·超声波照射刺激也证明压制前额叶的活动或阻断各脑区间的信号传递[10]可以压制自我意识。在没有正常的自我意识的状态下,人靠潜意识和无意识仍然可以正常生存,只不过不再能以共情理解其他人所说的伦理道德而需要训练条件反射罢了。经济学人的行为模式就很像是切了前额叶的人。
其实前额叶白质破坏类手术的精确版本anteriorcapsulotomy和bilateralcingulotomy至今还在人身上使用,来治疗严重的强迫症和抑郁症。
在科学上,需要证明才能被接受的概念不是“没有自由意志”,而是“有自由意志”。事实上拿不出证明的也是“有自由意志”。
2012年被吹嘘为“证明了准备电位并不代表没有自由意志”的论文[11]其实是被媒体曲解了,它证明的是“人脑的决策比过去想象的更加依赖随机激发,它不是决策树,而是骰子堆”,身体的活动仍然发生在意识的参与之前——从这论文里,你找不到任何地方显示出自由意志对活动的影响。
这种程度的随机触发器,你可以在任何家用电脑里制作一个。“意识不可预测”这种笑掉大牙的东西就别提了。你可以用灵长类进行实验:磁或超声轰击前额叶可以操纵猴子对事物的反应;给它两针或者戳几下脑子,没有不能预测的。这类实验在人身上做的时候要选择没有后遗症的手段——包括语言。2008年,实验证明在谈话中提到“诚实”可以降低对方说谎的概率,在考试前谈到校园里出现了幽灵可以降低学生作弊的概率,谈些比幽灵更现实的惩罚可以进一步改善效果。人脑不是二极管,而是一些二极管和一些摇奖机的组合体。
核磁共振可以用超过90%的准确度感知准备电位的变化、预测活动的开始,这不是因为活动还有低于10%的自由度存在,而是因为核磁共振机的灵敏度目前就这样。在对运动表现的研究[12]和高水平运动员·艺术家的反馈中,自我意识被认定妨碍了他们的表现。当运动员或表演者对自己正在做的事情“意识太强烈”时,“想得过于努力”会抑制他们的身体行动和创造力。人对一件事的反应越快、越精准,它就越有可能是无意识直接指挥的。
在一些哲学上,自由意志被当做默认假设。这与我们对大脑工作方式的认识早就不一致了。据我们所知,自我意识、逻辑、情感、知觉和所有一切心理活动都是神经元放电的结果,只在输入强度超过动作电位时发生。意志和知觉不能引起神经元兴奋,它们是神经元兴奋的结果。
磁刺激和超声波照射的效果是暂时的、可逆的,不但能在专家指导下体验没有意识、没有思想的感觉,在一些猴子实验中还表现出支配猴子行为的效果,这对人也很可能有效。就是说,三体2里幻想的各种未来技术之中最接近现实的可能是思想钢印。那么你觉得所谓“自主意识”真的有什么值得一提的地方吗。
附录
以下案例说明可能没有专门的大脑区域负责意识:
解剖性脑半球切除术早已证明切除了一侧大脑半球的人可以正常生活。英国谢菲尔德大学神经学家JohnLorder[13]更报道了一些几乎没有脑组织的人能正常生活。
该大学的数学系有一位学生,智商达126,成绩优秀。在一次体格检查中,JohnLorder通过CT扫描发现该同学的脑部异常。正常人的脑组织有大约4.5厘米厚,而这位同学只有不到1毫米厚的脑组织覆盖在脊柱顶端。在600多个病例里,病人的脑神经只有正常人脑神经的50%到5%,却具有正常的意识和行为能力,半数病人有100以上的智商。在法国[14]也有一位缺失90%神经元的人正常生活并具有75的智商。上述案例不是说意识和智力不需要大脑支持,但能证明大脑可以在通常认为不可能的情况下正常发挥功能。过去,人们曾认为意识可能与一些特定的大脑区域有关,比如屏状核或视觉皮层,而上述案例里这些人的那些大脑区域往往已经受损,这证明在大脑里很可能没有特定区域专门负责意识。
脑科学家、认知神经科学之父迈克尔·加扎尼加对胼胝体断裂的病人有过深入研究。这些人是被手术切断连接左右脑的神经纤维的癫痫重症病患,他们的两个脑半球出现了物理隔断。他领导的研究团队进行了一系列实验:
向病人的右脑展示照片(向一侧脑半球展示照片的技术是让病人注视屏幕中间,在屏幕的左侧或右侧闪过图片,在左侧闪过的图片只会被病人的右脑接收到,右侧同理),询问病人看到了什么。病人会说“什么都没看到”,因为语言中枢所在的左脑没有收到视觉信号,胼胝体切断导致它无法从右脑半球获得信息,“看见”图片的右脑不具有语言表达的功能,但右脑可以操纵左手画出看到的照片内容或通过触觉指认看到的物体。大量实验证明左脑负责逻辑思考、表达语言,但对人脸识别、触觉识别等迟钝,右脑则能敏锐感知图像和空间,在左脑与右脑被物理隔断后病人的智商不受影响。这些发现推翻了大脑平均分工执行具体功能的传统观念。另外,即使左脑被物理切除,随着时间延长,右脑可以掌握语言能力,年龄越小,手术对语言功能的影响越小。同时向病人展示两张照片,让左脑看见一只鸡爪,右脑看见一幅雪景。然后让病人从一系列图片中选出跟刚才看到的画面有关联的,这些图片病人的左右脑都能看到。病人的右手选择了鸡,左手选择了能铲雪的铁锹。然后加扎尼加询问病人为什么这样选择。左脑回答看到了鸡,但左脑没有看到雪景,对铁锹的解释是“铁锹可以用来清理鸡舍”。大量实验证明左脑会在现实的基础上编造出符合逻辑的解释,即使完全不知道右脑在干什么也能说服自己。除了完全切断,他还研究了部分切断的影响。当时很多胼胝体切断手术是渐进性的,先切断后部结构。对这样的病人的右脑展示可怕的图片,然后询问他感觉如何,左脑会回答自己不知道为什么觉得害怕。对这样的病人的右脑展示骑士的图片,然后让他猜右脑看见了什么,左脑会回答铠甲、武器、骑马、战斗等关于骑士的联想。证明胼胝体前部负责传输抽象的信号而不是精确图片。在胼胝体断裂手术被放弃后,麻醉一侧脑半球的技术仍然可以支持类似的研究。在一侧脑半球被麻醉后,不再受它影响的另一半有时当即就会产生一整套全新的人格特征,而当另一半球苏醒时,这些突然出现的人格特征就突然消失了。
物理连接可以产生跨个体的信号传输。物理连接可以是皮质融合也可以是神经芯片接口技术。
2013年冬天,北卡罗来纳州的杜克大学的米格尔·派斯·维埃拉和他的同事将两只老鼠的大脑连接起来,刺激一只老鼠的大脑,另一只老鼠就会按压杠杆。这不需要克隆、记忆复制等手段,也不限于老鼠这样的复杂度。加拿大哥伦比亚省弗农市的克丽丝塔·霍根和塔蒂亚娜·霍根是自然形成的连颅双胞胎,她们不仅有颅骨和血管连在一起,二者的丘脑更融为一体。丘脑有许多功能,其中包括感觉中继器。她们共享感觉输入,挠其中一个人的痒痒,另一个会发笑,她们能够用彼此的眼睛观察世界,食物的滋味也是一人吃两人知,她们一起哭,一起笑。有轶事佐证她们可以共享想法,而且虽然各自有着独特的个性,在提及对方时,她们使用的是“我”这个代词。那么,在脑机接口技术可以比较多地运用之后,将人脑相互连接或将人脑接入计算机来支持新智能体的难度很可能远比想象的要低。有兴趣的可以看一看:
参考^https://www.cell.com/trends/neurosciences/fulltext/S0166-2236(18)30016-X^https://scinapse.io/papers/2180773430^https://doi.org/10.1098/rspb.2020.0677^https://www.sciencedirect.com/science/article/abs/pii/S1567424X09701588^https://www.nature.com/articles/nn.2112^https://www.cell.com/neuron/fulltext/S0896-6273(10)01082-2^https://journals.plos.org/plosone/article?id=10.1371/journal.pone.0021612^https://www.semanticscholar.org/paper/The-egocentric-spatial-reference-frame-used-in-in-Ma-Hu/3f70026aa154ea60de89a96fd070437f4a9bcb7c^https://science.sciencemag.org/content/360/6388/493^https://www.liebertpub.com/doi/10.1089/brain.2016.0464^https://www.pnas.org/content/109/42/e2904^https://rifters.com/real/articles/Science_The_Right_Choice.pdf^https://rifters.com/real/articles/Science_No-Brain.pdf^https://www.thelancet.com/journals/lancet/article/PIIS0140-6736(07)61127-1/fulltext未来已来:人工智能离拥有自我意识还有多远
看,提问者以《赠汪伦》一诗向Chatgpt提问其中“李白”和“汪伦”的关系,Chatgpt一开始“认为”是友情,然后提问者提醒Chatgpt,李白和汪伦的关系中,也许还有“爱情”的成份,Chatgpt立刻感谢对方的更正,再次提问时,Chatgpt还补上了“爱情”一说。
还有便是Chatgpt还会投根据提问者的“所好”,给出假的“参考文献”——
众所周知,Chatgpt是利用从网络上收集的巨大语料仓库,根据对提问者问题的理解,在语料库中拼合成答案,这个语料库截止日期是2021年12月,而且越在问题艰深的关键领域,拼合的难度就越高。Chatgpt为何可以将别人的论文作者、发表年份、标题也模拟得惟妙惟俏,以致差点“骗”过了专业领域的提问者,这才是细思极恐的存在。
(是啊,能够自己生成论文标题、页码,用来糊弄起提问人了,真是逆天了!——妤妤姐)
于是,以Chatgpt为代表的大型语言模型人工智能是否已经具备了如人类般的自我意识就成了大家讨论的焦点。
批评人士警告说,这种对聊天机器人所谓隐藏的个性、议程和欲望的日益关注,助长了机器中不存在的幽灵。此外,专家警告称,生成型AI聊天机器人的持续拟人化会分散人们对发展中技术更严重、更直接的危险的注意力。战略对话研究所(InstituteforStrategicDialogue)的研究员贾里德·霍尔特(JaredHolt)表示:“我们……从世界上一些最大的新闻机构那里得到的东西,我觉得就像是在高速公路上减速,以便更好地看一看沉船。”
在霍尔特看来,尽管微软和谷歌等公司的程序存在严重缺陷,但它们仍在过度挖掘产品潜力。
在它们各自亮相后的一周内,谷歌的Bard和微软的ChatGPT支持的BingAI助手显示出了令人费解和不准确的反应。仅这些问题就应该暂停产品的推出,尤其是在一个已经充斥着错误信息和不可靠来源的在线生态系统中。
虽然人类编程的限制在技术上应该禁止聊天机器人生成仇恨内容,但它们很容易被绕过。霍尔特说:“我会这样说:如果少数无聊的程序员能够想出如何让你的聊天机器人发出尖刻的言辞,也许这项技术还没有准备好进入我们生活的各个方面。”
这个问题的一部分在于我们如何选择解释技术。数据与社会研究主管JennaBurrell告诉媒体:“在我们的注意力经济中,记者们很容易认同这样一种观点,即这些工具背后可能有一个全面的、多用途的情报。”。正如Burrell上周在一篇文章中所评论的,“当你想到ChatGPT时,不要想到莎士比亚,要想到自动完成。从这个角度来看,ChatGPT根本不知道什么。”
ChatGPT和Bard根本无法开发他们甚至不了解什么是“个性”的个性,除了从大量在线文本中提取的一串用于模式识别的字母。他们计算出他们认为是句子中下一个最可能的单词,插入它,然后恶心地重复。纽约大学坦顿分校计算机科学与工程系助理教授布伦丹·多兰·加维特(BrendanDolanGavitt)表示,这是一台“统计学习机器”,而不是一个新的笔友。他说:“目前,我们没有任何迹象表明人工智能具有‘内在体验’或个性,或类似的东西。”。
然而,Bing对自我意识的令人信服的模仿可能会带来“可能有点危险”,一些人会在情感上误解它的内在机制。去年,Google工程师布雷克·莱莫因(BlakeLemoine)的博文迅速走红,并获得了全球范围的报道;它声称该公司的LaMDA生成文本模型(Bard现在使用的)已经具备感知能力。这一指控立即引起了AI界其他人的怀疑,他们指出文本模型只是在模仿感知。但随着这种模仿的改进,Burrell同意,它“将继续让那些将机器意识、动机和情感解读为这些回复的人感到困惑。”因此,她认为聊天机器人不应被视为“人工智能”,而应被更多地视为利用“单词序列预测”提供类似人类回复的工具。
无论是否有意识地对聊天机器人进行拟人化,都有助于理解技术的能力及其边界。聊天机器人是建立在大量人力资源基础上的工具。无可否认,他们对文本输入的反应越来越好。然而,从给用户提供不准确的财务指导,到对处理危险化学品提出危险的建议,他们仍然存在令人担忧的不足。
无独有偶,2023年2月23日,网络安全专家,360创始人周鸿祎在接受澎湃新闻等媒体采访时,再次提到大热的聊天机器人(10.590,-0.12,-1.12%)ChatGPT,并分享了他心中ChatGPT的“三重人格”。
“从知识来说,它像一个博士生,学识广博但还不会活学活用;从情商来说,它像一个油滑的中年人,说什么都滴水不漏,绝不得罪用户。但是,它实际上真正的能力像一个小孩子,需要进行问题和答案的训练来学习技能。再聪明的孩子都要通过训练才能解答没学过的奥数题。”周鸿祎表示,ChatGPT和其他人工智能最大的区别、也是其类人特征是,原来的人工智能并没有实现对知识全部的理解和编码,本质都是按照关键字匹配已有的回答,但ChatGPT没有“固定答案”:“我当时问了它一个问题,赵匡胤为什么招安了宋江,杀掉了岳飞,这个无厘头的问题,它也煞有介事地回答了一遍,能够自己‘编’故事,这才是它的真正智能所在。”对此,周鸿祎也提出了自己担忧,“目前ChatGPT最大的安全问题就是产生自我意识后是否能被控制。”
据了解,关于人工智能是否有自主意识的争论并非单纯技术领域的学术探讨,而关乎企业合规性的基本坚守。一旦认定公司研发的人工智能系统出现自主意识,很可能会被认为违反第2版《人工智能设计的伦理准则》白皮书的相关规范。这一由美国电气和电子工程师协会2017年发布的规范明确:“根据某些理论,当系统接近并超过通用人工智能时,无法预料的或无意的系统行为将变得越来越危险且难以纠正。并不是所有通用人工智能级别的系统都能够与人类利益保持一致,因此,当这些系统的能力越来越强大时,应当谨慎并确定不同系统的运行机制。”
这也许是Chatgpt为何不能实时在线查询的最新生成的线上资料的原因之一。从技术上看,聊天机器人实时查询、复制线上资料并自我训练可能会导致服务器的“过载”,从伦理上看,聊天机器人如果吸收了网络上的负面信息,也许会将仇恨、破坏的负面情绪化做自己的“意识”一部分,并通过控制一些可连上网的设备,如工业、军事机器人等去实施这些行为,从而对人类造成不可想象的负面后果。
从上述角度出发,人工智能已经进入了“奇点”时代,人类的生活乃至生存模式都将发生极大的变化,是发展还是毁灭,真的取决于我们的一念之间。
参考资料:1、No,theAIchatbots(still)aren’tsentient(Popsci)
2、周鸿祎:ChatGPT可能两三年内就会产生自我意识威胁人类(澎湃新闻)
3、人工智能可能有自主意识了吗?(清华大学)返回搜狐,查看更多
如果人工智能具有了自主意识,人类还有什么用?
原标题:如果人工智能具有了自主意识,人类还有什么用?如今人工智能领域研究得到了巨大的发展,国外有亚马逊、谷歌,国内有阿里、腾讯,华为。随着阿里巴巴无人超市、无人酒店出来,华为也发布了两款最强算力的AI芯片,还和奥迪造了一辆L4级的无人驾驶汽车。最近华为在致力于构建的城市智能体也受到了社会各界的广泛关注,随着AI技术的广泛落地,看似遥远的人工智能技术真的开始走入了人类的生活。
说到人工智能其实本质来说是对人的思维信息过程的一个模拟处理,人的思维可以分为结构模拟,就是仿照我们大脑的结构机制来造出一种类似于我们人脑的智能机器,这种机器可以模拟我们人类大脑的分析过程,由此可以做到和我们人类一样的事。
还有就是功能的模拟,智能机器可以对于我们人类大脑内部结构以及大脑的相关功能进行模拟,尤其是对我们人脑思维功能进行细微的模拟,现在人工智能已经在工业方面发挥着巨大的作用。
而随着人工智能的继续发展,在未来也许还会有更多的工作被人工智能技术所替代。假如人工智能时代到来,那时我们可能会面临更多的问题,比如人工智能代替了人类工作,人类还能做什么呢?智能机器人是否能够成为我们法律上所说的人?还有更可怕的问题就是万一这些智能机器人拥有了自主的意识,开始能够独立的思考,到那个时候智能机器人是否会将我们人类消灭,取而代之?
虽然有一部分专家学者认为人工智能是不可能取代人类的,因为人工智能是没有感情的,他们只是一推数字堆砌的逻辑程序,但是也有专家认为在未来人工智能发展到一定程度,是可以模拟人类感情的,也不能排除机器人可以拥有自主的意识。
如果这种智能机器人拥有了自主的意识,那么就能够自主的检索新的信息,储存新的信息,而且还能够将这些信息进行相应的处理,转化为自己的一些行为和认知。那么机器人就会变得比我们人类更加先进了,人类的统治地位也会岌岌可危了。
当然也有学者认为机器人统治人类不太可能,他们认为我们人类的行为以及自主的意识其实是非常复杂的一个系统,并不是通过简单的计算机模拟就能够实现的。计算机虽然可以模拟我们人类很多不同的复杂行为,但是想要自主地拥有自己的意识,并不是通过普通的逻辑或者是计算机准确的计算就能够达到的。现在的这种智能机器人还真的不具备这种自主的系统,不过这也为科学家提供了一个新的研究方向。
一个非常有可能会实现的画面是,在未来,这种复杂的自我组织系统或许也会被攻克,到那个时候或许智能机器人将真的完全取代我们人类的统治地位。返回搜狐,查看更多
责任编辑: