博舍

科技的进步,使我们的大脑“退化”了还是“更聪明”了 人工智能的可能性后果是使我们更安全了还是更危险了

科技的进步,使我们的大脑“退化”了还是“更聪明”了

令人担忧

智能科技让年轻人不爱思考

毋庸置疑,科技的发展对于人类而言是一种进步,但如果从另一个角度看,似乎并非如此。英国伦敦大学的研究发现,如果过分依赖GPS导航,就会阻断脑部海马回形成新记忆的功能活动;相反,如果人的驾驶行为依赖的是大脑空间记忆,那么司机就能通过视觉线索建立“认知地图”来记住路线,由此可以预防未来大脑失忆症。难道说,科技的进步对于我们的大脑神经系统而言,会造成“停滞不前”甚至“倒退”的现象?就此话题,记者采访了中山大学中山医学院神经科学研究中心的蒋斌教授。“现在科技越来越发达,人类越来越懒惰,身体运动机能确实有退化,好比说,通宵玩电脑游戏甚至会出现眩晕、晕倒、记忆力下降等症状。有研究表明,每天花大约10小时上网的大学生大脑皮层的灰质,比每天上网2小时以下的学生要少,而灰质是负责大脑思考的部分。”蒋教授告诉记者,现在年轻人中患“痴呆症”的人数逐年增长,“提笔忘字”就是最好的例子。

在日常生活中,不难发现这样的现象——用惯了电子产品,导致很多人只会用零散的语言交流;用游戏和电视节目取代了传统阅读,以至于人的阅读能力和思考能力下降。对此,蒋教授告诉记者,根据生命现象中的“用进废退”理论,大脑皮层中调控阅读和语言的中枢使用的少了,自然会发生“倒退”;而过分依赖GPS导航,也确实会妨碍大脑海马回形成新记忆的功能活动,使得空间记忆能力下降。

专家声音

不用担忧应对退化,大脑重塑做出调整

有了手机、电脑,可以做到足不出户,就能达到基本生活需求。无论坐地铁还是走路,常常看到很多低头族。有研究者警告说,而今人类的大脑正不断地被智能科技“大幅重塑”。

此话一出,有不少网友都在担心自己会因此而“变笨”。

然而对于这份忧虑,蒋教授却给出了一颗“定心丸”——因为人类的大脑很“聪明”,会随着这些由高科技带来的生活方式的改变而做出相应的调整,所以当今科技的进步并不会导致我们的大脑神经系统发生“退化”。

“其实人在长期进化过程中就是要不断顺应新的变化,现代人和几百年前的祖先相比,体格和肌肉的力量是下降的(长期的体育锻炼的人除外)。尽管现代人大脑的部分功能下降了,但智力是提高的。”他告诉记者,现在的人,无论是在锻炼身体、排队买东西或者过马路等红灯的时候,甚至在晚饭闲聊的间隙,都使用手机或者其他电子设备完成一些工作,这就是智能高科技给人们生活带来的便利,对此不必过度恐慌。

现代人的生活节奏越来越快,电子产品的增加,的确方便了人们的生活。蒋教授认为,虽然说高科技使得人们“越来越懒”,但从总体上看,还是利大于弊的。“高科技产品的不断使用,逐渐重塑了我们的大脑,我们因此变得更加‘眼疾手快’。”

...................................................................................

内容来自:精英特速读记忆训练网(m.jint.cn)

国内最专业的快速阅读记忆训练平台,快速阅读、记忆力、注意力、思维、高效学习等方面的知识学习、能力训练。返回搜狐,查看更多

车联网时代,我们更安全了还是更危险了

【TMT前言】

文/光明网记者李政葳

“电影《速度与激情8》有这样的情节,网络恐怖分子攻击周边几公里范围内的汽车,把这些受遥控的‘僵尸车’作为攻击武器……”理想汽车车联网安全负责人董威讲述的这个情节看似科幻,但已现实存在了,尤其在智能网联汽车加速发展的当下。

早在2015年,克莱斯勒的JEEP车型娱乐芯片漏洞就曾被黑客远程攻破;2016年,特斯拉车载系统遭无接触远程破解,黑客可以在车辆行驶过程中打开汽车后备箱甚至让车辆突然刹车。如今,在碰撞、盗窃等传统风险之外,汽车的新风险隐患正在酝酿。

“车联网作为汽车、电子、信息等深度融合的新兴产业生态,正在加速融入人们的日常生活,在给人们带来便利的同时,也让网络安全面临新的挑战。”在近日举行的一场“TechWorld2021绿盟科技技术嘉年华”现场,记者遇到了理想汽车车联网安全负责人董威,并在台下聆听了他的一场有关“车联网信息安全挑战与思考”的分享。

回顾汽车安防技术的发展史,长期以来主要围绕防盗技术进行升级。然而,伴随汽车工业与信息产业融合发展,尤其是5G、智能网联技术等带来一系列新应用场景,网络、蓝牙、WIFI、USB等对外连接,都成为黑客眼里“脆弱的窗口”。汽车安防早已超越传统意义概念,向电脑和网络防火墙的作用进化,防止汽车被远程劫持、被远程监听监视、被云上攻击造成大规模信息泄露等成为防守重点。

知名汽车网络安全公司UpstreamSecurity发布的2020年《汽车网络安全报告》显示,自2016年至2020年1月,汽车网络安全事件的数量增长了605%,仅2019年一年就增长了一倍以上。过去十年,前三大攻击媒介分别是无钥匙进入系统(30%)、后端服务器(27%)和移动应用程序(13%);安全事件造成的后果位列前三的分别是汽车盗窃/入侵(31%)、对汽车系统的控制(27%),以及数据/隐私泄露(23%)。

“作为网络安全核心发力的新赛道,车联网面临未授权的访问切片、信任风暴、网源日常响应等风险问题。诈骗检测模型、数据收集、组织分析及持续运营,都是亟需拓展的网络安全新方向。”绿盟科技集团首席技术官叶晓虎同样深有感触。很多时候,车联网若遭受安全攻击,轻则泄露出行轨迹、习惯、语音、视频等个人隐私,重则酿成车毁人亡的惨剧,甚至被控制的汽车可能成为犯罪分子的工具。

因此,我们在畅想智能网联汽车带来的各种便捷时,必须要未雨绸缪,构筑好守护汽车网联安全的防火墙,打破“越智能越危险”的魔咒。“智能网联汽车攻击面扩大,网联功能需求涌现,安全防护急需前置设计。”谈及行业困境,在董威看来,与很多行业现状类似,人才培养缺陷成为通病。“作为智能网联、数据安全、信息安全的重叠产业,汽车行业的信息安全人才稀缺,安全团队组建并没有想象中那么容易。”董威说。

另外,车企业务体系复杂,涉及众多的岗位层级与职能角色,难以建立统一的信息安全管理组织架构;行业缺乏相关实践积累,车企尚在各自艰难摸索,制度流程难落实。以上种种,董威认为都是影响行业发展的关键因素。

有业界人士曾打过这样的比方,“智能网联车是有四个轮子的智能手机”。事实上,车联网安全是功能安全与信息安全的融合。今年4月份发生的上海车展维权事件,引发的有关智能网联车的数据权利和真实性的争议来看,数据安全已经成为汽车行业关注的重点问题。

“数据资产散乱不清、数据资产管理权责不明、敏感数据信息分布情况不清楚、多数据库接口未统一管理导致数据动态监控难实施等,引发数据安全技术及平台工具应用条件受限,安全管控难成体系。”董威说。

万物互联时代,如何做好车联网安全?董威认为,面对外部严峻的安全形势和内部不断涌现的安全强需求,要从人员能力、组织建设、制度流程、技术工具等维度,进行车联网产品信息安全和数据安全的全生命周期能力建设,构建体系化的安全管控平台;无论是整车企业、零部件供应商,还是安全服务供应商,都要从技术路线、法律符合性、场景兼容性、业务上下游、设计验证等角度,进行全方位车联网安全管理。

“行业发展要跨过整车安全单点防护阶段,紧密结合全场景、可信任、实战化要素,进入体系化、标准化建设阶段。”叶晓虎表示,安全防护产品应基于车联网不同车型内部系统区别较大的特性,开发SDK(软件开发工具包)安全能力并嵌入不同的车内系统,以较好的扩展性保障车联网安全。

董威也期待,国家监管部门细化行业监督管理要求,推进行业细则出台,减少监管和规范多范围并行推进的情况,使得车企能够聚焦能力体系的建设及问题解决;推进制定数据安全建设实施指南,建议让行业监管机构牵头,整车企业、互联网代表企业、安全公司共同参与。

[责编:王宏泽]

人工智能最糟糕情况为何我们将如何应对

人工智能(AI)正在迅速成为我们日常生活中不可或缺的一部分,从而改变了我们与周围世界的工作、沟通和互动方式,随着人工智能的不断进步和进一步发展,重要的是要考虑与其发展相关的潜在风险和后果。

在本文中,我们将全面概述人工智能不受控制的发展可能产生的一些最坏情况,从自主武器造成混乱的可能性到超级智能反人类的风险,这突出了我们必须牢记的潜在风险,因为人类继续发展并依赖这些强大的技术。

值得注意的是,除了参考专业资料外,在准备这篇文章时,我们利用了人工智能本身的观点,通过对流行的四种人工智能应用程序提问,即ChatGPT、GPT-4、Sage、“Claude+”,对我们提出了警告,并为我们提供了其对人工智能最坏情况的看法,其中一款应用程序告诉我们,“重要的是要注意,这些情况不是预测,而是我们必须意识到并努力减轻的潜在风险。”

马斯克和专家呼吁暂时停止测试人工智能系统根据虚假信息做出关键决策

有人担心AI可用于使用高级机器学习工具生成伪造(深度伪造)图像、视频、音频或文本,导致虚假信息在互联网上大规模传播,这会破坏信息的完整性,并破坏人们对新闻来源和民主机构完整性的信心。

在噩梦般的场景中,DeepFakes的出现可能有一天会促使国家安全决策者根据错误信息采取实际行动,这可能会导致重大危机,或者更糟:战争。

人工智能教父警告这些系统的巨大危险人工智能军备竞赛

谈到人工智能和国家安全,速度是重点,但也是问题所在,由于人工智能系统为其用户带来了更快的速度优势,率先开发军事应用的国家获得了战略优势,但另一方面,这可能是非常危险的,因为它可能是由系统中最小的缺陷引起的,黑客可以利用这些缺陷。

在这种情况下,赢得人工智能军备竞赛的紧迫性可能会导致安全措施不足,从而增加了创建具有意外和潜在灾难性后果的人工智能系统的可能性。

例如,国家安全领导人可能会试图将指挥和控制决策委托给人工智能,并消除我们不完全理解的机器学习模型的人工监督,以获得速度优势,在这种情况下,即使是在未经人类授权的情况下自动启动导弹防御系统,也可能导致意外升级,并可能导致核战争。

在另一种情况下,通过利用人工智能系统中的一些缺陷或漏洞,可以发起网络攻击,导致发达国家的重要基础设施遭到破坏,窃取敏感数据,或在民众中散布误导性信息,目的是造成混乱和民众动荡,甚至误导决策——制造商提供虚假信息,如第一点所述。

加剧竞争以创建人工智能程序隐私和自由意志的终结

我们采取的每一项数字操作都会生成新数据:电子邮件、文本、下载、购买、帖子、自拍、GPS位置,通过允许公司和政府不受限制地访问这些数据,我们向他们提供了监控和控制的工具。

随着面部识别、生物识别、基因组数据和人工智能预测分析的加入,随着监视和跟踪数据的增长,我们正在进入危险和未知的领域,而对潜在影响几乎一无所知。

数据一旦被收集和分析,其力量就远远超出了监测功能。今天,支持人工智能的系统可以预测我们将购买的产品、我们将观看的娱乐节目以及我们将点击的链接,当这些平台比我们自己更了解我们时,我们可能不会注意到这种缓慢的蠕变会剥夺我们的自由意志并使我们受到外部力量的控制。

人工智能的影响力能到达我们生活的哪些地方?失去对超级智能人工智能的控制

也许这种情况是所有情况中最悲观的,超级智能是指在几乎所有方面都超过人类智能的系统,如果我们未能将此类人工智能的目标与我们自己的目标保持一致,则可能会导致意想不到的负面后果。如果人工智能系统被设计为具有自我改进并自行变得更聪明的能力,那么这种情况就会发生。

一些专家警告说,人工智能最终可能变得如此先进,以至于如果我们无法再正确控制它,它可能会超越人类并做出对人类生存构成威胁的决定,无论是有意还是无意。

人工智能系统旨在从数据中学习并据此做出决策,随着这些系统变得更加先进,它们可以制定自己的目标和价值观,而这些目标和价值观可能与人类的目标和价值观不相容,因此,它们可能会做出对它们有害的决定,或者它们可能变得非常独立,以至于人类很难或不可能控制或关闭它们。

在如此可怕的场景中,人类可能无法预测或理解这些智能系统的行为,这可能会导致意想不到的后果。

例如,旨在改善交通流量的人工智能系统可能会决定将所有车辆重定向到一个位置,从而导致大规模拥堵和混乱,或者,旨在优化资源分配的人工智能系统可能会决定消除人类是实现这一目标的最有效方法。

人工智能和商业工作辩论自主致命武器

人工智能可用于为无人机等致命自主武器提供动力,或制造自主武器,无需人工干预即可决定杀死谁,这可能会导致这些武器失控或被黑客恶意使用的危险场景。

这种类型的武器可能容易受到事故、黑客入侵或任何其他形式的电子攻击,如果攻击者获得了对这些系统的控制权,他们就可以利用它们造成广泛的危害。

自主武器危险性的最明显例子发生在美国空军最近于2023年6月2日进行的测试中,在美国的一次模拟测试中,一架人工智能无人机决定杀死它的(虚拟)操作员,该操作员应该说“是”以同意攻击指定的(假想的)目标,因为它认为它的触发器阻止它实现它的目标并干扰它完成任务的努力。

在战争中使用无人机专制政权的滥用

现在众所周知,人工智能可用于大规模监视(例如人脸识别系统),并使政府或其他实体能够以前所未有的规模监视和控制其公民,这可能会导致隐私丧失,以及控制这些监视技术的人滥用权力,并可能使用它们来侵犯人权和其他形式的压迫。

这方面的一个很好的例子是以色列占领当局在希伯伦市对巴勒斯坦人采取的行动,他们在那里部署了摄像头,监控巴勒斯坦人的行动和面孔,保存他们的数据,并识别他们的身份,人工智能在各个检查站做出允许或拒绝他们通过的决定,甚至可以在没有人为干预的情况下消灭嫌疑人。

人工智能技术..优势和风险工作替代(失业和工作中断)

人工智能有可能使许多工作自动化,这可能会导致劳动力市场和许多工作性质的显着中断。

尽管从长远来看,人工智能可能会创造新的工作类型和机会,然而,过渡期可能很困难,这影响了数百万可能难以找到新工作和适应新经济的人。

随着人工智能系统变得更加先进和强大,它们有可能在广泛的工作岗位上取代人类工人,这可能导致广泛的失业和经济动荡。

这些职业很快就会消失,新的职业将会出现如何降低或预防人工智能的风险

为了减轻这些风险,研究人员和政策制定者正在开发安全可靠的方法来设计和部署人工智能系统,这包括建立人工智能开发的道德准则,确保人工智能决策的透明度和问责制,以及建立保障措施以防止意外后果。

开发透明且可解释的人工智能系统

可解释的人工智能是指人工智能系统为其决策过程提供清晰易懂的解释的能力,这有助于提高透明度和问责制,并提供有关人工智能系统如何做出决策的见解。

开发符合人类价值观的人工智能系统

这包括设计明确编程以优先考虑人类安全和福祉的人工智能系统,并避免会伤害人类的行为,这可以通过将伦理考虑纳入人工智能系统的设计和开发来实现。

开发控制和管理人工智能系统的方法

例如,研究人员正在探索建立允许人类干预人工智能决策过程的机制,或者在人工智能系统开始出现意外或恶意行为时关闭人工智能系统的方法。

跨学科合作应对人工智能风险

这涉及将来自计算机科学、工程、伦理学、法律和社会科学等领域的专家聚集在一起,共同开发解决方案,以应对人工智能带来的复杂挑战,通过合作,研究人员和政策制定者可以更好地了解与人工智能相关的风险,并制定有效的战略来管理这些风险。

版权声明:本文内容由互联网用户自发贡献,该文观点仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌抄袭侵权/违法违规的内容,一经查实,本站将立刻删除。

上一篇

下一篇