博舍

电影《人工智能》观后感 探寻人工智能第一季观后感作文

电影《人工智能》观后感

如果说感人的电影要分类的化,关于我们亲情的更能打动人。《人工智能》就是讲一个小机器人David被造出来之后被John家领养的故事。

David在没有完全初始化之前显得多少有点呆,但被妈妈初始化,知道自己的妈妈后,他的“人的情感”表现出来。他爱自己的妈妈,想得到妈妈的疼爱,和自己的真人的弟弟Jim因为要获得母爱而吃醋。为得到玩具熊泰迪而玩验证游戏。但在这些“争夺”面前真人Jim显得为了自己想要得到的使用害别人的手段,欺骗David去剪妈妈的头发,说这样就会得到妈妈的爱。Jim的人类自私的一面就显的那么刺眼,让人对机器人David一边同情一边喜爱。

David被植入了人类的欲望,有了自己的愿望,并愿意为此去冒险,执着的追求。可惜他太小,知道的并不多,一直被Jim的得到妈妈的爱的谎言而追寻。但这也正是让人感动的地方,他太小了,太天真了。

自然辩证法老师说人类被自己造出的工具所毒害,所影响,所牵着鼻子走。真的是这样吗?人类的自私,善变,嫉妒,怀疑...不更是可怕吗?霍金曾说:“人类有没有未来都是个未知数”。就是指当大规模杀伤性武器的毁灭性。难怪《人工智能》里两千年之后地球的主宰是高级机器人,而不是人类。

正如高级机器人所说:“人类对自己的意义可以有百般解释,是这个世界的奇迹”。但爱也人,恨也人。

探寻生成式人工智能算法规制的思路

  5月18日,第七届世界智能大会在天津开幕。大会期间举办开幕式、高峰会、平行论坛、智能科技展、智能体验等系列活动。智能科技领域的院士专家和企业家聚焦智能网联车、生成式人工智能、脑机交互等前瞻课题,深入探讨AI与经济、社会、人文等领域的热点话题。新华社记者孙凡越摄

  近日,由中国人民大学法学院、中国人民大学未来法治研究院主办的“生成式人工智能算法规制——《生成式人工智能服务管理办法(征求意见稿)》学术研讨会议”召开,来自政府相关部门、高校研究机构、人工智能产业界的专家参加了本次研讨会。

  ■中国人民大学未来法治研究院执行院长张吉豫:

  可以以发展、安全和法治三个关键词概括对ChatGPT为代表的大规模语言模型的系列关注。第一,生成式人工智能技术是划时代的发展,大模型在互联网、数据等架构上可能形成新的层次,深刻影响产业的发展和未来技术的进步。第二,从数据、算法、系统集成等角度来看,生成式人工智能的发展、创新中伴随着风险与挑战。第三,为调节好发展和安全之间的冲突,构建以人民为中心的智能社会法律秩序,对于推动人工智能技术健康有序发展具有重要意义。

  ■百度公司副总裁吴梦漪:

  结合《生成式人工智能服务管理办法(征求意见稿)》的几个看法:一是将开放API和通过API调取功能认定为内容生产者可能提高了对合规义务的要求。二是将生成式人工智能认定为具有舆论属性和社会动员能力的互联网信息服务,可能泛化了适用范围。三是从实践的角度,内容生成的准确性与生成式人工智能技术原理存在冲突。因此,初始阶段监管层面的重点应从追求内容准确性转向对违法利用行为的打击。四是需要辩证看待数据的好坏。生成式人工智能具有一定的创作性,海量的训练数据有利于提高技术的发展速度,希望监管的重点在于生成式人工智能产品的质量,不宜对训练数据和技术路线做过于详尽的规定。五是综合考虑生成式人工智能服务的人机对话特点,简化对真实身份信息要求的规定。

  ■腾讯研究院首席数据法律政策专家王融:

  对生成式人工智能的规制的几个建议。第一,生成式人工智能可能是未来新的信息时代最为基础的工具,超越了单纯的互联网信息服务,应以全新视角去看待。第二,制定规章是必要的,但是目前法律规范本身可能还需要进一步讨论新的问题;输出信息的质量方面有很强的市场自驱力;而大模型时代的底层网络安全和数据安全,发展更为优先。第三,三个月的模型优化训练期限在实践中难以落地,不妨考虑其他多种技术手段。最后,在AI发展领域,风险浮现是渐进式的,市场主体和监管主体应在共同目标和接近的立场下协同解决问题。

  ■中国人民大学法学院教授王利明:

  应正视ChatGPT引发的问题,思考法律上如何积极应对。首先,面对生成式人工智能引发的人格权和知识产权方面的问题,立法过于超前可能会阻碍技术的发展和创新,通过发布管理办法或制定相关措施积累经验,条件成熟后再立法可能是相对稳妥的办法。

  对ChatGPT引发的侵权问题,提出五点建议:一是在价值取向上积极支持人工智能产品的开发。二是ChatGPT不同于自动驾驶等一般产品,让服务提供者承担无过错责任会阻碍技术发展,不符合鼓励技术创新的价值取向。三是可借鉴医疗事故责任的减免规则,因技术水平限制而导致难以消除的漏洞时,可以适当减轻甚至免除服务提供者的责任。四是加强和强化服务提供者对个人隐私信息的安全保障义务。五是关于ChatGPT的幻觉回答导致的侵权责任分配问题,应区别平台大规模生成与用户恶意诱导的情形。

  ■中国社会科学院大学副教授刘晓春:

  从四方面提出监管的建议。一是监管必要性,若在新技术场景下,原有体系能解决大部分问题,就缺乏专门规制的必要性。生成式人工智能的重要风险点在内容层面,如果生成的内容没有传播,是否存在风险仍存在疑问;如果已经传播,则要考虑原有的治理系统是否能够解决问题。二是监管有效性,其核心问题是公权力对产业的治理或干预是否能真实、有效地达到基于监管必要性的风险治理目的。三是结合我国现有产业背景考虑监管技术的应用场景。未必每个企业都研发大模型,但是在应用层面具有各自极大的拓展商业的可能性,应为应用层面的商业模式留出发展的空间。特别是在对内容生产者的定义上不应拓宽。四是从立法基础的角度考虑协调性。比如,在实名制问题上与网络安全法相协调,在算法的评估和备案问题上,也应基于现有的机制协调。

  ■对外经济贸易大学副教授许可:

  《生成式人工智能服务管理办法(征求意见稿)》与之前的法律、现有的实践和技术存在四大矛盾。第一,新法和旧法的矛盾。《互联网信息服务深度合成管理规定》中的深度合成技术和《生成式人工智能服务管理办法(征求意见稿)》中的深层次人工智能技术之间有何异同尚不明确,未来执法过程中可能产生矛盾。第二,域外效力和属地管辖之间的矛盾。《生成式人工智能服务管理办法(征求意见稿)》涉及的内容超出了《个人信息保护法》覆盖范围,部门规章是否能设立超出上位法的域外管辖权存在疑问。第三,网络信息内容安全管理和通用技术规制之间的矛盾。将通用性的人工智能限制在网络信息内容上,可能出现规制工具和规制目标的不匹配。实际上,在不同的场景下,生成式人工智能的风险因形态而异,如何判断其风险,需要模块化判断。第四,全流程安全要求和技术内在特征的矛盾。全流程的管理和生成式人工智能的特性不符,例如,预训练数据的合法性难以实现,数据与最后信息生成之间也并不存在直接映射关系。

  ■对外经济贸易大学副教授张欣:

  在监管对象上,我国的人工智能企业此前多集中在应用层,在基础层和技术层分布相对较少。在监管方式上,面向生成式人工智能的产业链特点,可以提升监管的互操作性、一致性。在监管创新上,一方面应注重监管的韧性,另一方面应积极探索以模块化监管为代表的新型监管方式。对《生成式人工智能服务管理办法(征求意见稿)》的四点修改意见:第一,进一步厘清第2条对“生成式人工智能”的定义。第二,面向产业链特点明确第5条中“产品生成内容生产者”的范围,不宜通过一刀切的方式让所有行为主体都承担产品内容生产者的责任。第三,第7条关于预训练数据和优化训练数据来源的准确性问题可以适当调整,只要在可接受的技术水平条件下,组织和企业履行了相应义务,可认为符合人工智能准确性原则。第四,第15条关于防止再次生成的期限和防止再次生成的方式聚焦于技术过程,目前的技术手段上难以达成,可以转换为从结果监管的角度防止被用户举报的不合法合规的内容再次出现。

  ■中国人民大学法学院教授万勇:

  在生成式人工智能对著作权法合理使用制度的挑战方面,生成式人工智能可能涉及著作权法上的复制权、演绎权和向公众传播权。但是,目前的合理使用类型难以适用于人工智能技术。其次,为了解决相关的问题,应人工智能产业发展的合理使用制度改革,主要有两种解决方案:一是重塑理论基础,提出“作品性使用”与“非作品性使用”的概念,为了数据挖掘目的而使用作品,只有部分情形属于“非作品性使用”;二是改造制度规范,包括增设具体例外条款或引入开放式例外条款。建议修改《著作权法实施条例》,引入专门例外,兼顾产业发展和著作权人的权利。

  ■中国人民公安大学法学院教授苏宇:

  处于追赶中的国内生成式人工智能在风险治理之外也非常需要制度支持。生成式人工智能大模型面临算法解释难、算法审计难、算法标准形成难、算法影响评估难、算法认证难等问题。《生成式人工智能服务管理办法(征求意见稿)》的主要考量问题是信息内容安全问题,在安全保障方面设计了“六重叠加”的机制,包括输出端的生成结果控制、输入端的数据来源和数据信息内容限制、扩展的内容生产者责任、用户举报与主动监管结合、宽泛的信息提供义务、与算法推荐和深度合成等已有立法的有限衔接等。其中部分机制存在不同程度的安全冗余。除此之外,还有需要充分考虑的治理要点,包括生成代码的单独归类、训练数据的必要区分、输出结果的类型提示、数据来源合法性的具体界定等。总体来说,对生成式人工智能的法律治理,大幅度降低无效或低效风险冗余应当是机制设计的重要目标。

  ■中国信通院高级工程师程莹:

  生成式人工智能第一大特点是通用目的性。作为新底层基础平台,AIGC供应链被拉长,研发者是否应承担责任,研发者、平台方、B端用户、C端用户等如何分担责任成为关键问题。征求意见稿第5条应对各个主体进行精细划分。第二个特点是内容生成性,带来了知识产权、虚假信息等问题。未来生成式人工智能代表了知识调用方式的变迁,将掌握绝大多数信息来源,相较于深度合成的重点标识义务,负有更高算法评估、自我审查等义务。然而,一刀切要求训练数据和生成结果的真实性可能与生成式人工智能的技术本质存在一定冲突。第三个特点是数据依赖性,这是人工智能一直以来的典型特征,但是呈现了新的形式,例如中文语料库输入不足带来的文化偏见、数据虹吸效应带来的数据泄露风险等,相关法律义务应注意保持与上位法要求的一致性。

  ■中国科学技术信息研究所助理研究员刘鑫怡:

  英国的监管框架是基于人工智能应用场景来规范人工智能应用,而非规范人工智能技术,并不为整个行业或技术设定规则或风险级别。在监管依据上,在不确定的技术应用和治理中探索可量化、可定性的成本收益及影响,这对我国监管政策的出台有启发意义。在目前的大模型监管上存在难点。主要包括三方面:一是技术的局限性导致目前难以达到治理的高标准;二是大模型治理的方式和限度难以把握;三是目前多样化治理工具没有完全发挥作用。随着多模态大模型的研发和广泛应用,未来的风险问题会逐步深化。建议在统筹发展与安全的基础上,构建全生命周期的差异化监管机制,加强人工智能重点领域关键环节监管。同时倡导“以技治技”,开展安全可信技术的治理。(金灿)

探寻人工智能阅读答案

探寻人工智能李慕琰韩国棋手李世石败给AlphaGo后,人工智能逐渐走进大众的视野。杨澜团队拍摄的《探寻人工智能》第一季播出时,适逢中国棋手柯洁即将对战AlphaGo。杨澜预测:“人类有出奇制胜和不按常理出牌的能力,哪怕赢一局,我觉得也是赢。”最终,柯洁一局也没有赢。第一季刚播完,杨澜团队就把注意力放到人工智能在城建、医疗、教育、出行等领域的具体应用上。第二季从雄安新区说起,这是一个从规划和建设开始就“具有人工智能基因”的城市。在雄安,园区里四处遍布各式各样的智能机器人,承担了安保、清洁和外卖等工作。街道上几乎没有红绿灯,人们可以乘坐无人驾驶的电动巴士出行。在日常生活里,人工智能也已无处不在。预计到2025年,全球的个人智能终端超过400亿个,即平均每个人能拥有五个以上的智能终端。杨澜每次和有交流功能的机器人对话前,工程师都会交代,只能用某些句式或某些类型提问。“超出这个它就不懂了,更何况你的语意后边还有很多,比如表情、潜台词、话外之声,这些就不要指望机器能够知道……”参演多部人工智能题材电影的好莱坞知名演员摩根•弗里曼问她,“你大老远地跑来采访我和其他这么多人,人工智能会有同样的好奇心去采访其他的人工智能吗?”其实,即使出现了人工智能主持人,也基本上属于新闻播报类,或者只是机械地把问题问出来而已。杨澜相信:“将来不是谁取代谁,而是人机共存、各走各的道,或者说机器做机器擅长的事,人类会更加聚焦于自己擅长的事。”然而,人工智能替代部分人力工作正引发失业问题。在这一点上,技术乐观派认为每一次科技革命在取代人类工作的同时,都会创造更多的工作。比如在贵州,人工智能催生了一种新兴职业﹣﹣数据标注师,目前已有六百多人从事,他们负责为无人车标注路况中遇到的物体,教它们识别和分析各类障碍物。人工智能输入和输出之间的计算过程,存在一个未知的“黑箱”。当数据被污染,它的结论可能出现偏差,例如计算符合恐怖主义者的画像,很可能结果带有种族或性别的偏见。情感与创造能力也是人工智能的弱项。制作过程中,杨澜团队发现艺术领域人工智能成果最少。杨澜最近录制一档诗歌节目,看到了两个人工智能团队开发的作诗软件,她形容那些诗词“似乎听说过,但是看完后不知所云。它可能还是做现代诗比较好,本身就让人看不太懂”。2018年,李开复在达沃斯论坛和TED大会现场提起人工智能说:“所有人都会问这样一个问题:人工智能会给人类带来什么威胁和挑战?”在医疗手术和无人驾驶这样的领域,人工智能的应用意味着人们得把生命交给机器。虽然人工智能识别影像时,比人类医生的误判率更低,但它依然只能作为辅助手段。2015年2月,英国首例机器人心瓣修复手术发生惨痛事故:机器把病人的心脏缝错位置,还戳穿了大动脉,患者在术后不久便死去了。这种手术机器人的失误率与致死率一直遭受质疑。失误似乎还发生在无人驾驶领域,国外已经有许多例交通事故。人工智能对数据和隐私的提取是另一个隐患,甚至干扰了政治选举。一家名为“剑桥分析”的公司被媒体披露从某社交软件中获取几千万用户的私人信息,分析并用于政治营销活动,影响了多国选举,包括2016年美国总统大选。早在1995年,欧盟就在法律中提出了“被遗忘权”的概念,指的是人们不再需要个人数据时,可以提出删除的要求。“这其实引发了我们对自我权利的一个新的认知。”杨澜认为,新技术给社会治理带来便利,例如人脸识别让逃犯更易落网,但这是安全和个人权利之间的交换。对于这些交换,人们首先需要知情权,如果它用于商业利益,人们也应当有所回报。(选自《南方周末》,有删改)(1)下列对文中“人工智能”的理解,不正确的一项是A.人工智能的思维能力已经能够在某些领域对抗人类出奇制胜的能力。B.人工智能应用广泛,发展迅速,已在不少非情感和创造领域替代人力。C.人工智能相较医生虽有更高的影像识别率,但也只能作为医疗辅助手段。D.人工智能与人类共存并各自聚焦于所擅长的事,是未来社会的可能趋势。(2)下列对原文内容的概括和分析,不正确的一项是A.人机交流还处在句式运用或类型提问阶段,不能深入到复杂语意或言外之意上。B.每次科技革命在引发失业问题时,都创造更多的工作,人工智能可能同样如此。C.创作古诗词需要较强的情感和创造能力,所以人工智能比较适合创作现代诗歌。D.在医疗和交通领域,人工智能因人们对它的失误率有更严苛的要求而受到质疑。(3)概括人工智能对人类有哪些威胁和挑战。答(1)A.理解错误,原文第三段为“杨澜预测:‘人类有出奇制胜和不按常理出牌的能力,哪怕赢一局,我觉得也是赢。’最终,柯洁一局也没有赢”,这仅是杨澜的预测,不能作为推断的依据。(2)C.强加因果,原文倒数第五段为“情感与创造能力也是人工智能的弱项”、“似乎听说过,但是看完后不知所云。它可能还是做现代诗比较好,本身就让人看不太懂”。(3)①数据被污染,结论就可能偏差,强化我们的偏见;②在医疗和交通领域,人工智能的应用意味着人们把生命交给机器,可能危及生命;③个人数据和隐私可能泄露,影响政治活动,损害个人权利。

相关阅读1求知方式各异,无论是看画面、听声音还是浏览文字,摄取知识和信息之后

求知方式各异,无论是看画面、听声音还是浏览文字,摄取知识和信息之后,在、沉潜往复中使之沉淀为思考和智慧都是必不可少的过程。朱熹有云:泛观博取,不若熟读而精思。文字【查看全文】

2《故乡》阅读答案-2022年中考题

①一日是天气很冷的午后,我吃过午饭,坐着喝茶,觉得外面有人进来了,便回头去看。我看时,不由的非常出惊,慌忙站起身,迎着走去。②这来的便是闰土。虽然我一见便知道是闰【查看全文】

3灾难,是观照一个民族灵魂的镜子。抗疫期间,有句话刷屏了

灾难,是观照一个民族灵魂的镜子。抗疫期间,有句话刷屏了:劲头上来了,很多东西都能解决。中国人的精气神和永恒不灭的民族魂就是这股劲。从白衣战士冲锋在前的身影里,人们【查看全文】

4《孩子的力量》阅读答案

孩子的力量列夫托尔斯泰(俄)打死他!枪毙他!把这个坏蛋立刻枪毙!打死他!割断凶手的喉咙打死他!打死他!人群大声叫嚷,有男人,有女人。一大群人押着一个被捆绑的人在街上走着。这【查看全文】

5三哥营地阅读答案-陈毓

三哥营地陈毓早起开门,三哥打眼望见坪场上那棵板栗树下,环绕树冠炸开一地油亮亮的板栗。三哥看着板罘出神,一只松鼠突然跳到树下,被随之坠落的包惊吓,长尾巴一甩,呼一【查看全文】

6材料一:2020年4月24日是第五个中国航天日,也是中国首颗人造地球卫星“东方红一号”成功发

材料一:2020年4月24日是第五个中国航天日,也是中国首颗人造地球卫星东方红一号成功发射50周年纪念日。当天,国家航天局公布了面向深空的中国行星探测任务天问系列名称和揽星九【查看全文】

版权声明:本文内容由互联网用户自发贡献,该文观点仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌抄袭侵权/违法违规的内容,一经查实,本站将立刻删除。

上一篇

下一篇