博舍

让人工智能守住“技术向善”底线 能理解不能取代 人工智能不能替代的领域

让人工智能守住“技术向善”底线 能理解不能取代

  ICC讯3秒钟即可生成一段尼山圣境景区门票的直播带货视频,5秒钟就能产出一份景区招商方案及详细流程……在6月26日召开的世界互联网大会数字文明尼山对话主论坛上,360集团创始人周鸿祎展示了大模型赋能企业办公的全新场景。他表示,大模型未来发展的主要场景在企业、行业、政府和城市,应通过打造“安全可信、可控易用”的专有大模型,助力产业从数字化到智能化的转型升级。

  当下,人工智能正在融入生产生活,赋能千行百业,但其在数据、技术、管理、道德等方面的风险也凸显出来。“构建安全可信的人工智能”正引起越来越多的关注。在此议题下,来自360集团、百度、阿里巴巴及多家国际组织、信息通信技术领域的代表专家展开探讨,给出建议。

  安全负责任地驾驭AI,才会创造繁荣

  “坚持技术发展和安全可控的双轮驱动,才能够行稳致远。”百度创始人、董事长兼首席执行官李彦宏在发言时表示:“如果我们安全负责任地驾驭AI的发展之路,大模型就会重塑数字世界,人工智能就可为中国经济乃至全球经济创造出无与伦比的繁荣,提高全人类的福祉。”

  “我们认为,人工智能技术在中国的发展,具备基础扎实、场景丰富、数实融合这三方面的优势。”阿里巴巴集团董事会主席兼首席执行官、阿里云智能集团董事长兼首席执行官张勇认为,随着社会各界的高度重视和创新生态的发展壮大,这些优势正在不断巩固和加强。与此同时,“构建安全可信的人工智能”已逐步成为行业共识。

  人工智能技术的发展也面临着一系列挑战,包括数据安全、隐私保护、知识产权等问题。这些问题随着人工智能技术的发展和大模型的应用,被放到了更为显著的位置。在张勇看来,只有监管部门和企业之间开展积极且具有前瞻性的沟通与合作,推动关于数字产权、数字交易、数据资产交易以及数据资产使用等多方面的规则构建,才能使新技术的使用不仅能为社会带来新亮点和新进步,同时也能够更好地规避在发展中可能会出现的问题。

  能理解人类语言,但不能取代人类

  “就在几个月前,2023年初,大语言模型ChatGPT的出现让大家清楚地看到,我们已经突破了语言理解的壁垒,通用人工智能达到理解人类自然语言的领域,这是多么令人惊讶的进展,完全出乎我们的意料。”人工智能促进协会原主席、康奈尔大学教授巴特·塞尔曼表示,GPT-4实现了通用人工智能的第一种形式,引入了一种新的实体,将不可避免地改变许多现有的社会结构和机制,人类需要重新思考人工智能将带来的影响。

  塞尔曼教授提到的GPT-4,是OpenAI为聊天机器人ChatGPT发布的语言模型。

  “在享受人工智能带来的好处的同时,必须认清其会带来许多社会和伦理方面的挑战。”阿拉伯信息通信技术组织秘书长穆罕默德·本·阿莫表示,人类智慧创造了人工智能,目的是让生活更轻松,帮助而不是取代人类。智能可以是人工的,但智慧状态始终是人类的专属特权。

  阿莫建议,应围绕隐私、透明度、责任与问责、稳健性和弹性5个方面,构建安全可信的人工智能。除此之外,还应建立道德框架,并通过以人为本的设计优先考虑人类福祉,为推动构建安全可信的人工智能作出贡献。

  “网络安全是一个根本性问题。”欧洲标准化委员会主席沃尔特·福美呼吁,“资源是有限的,专家有限的,在AI领域,我们必须充分合作和协作,避免重复性工作。”

人工智能会取代科学家吗

传统认为,科技工作因其高度的创新性,因此科技工作者很难被人工智能取代。但日前,国际学术期刊《自然》发表的一篇论文吸引了大家的眼球。科学家们改造了一种汽车装配线上常见的机器人,让它可以在化学实验室内工作。通过与机器学习算法相连,这种机器人可以使用和人类化学家一样的标准分析仪器,“相当于使研究人员而非仪器变得自动化”。同时,由于它和人类体积相当,可以在传统实验室内工作,而无须建立或改造新实验室。在提高一种聚合光催化剂性能的实验中,这款机器人在2~3天内便优化了反应条件,而人类要几个月的时间才能做到。原因之一,就是这种机器人采取了激光扫描和触觉反馈相结合的方式实现定位,而不是视觉系统——不用“看”的机器人无须光亮,因此极大地提高了光催化实验的效率。研究者认为,这个机器人将在传统实验室有更多应用。那么,人工智能会取代化学家吗?会取代科学家吗?本期,我们邀请兰州大学化学化工学院教授王为,中国科学院自动化研究所研究员侯增广,和中国科学院物理研究所研究员王磊一起来谈谈这个话题。

1.人工智能已成为科学家的好帮手

侯增广(中国科学院自动化研究所研究员):简单地说,《自然》刊登的论文在技术方面有两个亮点。一是采用机器人代替传统实验室的实验员,克服了光催化实验人工操作过程中的一些问题。这个实验应用的就是常见的具有机械臂的移动机器人平台,它连续运行了8天,做了688个实验。第二个亮点是采用了贝叶斯算法,这是一种基于概率统计的分类算法,使实验效率大大提升。

机器人最早在制造和生产领域得到应用。目前,在科学发现领域,机器人在精度要求比较高的场景中,如时间精度、位置精度、操作精度等,有了很多应用。例如,人工授精要求把精子准确地送入卵子中,精度要求比较高,这类任务如果采用机器人将比人工操作的效率高很多。

人工智能的应用给科研带来很多新变化,增加了新可能。比如,采用人工智能方法对数据的采集更客观、分析更准确。同时,人工智能有强大的计算能力,能够发现人容易忽略的小样本事件、罕见样本事件,可能给科学研究带来意想不到的发现。

王为(兰州大学化学化工学院教授):人工智能如何帮助化学家?我们首先要理解“化学学科”和“人工智能”的内涵和外延,判断它们各自面临的瓶颈和发展的方向,再分析它们可能采用什么方式交汇融通。

化学是发现和创造物质的学科。要解决的基本问题包括:物质如何(精准)创制?物质的组成和结构如何?物质有什么(独特)的功能?上述问题的解决,从根本上讲需要对微观物质世界的底层逻辑形成理论体系。因此,化学学科既需要动脑,也需要动手:从发现和创造物质的实践中获得数据,从数据中总结新的经验和规律,再从经验和规律中指导未知的、获得新数据的实践。简言之,化学学科的发展需要从微观到宏观的多尺度层级上,高效精准获取数据、建立数据和理论之间的强连接、完备理论体系。

新一代人工智能的核心是在大数据基础上将智能问题转化为数据问题,其发展需要三个核心要素的支撑:计算能力、海量数据、数学算法。人工智能的基本层级是智能放大和综合,包括信息的采集、录入和分析。进阶层级是智能预测,即在大数据基础上预测特定事物的发生概率。高级层级是智能学习,即通过算法上的革新,突破人类的思考模式,在基本规律下自主地创造机器的思考模式,从而输出全局最优的结果。

人工智能在化学领域中的应用初见端倪。其对于化学家的帮助可能表现在以下几个层级:一是辅助动手,高效获得数据。二是辅助动脑。通过对海量数据的分析,人工智能可能预测出新的物质合成途径、发现物质的新功能、建立新的逻辑连接(构效关系)等。三是针对化学领域的核心问题,通过深度学习(算法创新)和深度自动化,实现动手和动脑的深度结合,完成自主创新。以此标准衡量,人工智能在化学领域中的应用还处在起步阶段。《自然》这篇工作的核心亮点是提供了高效获取数据的深度自动化研究平台,为将来动脑和动手的有效结合起到示范作用。

王磊(中国科学院物理所研究员):今天的人工智能已经在科研领域给科学家带来很多帮助。我们可以想象,爱迪生发明灯芯,要对各种材料不停试错,如果有这种机器人的帮助,那可能提早电灯的发明。其实,在科研领域有很多类似的应用。比如我们中科院物理所,在晶体材料的合成和生长上,就使用人工智能作为辅助。我们所几辈科研人员在这个行业深耕几十年,留下了丰富的实验数据,但都是写在纸上的。我们把这些实验记录数字化,再“训练”一个识别程序,就能用来预测晶体能不能长成等。再比如,在材料科学中,很多时候科学家们要从材料微观组成,例如原子排列顺序等,来推测材料可能具备的宏观功能,例如亲水性等。通常这个计算是很复杂的,需要耗费大量时间。现在,人工智能通过“学习”之前的计算结果,已经可以完成这部分工作。当然,其准确性还有很大提升空间。

2.什么样的科技工作者会被替代

王为:我的基本观点是:人工智能在未来会替代重复性的化学实验和测试工作,有可能改变甚至变革化学研究的范式,但从根本上无法替代化学家。

就获取数据而言,人工智能在预先设计的化学实验中表现得更加高效。相较于人的操作,其标准化程度更高、误差更小,能帮助化学家获得更大量的、标准化的、可对比的数据。就数据分析而言,相比于人类记忆以及理解数据的局限性,人工智能可以更为精准、有效地收集、分析、整合数据,并可能寻找到相应的规律。因此,人工智能有可能在化学领域的应用中率先取得突破,从而改变甚至变革化学研究的基本模式。

而取得突破的先决条件至少有两点。一是获取海量数据。人工智能的基础是大数据。就机器学习的需求而言,目前化学领域所能提供的数据数量非常有限、可对比度极低。二是实现算法创新。基于化学领域提出的特定科学问题,在海量数据存在的前提下,通过算法创新,突破化学领域现有的思考模式和理论框架,锁定多参数复杂体系的最优解。就此而言,人工智能在化学领域中的应用还有很长的道路要走。

侯增广:人工智能很可能给实验室带来巨大变革,甚至出现无人实验室。但我认为,短时间内,人工智能和机器人不能替代科学家。我们看《自然》刊登的这个实验中,进行实验顶层设计的,比如实验架构等,还是科学家,机器人和人工智能只不过是人的手和眼的延伸。我认为,即便深度学习等人工智能方法发展起来,也不太可能替代科学家。因为人工智能是建立在算法之上,它的能力的获取是基于大量数据得来的,强大的基于数据的计算能力是人工智能的核心能力。但人工智能和真实的生物智能还有很大差距,人从来就不是这么思考的,人类的智能是基于知识、而非基于数据的。而这点,人工智能还做不到。比如我们课题组在研究手术机器人。在某些方面,它的精准度比普通医生要高。但是人体是非常复杂的,每个人的情况也千差万别,遇到复杂病灶、复杂障碍如何处理?这点机器人还不行,比不上经验丰富的医生。因为这些能力和判断都是基于经验知识的,而非简单数据。

王磊:科研中,那些重复性高的、有固定流程的工作可能被替代。但对于是否能替代科学家这个问题,我的看法是比较保守的。比如我们物理学,最重要的是在现象中发现新的物理定律。但目前的人工智能算法,还看不到能发现新物理定律的可能,作出创新性发现的可能性比较小。我现在做的深度学习与计算物理交叉的研究,起码目前还没有看到人工智能能够取代科学家的证据。虽然现在也有很多实验模拟一个环境,看看人工智能是否能取得重新发现。比如给人工智能万有引力定律发现之前的各种数据,看人工智能能不能像牛顿一样发现万有引力定律。有些实验声称获得了很好的结果,但仔细研究这些实验,会发现其中有很多可控的空间。因此,我总体认为,目前的人工智能做出创造性发现的可能性比较小。

3.人工智能是否会引发与人争工作的伦理隐忧

侯增广:我觉得这方面担忧是不必要的。我们借助人工智能和机器人可以提高工作效率,把人从重复性的、危险性的工作中解放出来。这是一种社会的进步。当然,人工智能的发展也面临很多伦理问题,这不可能在一个访谈中尽谈。我只能从我所在的这个领域谈一个伦理问题的例子:目前的人工智能方法是不能够保证计算结果百分百正确,我们应该把什么样问题的决定权交给人工智能?如果出现失误,这个责任应该由谁来承担?我们再以手术机器人为例。之前说过,人体是十分复杂的,手术中会遇到各种各样的状况。如果是人做手术,他很清楚自己能力或技术的边界在哪里,什么样的问题是他不能解决的。因此,可以及时向老师、前辈请教,或者邀请其他科室的大夫来会诊。但如果是机器人自主做手术,它是按照程序来运行的,这个程序不可能包含所有可能发生的情况,机器人也不会清楚自己能力和技术的边界。那么,在某些程序交由机器人来判断和决定的情况下,一旦手术失败,这个责任由谁来承担?是算法的研究者,是机器人的制造商,还是按下操作键的医护人员?这是一个值得大家关注的伦理问题。

王磊:每一次技术的更新换代,都会带来产业的变化,某些工种可能被替代,从而引导劳动力向不同的方向分流。我觉得从人类整体的发展而言,与人争工作这个伦理问题可能不是最急迫的。我们目前讨论更多的伦理问题,是如何让机器不“染上”人类的偏见。我们知道,人工智能是基于大数据的,这些数据集的标签的制备过程都需要人。特别是,原来数据集是由人写的,可能会进行克制。现在数据集都是互联网搜集的,偏见很难避免,比如基于肤色的偏见、基于性别的偏见等。那么,在人工智能的应用中,如何在算法中去除这些偏见,是我们要面对的比较紧迫的伦理问题。

人工智能:我不能取代医生

    “虽然我是个接受过大量信息训练的语言模型,但我不是有执照的医疗专业人员,我无法提供医疗诊断、治疗或建议。”在被问及“是否会取代医生”时,聊天机器人ChatGPT这样回答美国有线电视新闻网(CNN)。

    不过,美国《纽约时报》发现,这款聊天机器人对医生们颇有帮助,它提高了他们与患者进行同理心沟通的能力。

    CNN称,6月底发布的一份研究表明,面对患者提出的医疗诊断、护理需求等问题,ChatGPT的回复“比医生的回复更受欢迎,在内容质量和同理心方面的评价明显更高”。根据该研究,平均而言,ChatGPT的回复质量比医生高21%,同理心高41%。

    举例来说,同样是回答“漂白剂溅入眼睛后是否有失明风险”的问题,ChatGPT在回复中先是对患者受到的惊吓表示同情,随后简洁明了地给出并论证了“不太可能”的结论,最后给出了处理建议和鼓励。相较之下,一位医生的回答是“听起来,你会没事的”。

    对比一目了然。《纽约时报》称,借助ChatGPT,医生们可以找到更稳妥的方法陈述坏消息,表达对患者痛苦的担忧,用更通俗的语言解释医疗建议。

    对此,有专家提出质疑。美国斯坦福医疗保健公司数据科学团队成员德夫·达什称,他和同事在测试ChatGPT等大型语言模型时,收到了一些无效、矛盾甚至错误的回答。他们对使用该类模型帮助医生的前景持消极态度。

    医生是否有必要借助人工智能,让患者的就诊体验更好?

    专家认为,好的态度不等于好的医疗建议。美国匹兹堡大学医学院危重疾病伦理与决策项目主任道格拉斯·怀特解释道,“大多数医生对患者的感受重视不足,他们只是把病人的提问当作一系列需要解决的客观问题,可能忽视了病人和家属的情感问题。”

    有时,医生非常清楚同理心的必要性,但很难找到合适的表达方式。格雷戈里·摩尔是美国微软公司负责健康和生命科学的高级管理人员,他想帮助一位身患晚期癌症的朋友。这位朋友的情况很糟糕,需要关于治疗和未来的建议。摩尔决定把这些问题交给ChatGPT。

    “结果令我大吃一惊。”摩尔告诉《纽约时报》。该人工智能给了他长长的、充满同情的回答,让他向朋友解释缺乏有效治疗方法的原因,给了他一些应对坏消息的方法,甚至建议他“在努力帮助朋友的同时,也要妥善应对自己的悲痛和压力”。

    摩尔惊讶于人工智能的帮助,赶忙将其推荐给医生同行,但他告诉《纽约时报》,大多数同行在犹豫,是否要使用ChatGPT来寻找更富同情心的表达。

    耶鲁大学医学院结果研究和评估中心主任哈兰·克鲁姆霍尔茨说,“医生承认这样使用ChatGPT,就等于承认自己不知道如何与病人交谈。”

    尽管如此,那些尝试过ChatGPT的人认为,医生们应该多尝试一下,看看人工智能能做些什么。

    “该程序能够在几分钟内,准确完成医生通常需要一个月才能完成的工作。”哈佛大学教授、《新英格兰医学杂志》编辑科哈尼医生告诉《纽约时报》,阅读转诊信和病史、决定是否接受患者是一项很耗时的工作,但ChatGPT能轻松、可靠地完成,极大地减轻了医生的负担。

    美国得克萨斯州达拉斯市一家私人诊所的风湿病学家理查德·斯特恩表示,GPT-4已成为他的“忠实伙伴”。它会对病人的电子邮件做出善意的回复,为工作人员提供富有同情心的答案模板,可以接管繁重的文书工作,还可以为患者向保险公司撰写申诉信。

    “与其说ChatGPT是患者的指南,不如说它是对医生的支持。”不过,美国宾夕法尼亚大学医学教授兼高级副院长大卫·阿什对CNN强调,最好在对病人而言风险较低、“远离临床接触”的情况下使用它。

    责任编辑:袁野

综合编译赵婷婷

版权声明:本文内容由互联网用户自发贡献,该文观点仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌抄袭侵权/违法违规的内容,一经查实,本站将立刻删除。

上一篇

下一篇