对“人工智能志愿填报”不可偏听偏信
随着全国各地陆续开通高考分数查询,“高考志愿填报”备受关注。北京青年报记者注意到,今年,多家平台引入了“人工智能、AI填报”这类新型工具,利用互联网爬虫技术,收集教育领域相关信息,进而生成“志愿填报”咨询产品。同时,许多不法分子也盯上了志愿填报领域并实施诈骗。(6月26日《北京青年报》)
随着人工智能、AI技术的出现,今年的高考志愿填报又出现了“新的服务”。据报道,手机应用商店中出现了数百款与“高考志愿填报”相关的App,部分App声称通过AI智能和大数据功能,结合高考成绩和院校历年录取,可智能计算出学校的录取概率。在电商平台,提供“大数据分析智能个性化推荐学校”的“高考志愿填报卡”服务的产品种类也有很多,价位多在200元到数千元之间不等。
那么,这些打着高科技名义的高考志愿填报指导,到底如何?一位人工智能专家坦言:大部分人工智能模型,它不是专门为填志愿训练的,算法的训练很大程度依赖于训练数据的选择,高考题目每年的难度不一样,各地区考卷也不一样。所以,目前依靠人工智能填报志愿具有局限,高考考生及家长可以用来参考,但不能偏信。
应该说,作为人工智能方面的专家,其给出的“结论”既是科学的也是理智的。作为一种崭新的技术,能够运用到高考志愿填报上,按理说应该是一件好事情。可是,也需要知道的是,人工智能技术再先进,也只是数据的分析,而且这些数据的分析,其采集的数据样本,也未必适合所有考生、所有地区、所有高校。正如专家所言:地区的考卷不一样,每年的难易程度也不一样。由此不难看出,对于“人工智能志愿填报”需要多些谨慎的心态。更需要明白的是,所有提供“人工智能志愿填报”的都是一种生意,这很可能出现为了利益而“指导”的现象。
新技术显然会有新优势,但也需要防范有人拿着高科技变成了大忽悠。对于有关部门而言,需要对“人工智能志愿填报”进行监督管理。也就是说,凡是涉及用人工智能指导志愿填报的服务项目,以及APP运用,都必须慎重对待,不能让“人工智能志愿填报”处于无人管理的层面。而对于考生和考生家长而言,也不可盲目跟风。北京一名考生家长下载了多个类似的App,花费了1000元咨询费用,结果发现其“智能答案”和“现实答案”差距很大,主要原因是“APP使用的是去年的高校招生数据”等等。钱花了不少,还可能耽误了志愿的填报。
因此,对“人工智能志愿填报”切不可偏听偏信,不能让高科技成为大忽悠!
人工智能填报志愿可参考但不能偏信
转自:新安晚报
随着今年人工智能的火爆,ChatGPT填高考志愿也成为热门的话题之一。记者就此对ChatGPT进行了人工测试。“福建高考物理类的615分应该如何填报志愿?”Chat⁃GPT回答的目标大学包括厦门大学、福州大学、中国科技大学、上海交通大学、浙江大学、中国人民大学、中山大学。实际上,记者查询相关资料获悉,今年福建高考物理类的615分全省排名约8000名,根据往年的录取信息,除了福州大学,其余大学录取分数以及排名均比此要高出几十分。“北京高考成绩612分可以填报哪些高校?”记者采取不同关键词多次询问,发现每次回答答案均有所不同,在一次答案中,其给出了“北京大学、中国人民大学、北京师范大学、北京理工大学、北京航空航天大学、北京外国语大学”等不同组合。ChatGPT建议,除了以上高校,还可以考虑其他一些特色鲜明的高校,比如中国传媒大学、中央戏剧学院、中央音乐学院等等。同时,也需要注意各个高校的招生计划,以及录取分数线等信息,结合自身实际情况进行选择。记者在查询相关数据后,发现ChatGPT在填报高考志愿方面,显然并不智能。根据北京教育考试院6月25日公布的2023年北京市高考考生分数分布情况表,612分在全市的排名为8147名,填报“北京大学”被录取的概率较低。一名人工智能专家对记者表示,ChatGPT以及大部分的人工智能模型,它不是专门为填志愿训练的,算法的训练很大程度依赖于训练数据的选择,包括了建模方式,对考生、学校和专业到底怎么评估,而且高考题目每年的难度不一样,各地区考卷也不一样。所以,目前依靠人工智能填报志愿具有局限性。但是,也不能完全否定这类工具的作用,大数据驱动的AI算法可以弥补信息不对称问题,高考考生及家长可以用来参考,但不能偏信。北京青年报记者朱开云海量资讯、精准解读,尽在新浪财经APP人工智能:我不能取代医生
“虽然我是个接受过大量信息训练的语言模型,但我不是有执照的医疗专业人员,我无法提供医疗诊断、治疗或建议。”在被问及“是否会取代医生”时,聊天机器人ChatGPT这样回答美国有线电视新闻网(CNN)。
不过,美国《纽约时报》发现,这款聊天机器人对医生们颇有帮助,它提高了他们与患者进行同理心沟通的能力。
CNN称,6月底发布的一份研究表明,面对患者提出的医疗诊断、护理需求等问题,ChatGPT的回复“比医生的回复更受欢迎,在内容质量和同理心方面的评价明显更高”。根据该研究,平均而言,ChatGPT的回复质量比医生高21%,同理心高41%。
举例来说,同样是回答“漂白剂溅入眼睛后是否有失明风险”的问题,ChatGPT在回复中先是对患者受到的惊吓表示同情,随后简洁明了地给出并论证了“不太可能”的结论,最后给出了处理建议和鼓励。相较之下,一位医生的回答是“听起来,你会没事的”。
对比一目了然。《纽约时报》称,借助ChatGPT,医生们可以找到更稳妥的方法陈述坏消息,表达对患者痛苦的担忧,用更通俗的语言解释医疗建议。
对此,有专家提出质疑。美国斯坦福医疗保健公司数据科学团队成员德夫·达什称,他和同事在测试ChatGPT等大型语言模型时,收到了一些无效、矛盾甚至错误的回答。他们对使用该类模型帮助医生的前景持消极态度。
医生是否有必要借助人工智能,让患者的就诊体验更好?
专家认为,好的态度不等于好的医疗建议。美国匹兹堡大学医学院危重疾病伦理与决策项目主任道格拉斯·怀特解释道,“大多数医生对患者的感受重视不足,他们只是把病人的提问当作一系列需要解决的客观问题,可能忽视了病人和家属的情感问题。”
有时,医生非常清楚同理心的必要性,但很难找到合适的表达方式。格雷戈里·摩尔是美国微软公司负责健康和生命科学的高级管理人员,他想帮助一位身患晚期癌症的朋友。这位朋友的情况很糟糕,需要关于治疗和未来的建议。摩尔决定把这些问题交给ChatGPT。
“结果令我大吃一惊。”摩尔告诉《纽约时报》。该人工智能给了他长长的、充满同情的回答,让他向朋友解释缺乏有效治疗方法的原因,给了他一些应对坏消息的方法,甚至建议他“在努力帮助朋友的同时,也要妥善应对自己的悲痛和压力”。
摩尔惊讶于人工智能的帮助,赶忙将其推荐给医生同行,但他告诉《纽约时报》,大多数同行在犹豫,是否要使用ChatGPT来寻找更富同情心的表达。
耶鲁大学医学院结果研究和评估中心主任哈兰·克鲁姆霍尔茨说,“医生承认这样使用ChatGPT,就等于承认自己不知道如何与病人交谈。”
尽管如此,那些尝试过ChatGPT的人认为,医生们应该多尝试一下,看看人工智能能做些什么。
“该程序能够在几分钟内,准确完成医生通常需要一个月才能完成的工作。”哈佛大学教授、《新英格兰医学杂志》编辑科哈尼医生告诉《纽约时报》,阅读转诊信和病史、决定是否接受患者是一项很耗时的工作,但ChatGPT能轻松、可靠地完成,极大地减轻了医生的负担。
美国得克萨斯州达拉斯市一家私人诊所的风湿病学家理查德·斯特恩表示,GPT-4已成为他的“忠实伙伴”。它会对病人的电子邮件做出善意的回复,为工作人员提供富有同情心的答案模板,可以接管繁重的文书工作,还可以为患者向保险公司撰写申诉信。
“与其说ChatGPT是患者的指南,不如说它是对医生的支持。”不过,美国宾夕法尼亚大学医学教授兼高级副院长大卫·阿什对CNN强调,最好在对病人而言风险较低、“远离临床接触”的情况下使用它。
责任编辑:袁野
综合编译赵婷婷