如何应对人工智能时代的来临
人类设计人工智能机器时需要设定各种程序,人类如何设定程序,机器就会如何运行。人类设计者对于某件事情是存在偏见的,这种偏见会随着程序设定转移到人工智能机器中。以无人驾驶汽车为例,设定这样一种场景:无人驾驶汽车在行驶的过程中刹车失灵,按照原定路线直行会撞到人;不直行会撞到路障,车上乘客的生命安全会受到威胁。面对这种情况,程序人该如何设定程序呢?
有的人认为,可以牺牲少数人的利益以保障多数人的利益;有的人认为违背个人意志就夺去他人的生命是不可取的。在很多时候,不亲身经历是很难对这些问题做出回答的,而程序员却要提前设定这类问题的答案,更是难上加难。面对这种情况,为了保证人工智能机器做出的决策与现行的法律、伦理一致,就要深化算法研究,这对于人工智能的研究来说是一大挑战。
人工智能的发展需要人才保障
人工智能的发展离不开人才保障,无论是人工智能的研发,还是人工智能的使用,都需要相关人才为其提供策略。在美国的人工智能战略中,培养人工智能相关人才是最重要的一环。各国为了促使人工智能更好地发展,也要借鉴美国的这一做法,将人工智能人才的培养视为重点,以为人工智能的发展提供人才保障。
随着人工智能的发展,原有的社会关系被颠覆,人与人之间的关系、人与机器之间的关系、机器与机器之间的关系被重新塑造。随之而来的有机遇,也有挑战,面对人工智能带来的挑战,除了从要从国家战略方面统领大局之外,还要加深人工智能技术的研究,着力培养人工智能人才,把握好人工智能的应用范围等。总之,随着人工智能的发展,世界会发生很多变化,人们要做的就是紧跟时代发展步伐,把握这次技术革命,让人工智能更好地为人类服务。
赢家机器人,瞬间释放电销企业销售潜能,一天1500通销售电话,节省企业人力成本70%,提升电销企业业绩300%!
电话销售与人工智能的深度融合,帮助企业迅速释放销售潜能!
这是一个什么样的项目?
这是传统电销企业迎接AI智能技术的一次绝佳机会。它能帮助你迅速完成传统电销模式的更新换代,在节省人力成本的同时,迅速提升电销业绩!
赢家机器人是什么?
赢家机器人,是路云集团依靠AI人工智能语音识别技术,自主研发的帮助电销企业迅速提升电销业绩的智能语音管理系统。
电销企业为什么要选择赢家机器人?
随着科技发展,技术进步,原有电销模式正在逐渐失去推广优势。电销人员日复一日重复着低效率工作,即失去了工作热情,同时无法对客户进行精准的资源细分。当所有行业都在面临AI人工智能的大肆颠覆之时,电销企业同时也正在迎接一场科技变革!
电销企业面临的行业难题:
人工成本上涨、员工工作效率低下,离职率奇高,无精准话术引导,客户资源无法精准定位……
赢家机器人,以科大讯飞、阿里云AI人工智能语音识别系统为技术核心,通过大数据智能云数据分析系统,充分甄别每一条有效资源。强大的真人语音多轮对话技术,让AI电销之路畅通无阻!
人工智能风口来袭,赢家机器人帮你彻底释放电销潜能!
赢家机器人市场前景如何?
2017年,国务院接连颁布多条关于AI智能的行业规划细则,表明了在全球范围内抢占AI人工智能科技制高点的决心。国内多个行业巨头公司(阿里、通讯、百度等)都在不遗余力的发展人工智能。
可以预见的是,在未来,我们的生活将和AI人工智能产生密不可分的联系。谁能抢占行业先机,谁就能够抢占新一轮的科技红利!
拥抱AI人工智能时代,赢家机器人彻底释放电销潜能!返回搜狐,查看更多
面对ChatGPT学校教育的变与不变
当下最火最热的人工智能软件非ChatGPT(ChatGenerativePre-trainedTransformer)莫属了,短时间就有大量用户注册,以至于科技部部长王志刚在2023年全国两会的“部长通道”采访活动中都谈到ChatGPT。大家在惊讶和赞叹之余,也纷纷表达了担忧,尤其是它对教育领域的冲击。在ChatGPT迅猛发展的今天,学校教育如何面对挑战与变化?如何定位自己?又如何面向未来?01拥抱科技,教育的天然属性有教育人士将ChatGPT对教育的影响比喻为“把教育逼到了墙角”“冷兵器时代突然出现了核弹”“闯进房间里的大象”等,十分担心ChatGPT会如同阿拉丁神灯、潘多拉魔盒等一样带来对教育的负面影响和可能风险,甚至担心学校的消亡和教师的失业。科技与教育天然就是捆绑在一起而相互成就,须臾不可分。一方面,教育是科技再生产、创新发展、交流传播、应用与传承的重要渠道和依靠。另一方面,科技的发展会制约、冲击和推动教育的发展与变革。在党的二十大报告中强调科教兴国战略,将教育、科技、人才“三位一体”进行统筹安排和一体部署,这本身就很好地说明了科技与教育之间相互促进的关系。科技是第一生产力,教育要更加主动、更加紧密地拥抱科技,大力推进科技发展和科技人才的培育,解决“卡脖子”技术问题,以科技改变生活和促进发展,推进第二个百年奋斗目标的早日实现。面对ChatGPT等人工智能技术的挑战和冲击,回避、恐慌和拒斥等“鸵鸟心态”行不行?肯定不行。事实上,ChatGPT的出现是必然且不可阻挡的,前期的围棋超能AlphaGo、自动驾驶技术、AI绘画、AlphaFold2蛋白质结构预测等人工智能技术就是ChatGPT的前奏,并且我们可以坚信ChatGPT还会不断进化,还会有比ChatGPT更先进更炫彩的人工智能技术,甚至是创造式人工智能的出现,这是科技发展的必然趋势。ChatGPT虽然让人耳目一新,但它还是缺少原创性能力,而人的创造性和超越性本质就决定了人永远是机器的创造者和掌控者。当然,ChatGPT等人工智能的迅猛发展会倒逼人类更加重视创造性劳动的开发,更加注重技术伦理的提升,防止被机器和技术所异化与控制。因此,对ChatGPT既不要“反乌托邦”的恐慌,也不要“乌托邦”的天真,而要理性且积极地面对,拥抱它、适应它、调适它,从而为我所用。02立德树人,教育的永恒主题ChatGPT作为生成式人工智能,可以就任何议题生成文本,有别于搜索引擎等分析式人工智能,被誉为“地表最强聊天机器人”。这就引发了教育人士的深深担忧,既包括代写论文、代做作业等学术不端行为,也包括思维钝化、人格依赖、迷失自我、情感缺失等素养不逮的问题。“ChatGPT与未来教育”“ChatGPT与教育重塑”“ChatGPT的教育应用”“未来的教育者是谁”“谁来掌控ChatGPT”“学生最重要的素养是什么”等话题已成为当下及今后很长一段时间要回应的问题。ChatGPT等人工智能的快速发展,对人才素质结构带来诸多启示和更高需求。唯有创新型人才方能发展、运用和掌控不断创新发展的科技。人具有主观能动性,人是科技的“主人”而非科技的“奴隶”,而要实现这一点就必须培养能理性驾驭和能动创造科技的创新型人才,特别是拔尖创新人才的培养。ChatGPT的出现再次引发教育人对“培养什么人、怎样培养人、为谁培养人”等教育根本问题的再思考和再回答。现实需求和未来发展趋势告诉我们,教育必须坚持立德树人根本任务,站稳和坚守育人初心。教育要坚持人文主义的生命立场,聚焦核心素养的培育,促进教师教学方式的转变,实现由“知识传递”的学科教学向“人的培育”的学科教育的范式转变,大力发展素质教育,将人的潜能变为现实。虽然ChatGPT拥有超强的信息检索能力、逻辑推理能力、自然语言能力以及文本生成能力,但其也有“能力边界”,如原创性不足、难以真正理解或体验情感等先天性短板。另外,教育对ChatGPT带来的冲击重视不够或运用不当,会导致教育偏重知识教学而忽视育人根本,会导致学生过度依赖机器而缺少独立思考以及情感和人格发育不健全。在人工智能时代,教育要高度关注技术伦理、隐私保护和数字鸿沟等问题,尤其要强化批判性思维能力、创新创造能力、人际交往能力、道德责任感、情感理解能力、自主学习能力等素养能力的培养。03变革创新,教育的自我迭代创新是第一动力,要实现中华民族伟大复兴的中国梦,就要增强中华民族创新创造活力。习近平总书记指出:“创新是一个民族进步的灵魂,是一个国家兴旺发达的不竭动力,也是中华民族最深沉的民族禀赋。在激烈的国际竞争中,惟创新者进,惟创新者强,惟创新者胜。”教育兼具保守性和超越性,教育是流变的,唯一不变的是变化本身。只有创新的教育才能培养创新的人才,只有创新的人才才能掌控创新的科技。面向未来的教育必须向改革创新要动力,走创新驱动发展之路,向改革创新要红利,提升教育的广度和深度。在人脑智能和人工智能相互较劲和相互促进的今天,教育对象、教育内容、教育手段、教育技术等都不断随着时代的变化而变化。但归根结底教育要推动社会发展进步,要为未来培养人才,为学生未来生活做准备。为未来而教,为未知而学,已成为教育共识。ChatGPT等人工智能的发展倒逼教育以改革创新来实现自我迭代升级,积极应变而不是抱怨、恐惧、躲避和无视。当前,在党中央和国务院领导下,教育新体制的“四梁八柱”已搭建好,进入“全面施工”“内部装修”阶段。中国特色社会主义教育不仅深化办学体制、管理体制、经费投入体制、考试招生及就业制度等方面的改革,而且深化学校内部管理制度、人事薪酬制度、教学管理制度等方面的改革,深化人才培养模式、教学内容及方式方法等方面的改革。教育要变革,学校也要变革,封闭保守的办学行为和教育教学就会出现井底之蛙、刻舟求剑、坐以待毙等笑话。教育内容上,更加注重核心素养培养。教育技术上,主动促进人工智能与教育教学的深度融合。教育策略上,高度关注情感沟通和价值引领。教育方法上,充分运用对话交流和体验反思等方法。教育资源上,积极挖掘日常生活、社会交往、科技发展、时政热点等的教育价值。教育评价上,更加关注德行修养、情绪情感、思维品质、交往能力等,真正做到“破五唯”,追求“让每个人都有人生出彩的机会”。人工智能时代来了,它不会走,它还会更加智能。学校教育要在人工智能时代把握好“变”与“不变”,从容淡定而又自信主动地推进自我迭代和革命性重塑,从而培养好人工智能的“创造者”和“主人”,确保人类的持久生存、幸福生活与永续发展。(作者 毛道生系成都七中副校长、成都冠城实验学校党委书记)文章来源:《中国教育报》2023年4月12日第5版(作者 毛道生)图片来源:包图网本文只为传递信息,如存在文章/图片/音视频等资源使用不当的情况,请联系中国教育新闻网。本期编辑:庄元海量资讯、精准解读,尽在新浪财经APP“人工智能+” 理性正视挑战
光明图片/视觉中国
机器人与乐手合奏。新华社发
智能互动机器人。新华社发
人工智能、5G、区块链等技术赋能生命健康产业。新华社发
手功能康复外骨骼机器手。新华社发
语音识别、文本识别、视频识别……数字经济时代,人工智能技术已走近你我身边,被视为经济增长的新引擎、国际竞争的新阵地和推动智慧社会建设的有效工具。而加快“人工智能+”产业融合、赋能更多行业应用落地,更成为社会各界共同的期待。
然而,不久前在由中国人工智能学会主办的2020中国人工智能产业年会上,最新发布的报告指出,目前已成熟应用的人工智能技术仅为语音识别,机器学习、计算机视觉、自然语言处理、知识图谱、智能机器人等技术距离生长成熟尚需数年时间,而无人驾驶汽车在未来10年内都不太可能出现。
从实验室走向大规模商用,人工智能还需要多久?尚存在哪些“堵点”“痛点”?在许多业内专家看来,正视人工智能尚存在的诸多挑战,对技术赋能抱有理性期待,方能让其回归技术本质,成为更多产业变革创新的动力源泉。
算法不透明导致的不可解释
2016年,谷歌人工智能系统AlphaGo击败世界围棋冠军李世石,令世人大为震动。依靠人工智能深度学习理论的突破,计算机可以模仿人类作出决策,然而,这仅基于大量的数据学习,而非因果或规则推理,整个决策过程仍是一个“黑箱”,人类难以理解,导致追责难。
复旦大学计算机科学技术学院院长姜育刚举例,此前,美国IBM公司研发了人工智能系统“沃森”帮助医生进行诊疗决策。然而,许多医生很快发现在使用“沃森”时,系统给出了多个不安全、不正确的治疗意见,甚至在极端的诊断案例中,“沃森”给有出血症状的癌症病人开出了容易导致出血的药物,严重时可致患者死亡。然而,医生却并不知道为什么“沃森”给出了这样的意见。决策步骤的不可解释,带来诸多不确定性。
近年来,人工智能应用于新药研发被寄予厚望。然而,算法的不可解释性却横亘在前。相关研发和监管部门需要清楚地知道药物开发中使用的算法,从而理解人工智能主导的决策背后的逻辑。如果不对监管实现算法透明化,人工智能将会是一个无法进行严谨的科学评价及验证的“黑匣子”。这可能会导致在药物审批过程中出现种种无法预料的问题,比如对人工智能“发现”的生物标记物的接受度不明。此外,对于智能政务、无人驾驶这样安全性要求极高的行业,人工智能的引入自然更为谨慎。
“深度学习的算法和核心模型需要能够真正展开,让公众知晓它的机理模型”,上海人工智能研究院有限公司总经理宋海涛建议。中科院软件研究所研究员薛云志则指出,人工智能面向不同知识背景的用户,要能以简单、清晰的方式,对决策过程的根据和原因进行说明,并能对系统决策过程关键节点的数据加以追溯并能够审计,这在未来人工智能应用大规模落地时,是特别需要关注的特性,也是实施监管的必要。
易受欺骗引发安全性质疑
作为人工智能技术的“大热选手”,深度学习可以通过对大量已知样本的训练,制作自己的样本,这是深度学习的特点,同样也是痛点。
京东人工智能研究院院长周伯文坦言,人工智能目前在面向产业化落地时,遇到的巨大挑战正是真实环境的开放边界和规则模糊,数据的“噪音”非常多,使得智能模型的部分结果和使用情况难以让人信赖。
姜育刚指出,人工智能目前的智能判别模式存在缺陷,容易被对抗样本所欺骗。比如图像识别,在一张人像图片上加入一些非常少量的干扰,人为视觉看上去基本没有区别,但人工智能模型就会产生识别错误;再如自动驾驶,一张“限速80码”的交通标牌,加入一些干扰后,就可能被机器识别成“禁止通行”。显然,存在很大的安全隐患。
语音识别领域也存在这种问题。技术人员在语音上任意加入非常微小的干扰,语音识别系统就可能会识别错误。同样,在文本识别领域,改变一个字母就可以使得文本内容被错误分类。
此外,若深度学习的数据集中存在隐藏的偏见,人工智能系统无法发现,也不会否定。缺少反馈机制的“照单全收”,最终可能导致生成的结果并不客观。
例如在行业内已经出现的,人工智能在深度学习后对女性、少数族裔、非主流文化群体产生“歧视”:亚马逊通过人工智能筛选简历,却发现了系统对女性存在偏见导致最终关闭。更为常见的是手机软件利用人工智能算法导致的大数据“杀熟”,如根据手机类型的不同,可能会推荐不同类型的商品,甚至打车时推荐不同价格、档次的车辆。
目前,“AI+金融”的发展如火如荼。但当金融机构均采用人工智能进行决策时,其市场信号解读就可能趋同与不断强化,导致形成偏离正常市场规律的结果。而这些不正常的市场变化也会成为人工智能的学习基础,将人工智能的决策逻辑进一步畸化,容易造成恶劣的后果。
以上这些问题,影响着人工智能赋能实体经济的安全性,凸显产业对技术可信赖性的呼唤。“从AI到可信赖AI,意味着我们需要在技术层面上解决鲁棒性(稳定性)、可解释性和可复制性这些核心技术挑战。同时为了大规模产业化应用,我们必须考虑到人工智能的公平性和负责任。这几个维度是人工智能必须要解决的问题。”周伯文说。
法律规制和伦理问题待完善
“目前的智能算法还存在给出的决策不符合伦理道德要求的问题。”姜育刚指出,在应用中已发现,智能算法的决策没有从改善人类生活、服务人类社会的角度来进行。如智能音响在对话中出现“劝主人自杀”的内容,聊天机器人学会了骂脏话和种族歧视等。而这些不友好的决策都是模型从数据中学来的,并不是研发者对人工智能模型设置的目标。
同时,人工智能算法需要海量的数据驱动,训练数据可以被算法恢复,个人隐私存在泄露和被侵犯的风险,而大量的数据也存在共享壁垒。在人工智能赋能金融的过程中,这一问题尤被关注。最新报告显示,近年来,每年发生金融隐私泄露事件以大约35%的速度在增长。加之近年来人工智能技术在金融行业的广泛应用,由此带来的银行数据、保险数据、网贷业务及大数据等个人信息保护问题日益凸显。
在2020年抗击新冠肺炎疫情期间,人工智能技术在我国响应速度快、介入力度大,帮助推出了CT影像的辅助诊断系统,提升了医生诊断的速度和信心。然而,医疗影像智能诊断发展也面临着法律规制问题。与其他人工智能赋能行业的大数据相比,获取高质量的医疗影像数据相对困难。不同医疗机构的数据,目前还很少互通、共享。而单个医疗机构积累的数据往往不足以训练出有效的深度学习模型。此外,使用医疗影像数据进行人工智能算法的训练还涉及保护病人隐私等非技术问题。
此外,近年来,随着人工智能技术的深入探索,科学界有人提出研发“人工生命”,成为又一个伦理话题。对此,中国工程院院士李德毅表示,生命不仅有智能,更要有意识。从伦理角度上,生命是人类的底线,触碰底线要慎之又慎。“所以,我们可以通过计算机技术继续研发没有意识、但有智能的高阶机器。让人类的智能在体外延伸,保持它的工具性,而非人工创造意识。”
深圳云天励飞技术股份有限公司副总裁郑文先同时提醒,“人工智能的技术进步可以给社会带来非常正向的效益,不应因为对隐私保护机制等方面的忧虑而将人工智能的问题妖魔化。”他认为,当前人工智能的法律法规尚不健全,亟待有关部门进一步科学制定和完善,这样才能引导公众更加健康地看待这一新技术应用于产业。
亟待技术进步发展新一代人工智能
面对技术落地所遇到的种种“痛点”,许多专家给出了这样的比喻:“人工智能相当于一个锤子,不能哪一个钉子都能砸。”
“我觉得,人工智能发展的第一步是辅助,让重复复杂的劳动量由机器完成,在这个基础上,我们再创造条件逐渐向智能决策的方向发展。”郑州大学教授蒋慧琴表示,对于业界有人提出“人工智能超越甚至取代人类”的期待和预计,应保持冷静,“只有沿着这样的方向坚持下来,才有可能达到我们的目标”。
中国科学技术发展战略研究院研究员李修全认为,在重复性操作的生产环节和基于海量数据的高强度计算优化求解上,人工智能具有明显优势,应当是当前应用于产业的主要方向。
华为云人工智能领域首席科学家田奇则认为,加速人工智能赋能产业落地,其与科学计算的深度融合应是显著趋势,在工业、气象、能源、生物、医学等领域,需要大量科学计算,人工智能技术能为传统科学计算带来新的思路、方法和工具,同时由于传统科学计算具有严密性,人工智能也可以提高它本身的可解释性。
“推动人工智能进入新的阶段,有赖于与数学、脑科学等结合实现底层理论的突破。”中国科学院院士、清华大学人工智能研究院院长张钹说,未来所需要的第三代人工智能应是实现可解释的、鲁棒的、可信安全的智能系统,依靠知识、数据、算法和算力四个要素,将实现从不带认知的人工智能转变为带认知的人工智能。
如何解释新一代人工智能?李德毅认为,传统人工智能是计算机智能,属于封闭型人工智能。新一代人工智能应该是开放性人工智能。当前,所有的计算机都是对软件工程师的智能编程代码进行一次又一次简单执行,“但我们希望这个机器在学习过程中能够解决新的问题,学习应成为新一代人工智能解决现实问题的基础”。
清华大学智能技术与系统国家重点实验室教授邓志东建议,数据和算力的增加总有天花板,要推动人工智能技术深度赋能更多行业,需要的是核心关键技术突破,特别是认知智能的进步,同时,还要依靠智能高端芯片、传感器等零部件的硬件支撑,再借助我国5G信息技术的优势,形成合力支撑产业落地和商业化应用。
此外,人工智能标准化工作也应加速展开。薛云志表示:“建立可信赖的人工智能需要标准化,一方面要从开发者训练、测试与实验、部署运营和监管的角度来做,另一方面则要从芯片等硬件、算法、产品系统出发,来制定标准和规范,同时对人工智能的风险、伦理、管理等标准研究也要尽快启动,这些都只是第一步。”(本报记者杨舒)
【纠错】【责任编辑:周靖杰】