探寻生成式人工智能算法规制的思路
5月18日,第七届世界智能大会在天津开幕。大会期间举办开幕式、高峰会、平行论坛、智能科技展、智能体验等系列活动。智能科技领域的院士专家和企业家聚焦智能网联车、生成式人工智能、脑机交互等前瞻课题,深入探讨AI与经济、社会、人文等领域的热点话题。新华社记者孙凡越摄
近日,由中国人民大学法学院、中国人民大学未来法治研究院主办的“生成式人工智能算法规制——《生成式人工智能服务管理办法(征求意见稿)》学术研讨会议”召开,来自政府相关部门、高校研究机构、人工智能产业界的专家参加了本次研讨会。
■中国人民大学未来法治研究院执行院长张吉豫:
可以以发展、安全和法治三个关键词概括对ChatGPT为代表的大规模语言模型的系列关注。第一,生成式人工智能技术是划时代的发展,大模型在互联网、数据等架构上可能形成新的层次,深刻影响产业的发展和未来技术的进步。第二,从数据、算法、系统集成等角度来看,生成式人工智能的发展、创新中伴随着风险与挑战。第三,为调节好发展和安全之间的冲突,构建以人民为中心的智能社会法律秩序,对于推动人工智能技术健康有序发展具有重要意义。
■百度公司副总裁吴梦漪:
结合《生成式人工智能服务管理办法(征求意见稿)》的几个看法:一是将开放API和通过API调取功能认定为内容生产者可能提高了对合规义务的要求。二是将生成式人工智能认定为具有舆论属性和社会动员能力的互联网信息服务,可能泛化了适用范围。三是从实践的角度,内容生成的准确性与生成式人工智能技术原理存在冲突。因此,初始阶段监管层面的重点应从追求内容准确性转向对违法利用行为的打击。四是需要辩证看待数据的好坏。生成式人工智能具有一定的创作性,海量的训练数据有利于提高技术的发展速度,希望监管的重点在于生成式人工智能产品的质量,不宜对训练数据和技术路线做过于详尽的规定。五是综合考虑生成式人工智能服务的人机对话特点,简化对真实身份信息要求的规定。
■腾讯研究院首席数据法律政策专家王融:
对生成式人工智能的规制的几个建议。第一,生成式人工智能可能是未来新的信息时代最为基础的工具,超越了单纯的互联网信息服务,应以全新视角去看待。第二,制定规章是必要的,但是目前法律规范本身可能还需要进一步讨论新的问题;输出信息的质量方面有很强的市场自驱力;而大模型时代的底层网络安全和数据安全,发展更为优先。第三,三个月的模型优化训练期限在实践中难以落地,不妨考虑其他多种技术手段。最后,在AI发展领域,风险浮现是渐进式的,市场主体和监管主体应在共同目标和接近的立场下协同解决问题。
■中国人民大学法学院教授王利明:
应正视ChatGPT引发的问题,思考法律上如何积极应对。首先,面对生成式人工智能引发的人格权和知识产权方面的问题,立法过于超前可能会阻碍技术的发展和创新,通过发布管理办法或制定相关措施积累经验,条件成熟后再立法可能是相对稳妥的办法。
对ChatGPT引发的侵权问题,提出五点建议:一是在价值取向上积极支持人工智能产品的开发。二是ChatGPT不同于自动驾驶等一般产品,让服务提供者承担无过错责任会阻碍技术发展,不符合鼓励技术创新的价值取向。三是可借鉴医疗事故责任的减免规则,因技术水平限制而导致难以消除的漏洞时,可以适当减轻甚至免除服务提供者的责任。四是加强和强化服务提供者对个人隐私信息的安全保障义务。五是关于ChatGPT的幻觉回答导致的侵权责任分配问题,应区别平台大规模生成与用户恶意诱导的情形。
■中国社会科学院大学副教授刘晓春:
从四方面提出监管的建议。一是监管必要性,若在新技术场景下,原有体系能解决大部分问题,就缺乏专门规制的必要性。生成式人工智能的重要风险点在内容层面,如果生成的内容没有传播,是否存在风险仍存在疑问;如果已经传播,则要考虑原有的治理系统是否能够解决问题。二是监管有效性,其核心问题是公权力对产业的治理或干预是否能真实、有效地达到基于监管必要性的风险治理目的。三是结合我国现有产业背景考虑监管技术的应用场景。未必每个企业都研发大模型,但是在应用层面具有各自极大的拓展商业的可能性,应为应用层面的商业模式留出发展的空间。特别是在对内容生产者的定义上不应拓宽。四是从立法基础的角度考虑协调性。比如,在实名制问题上与网络安全法相协调,在算法的评估和备案问题上,也应基于现有的机制协调。
■对外经济贸易大学副教授许可:
《生成式人工智能服务管理办法(征求意见稿)》与之前的法律、现有的实践和技术存在四大矛盾。第一,新法和旧法的矛盾。《互联网信息服务深度合成管理规定》中的深度合成技术和《生成式人工智能服务管理办法(征求意见稿)》中的深层次人工智能技术之间有何异同尚不明确,未来执法过程中可能产生矛盾。第二,域外效力和属地管辖之间的矛盾。《生成式人工智能服务管理办法(征求意见稿)》涉及的内容超出了《个人信息保护法》覆盖范围,部门规章是否能设立超出上位法的域外管辖权存在疑问。第三,网络信息内容安全管理和通用技术规制之间的矛盾。将通用性的人工智能限制在网络信息内容上,可能出现规制工具和规制目标的不匹配。实际上,在不同的场景下,生成式人工智能的风险因形态而异,如何判断其风险,需要模块化判断。第四,全流程安全要求和技术内在特征的矛盾。全流程的管理和生成式人工智能的特性不符,例如,预训练数据的合法性难以实现,数据与最后信息生成之间也并不存在直接映射关系。
■对外经济贸易大学副教授张欣:
在监管对象上,我国的人工智能企业此前多集中在应用层,在基础层和技术层分布相对较少。在监管方式上,面向生成式人工智能的产业链特点,可以提升监管的互操作性、一致性。在监管创新上,一方面应注重监管的韧性,另一方面应积极探索以模块化监管为代表的新型监管方式。对《生成式人工智能服务管理办法(征求意见稿)》的四点修改意见:第一,进一步厘清第2条对“生成式人工智能”的定义。第二,面向产业链特点明确第5条中“产品生成内容生产者”的范围,不宜通过一刀切的方式让所有行为主体都承担产品内容生产者的责任。第三,第7条关于预训练数据和优化训练数据来源的准确性问题可以适当调整,只要在可接受的技术水平条件下,组织和企业履行了相应义务,可认为符合人工智能准确性原则。第四,第15条关于防止再次生成的期限和防止再次生成的方式聚焦于技术过程,目前的技术手段上难以达成,可以转换为从结果监管的角度防止被用户举报的不合法合规的内容再次出现。
■中国人民大学法学院教授万勇:
在生成式人工智能对著作权法合理使用制度的挑战方面,生成式人工智能可能涉及著作权法上的复制权、演绎权和向公众传播权。但是,目前的合理使用类型难以适用于人工智能技术。其次,为了解决相关的问题,应人工智能产业发展的合理使用制度改革,主要有两种解决方案:一是重塑理论基础,提出“作品性使用”与“非作品性使用”的概念,为了数据挖掘目的而使用作品,只有部分情形属于“非作品性使用”;二是改造制度规范,包括增设具体例外条款或引入开放式例外条款。建议修改《著作权法实施条例》,引入专门例外,兼顾产业发展和著作权人的权利。
■中国人民公安大学法学院教授苏宇:
处于追赶中的国内生成式人工智能在风险治理之外也非常需要制度支持。生成式人工智能大模型面临算法解释难、算法审计难、算法标准形成难、算法影响评估难、算法认证难等问题。《生成式人工智能服务管理办法(征求意见稿)》的主要考量问题是信息内容安全问题,在安全保障方面设计了“六重叠加”的机制,包括输出端的生成结果控制、输入端的数据来源和数据信息内容限制、扩展的内容生产者责任、用户举报与主动监管结合、宽泛的信息提供义务、与算法推荐和深度合成等已有立法的有限衔接等。其中部分机制存在不同程度的安全冗余。除此之外,还有需要充分考虑的治理要点,包括生成代码的单独归类、训练数据的必要区分、输出结果的类型提示、数据来源合法性的具体界定等。总体来说,对生成式人工智能的法律治理,大幅度降低无效或低效风险冗余应当是机制设计的重要目标。
■中国信通院高级工程师程莹:
生成式人工智能第一大特点是通用目的性。作为新底层基础平台,AIGC供应链被拉长,研发者是否应承担责任,研发者、平台方、B端用户、C端用户等如何分担责任成为关键问题。征求意见稿第5条应对各个主体进行精细划分。第二个特点是内容生成性,带来了知识产权、虚假信息等问题。未来生成式人工智能代表了知识调用方式的变迁,将掌握绝大多数信息来源,相较于深度合成的重点标识义务,负有更高算法评估、自我审查等义务。然而,一刀切要求训练数据和生成结果的真实性可能与生成式人工智能的技术本质存在一定冲突。第三个特点是数据依赖性,这是人工智能一直以来的典型特征,但是呈现了新的形式,例如中文语料库输入不足带来的文化偏见、数据虹吸效应带来的数据泄露风险等,相关法律义务应注意保持与上位法要求的一致性。
■中国科学技术信息研究所助理研究员刘鑫怡:
英国的监管框架是基于人工智能应用场景来规范人工智能应用,而非规范人工智能技术,并不为整个行业或技术设定规则或风险级别。在监管依据上,在不确定的技术应用和治理中探索可量化、可定性的成本收益及影响,这对我国监管政策的出台有启发意义。在目前的大模型监管上存在难点。主要包括三方面:一是技术的局限性导致目前难以达到治理的高标准;二是大模型治理的方式和限度难以把握;三是目前多样化治理工具没有完全发挥作用。随着多模态大模型的研发和广泛应用,未来的风险问题会逐步深化。建议在统筹发展与安全的基础上,构建全生命周期的差异化监管机制,加强人工智能重点领域关键环节监管。同时倡导“以技治技”,开展安全可信技术的治理。(金灿)
当人工智能有了情感,人类未来该如何自处
《情感经济:人工智能、颠覆性变革与人类未来》,[美]罗兰·T.拉斯特、黄明蕙著,彭相珍译,中译出版社2022年1月版。
文学作品和电影,往往将奇点视为威胁和恐怖事件。例如,在斯坦利·库布里克的电影《2001:太空漫游》中,计算机HAL(IBM公司缩略名称字母前移一位,即H-I、A-B、L-M),不仅具有机械智能和思维智能,它还具有足够的情感智能来愚弄和操纵宇航员(并杀死了大部分宇航员)。最终,HAL基于自己的利益,损害了它本应服务的人类的利益。
电影《2001:太空漫游》(1968)剧照。
但在斯蒂芬·斯皮尔伯格的优秀电影《人工智能》中,人工智能表现为更积极的形象,库布里克也是该片的主要合作者(直到他英年早逝)。在这部电影中,大部分主角都是拥有发达情感智能的机器人。在电影的最后,人工智能外星人已经占据了主导地位,但他们对老一代的机器人,表现出了相当程度的关心、关注和同情。电影《她》也从一种有利于人类的角度描绘了人工智能。人工智能“操作系统”(斯嘉丽·约翰逊配音),对她的人类主人表现出极大的同情心。经典科幻电影《银翼杀手》也从正面描写了人工智能机器人,并描绘了具备深刻情感智慧的最先进的机器人。
因此,我们也看到,人类对人工智能的情感能力的观感是矛盾的。在最坏的情况下,人工智能将利用其情感智能来操纵人类,以达到自己的目的。在最好的情况下,人工智能将利用其情感智能,与人类产生共鸣并帮助人类。我们将在下文中探讨这两种可能性。
电影《人工智能》(2001)剧照。
收入和财富不平等会进一步恶化吗?
一旦人工智能发展到了高度的情感智能,它将全方位压倒人类智能。这将自然而然地导致一个后果,即人类的劳动变得不够理想,因为人工智能几乎在所有方面都表现得比人类智能更好。这就意味着人类的劳动将丧失价值,且所有的工作将由人工智能接管。如果经济中的所有价值,几乎都来自人工智能,那么价值将几乎来自资本,而不是劳动。其结果是,经济将由相对少数的资本家掌控。这反过来又会进一步加剧收入和财富的严重不平等。在这种情况下,大多数人类将如何谋生,尚无答案。
人类真的能控制人工智能吗?
许多思想家声称人工智能永远也不能自主完成任务,因为它必须由人类编程。因此,人类将永远控制着人工智能。但事实真的如此吗?我们不妨简单地回想一下当前最常见的人工智能形式,即深度学习神经网络。这种人工智能已经被视为一个“黑盒子”,因为人类很难对其如何产出结果进行解释,即为什么它们能给出特定的解决方案。为此,计算机科学当前的一个重要研究领域就是,如何让深度学习对其客户(人类)而言,变得“可解释”。但一个显然的趋势是,随着人工智能变得越来越复杂,也越来越难被人类理解,导致人类感觉其逐渐失控。
最终,这个问题将变得越来越严重,而不是随着发展逐渐淡化。当人工智能变得足够聪明时,它就有可能做到自我编程。毕竟,计算机的自我编程作用已经存在,并将随着时间的推移而变得越来越普遍。换句话说,人类对人工智能的控制力正在迅速减弱,而随着控制力的丧失,人类如何确保人工智能继续按照既定的要求,致力于实现人类设定的目标,而非它自己的目标,也将成为一个问题。
牛津大学哲学家尼克·博斯特罗姆和麻省理工学院物理学家马克斯·泰格马克,都提醒人类应该注意这种人类失去对机器的控制的问题。他们都指出,人工智能可能会演变成一种智能或多种智能,无论哪种结果,都可能威胁到人类的控制力,甚至威胁到人类的生存能力。正如作家凯文·凯利(KevinKelly)所指出的那样,人工智能设备的联网可能造就异常强大的超级人工智能。
人类享受悠闲生活的设想
关于奇点,人们设想的最幸福场景是,人工智能负责完成社会的所有工作,而人类则可以自由地过着悠闲的生活,追求艺术、玩电子游戏、看3D电视,或沉浸在虚拟现实中。人类也会拥有几乎无限的社交时间(无论是面对面交流还是线上互动),或许未来全人类的生活都会变得类似现代的沙特阿拉伯王国公民的生活。在那里,几乎所有的工作,都由外国人完成,而沙特公民(至少是男性)则享有相当高程度的财富和自由。
电影《人工智能》(2001)剧照。
然而,如果我们从现实的角度来研究这种人类享受闲暇的情景,就会看出这种可能性将很难被实现。因为控制资本的相对少数人,将控制社会的大部分财富,而与对社会没有价值贡献的其他人分享财富,显然不符合前者自身的利益。或许会有少数杰出的人类技术专家能够赚取大量的金钱,但即使是这样的可能性也不太现实,因为人工智能将在三个智能层面碾压人类,并能够比最优秀的人类更好地完成各项工作。
有人可能会辩驳,最终剩下的少数占据主导地位的资本家,或许会是利他主义者,并愿意把自己的财富分配给其他没有赚钱能力的人类,但我们在现实世界中,并没有看到很多证明此类举动可能存在的证据。事实上,在收入最不平等的国家(如印度)中,出现此类善举的概率比世界上最平等的国家(如丹麦)要少得多。
人类的増强和改造
库兹维尔认为,既然相较于超级人工智能而言,人类在经济上不会有竞争力,那么唯一有吸引力的发展道路,就是人类利用人工智能来增强自己,甚至是彻底改变自己。人类利用人工智能实现增强自己,已经存在很长时间了。
首先,是身体的增强。例如,有人可能会使用一条人工腿,来替代被截肢的腿。听力不好的人可以戴助听器,视力不好的人可以戴眼镜。
接下来,是思维增强。人工智能可以通过很多方式来增强人类的思维智能。在很多方面,人工智能已经比人类更聪明了,这些能力可能会被用于人类能做的事情。例如,人类可能会给自己增加一个记忆芯片或计算模块,现在已经有各种各样的方法,能够连接人脑和计算机。最近,科学家已经成功地将人脑与互联网连接起来,可以让人类直接与一个巨大的信息网络连接。
最终,我们还将看到情感的增强。黄明蕙教授曾开玩笑说,她有时候希望拉斯特有一个“同理心芯片”,可以在和她交流的时候运用。而拉斯特则希望黄明蕙教授在开这个玩笑的时候,就能使用这个同理心芯片,然后她就会知道,这样的玩笑听起来不公平且伤人。我们离制作出这样的同理心芯片还相当遥远,但必定会越来越努力地利用人工智能,让人类变得更好。
电影《银翼杀手:2022黑暗浩劫》(2017)剧照。
另一种可能性是,人类有可能完全脱离身体的躯壳。如果整个人类的大脑,都能够被映射和理解(目前,我们只能在体型微小的动物身上运用这种技术),那么理论上一个人的所有知识和记忆,都可以被上传到电脑,甚至转移到机器人的躯体里。这样的技术,被称为“数字季生”气因此,仅在理论上而言,只要计算机能够运行,这样的人类就可以永生。
作为一种已经存在的技术,人类增强几乎必然会随着时间的推移,而变得更加广泛和复杂,从只能够增强机械智能,发展到思维智能和情感智能的增强。
但我们也有理由相信,人类的增强和改造将无法在奇点中存活,且我们的理由非常合乎逻辑。假设我们现在有一个增强型的人类,表现为人类智能+人工智能。毫无疑问,增强的人类将优于未增强的人类,因为其人工智能部分可增加价值。现在,我们再从人工智能的角度来看,人类智能+人工智能可能同样优于单纯的人工智能,只要人类智能部分能贡献一些人工智能不具备的东西。
但问题在于,在奇点概念中,人工智能将在各个方面优于人类智能,换句话说,人工智能可以利用人工智能,生产出一个“更好”的人工智能版本(我们将其称为HI)。那么,人工智能生产的人类智能+人工智能,将比人类增强版的人类智能+人工智能更好。也就是说,人工智能将失去与人类合作的动力。结论是,在人类可以控制人工智能的范围内,人类智能+人工智能(HI+AI)的版本是可行的,但基于优胜劣汰的自然进化理论,更有效的人工智能更有可能存活下来,最后将导致不与人类智能合作成为对人工智能最有效的策略。
末日场景
博斯特罗姆认为,如果出现了人工智能“超级智能”,末日情景是最有可能出现的结果。他指出,在超级智能的人工智能实体中,未必存在仁爱等人类品质。这表明人类作为物种的存在将有处于巨大危险。例如,假设人工智能与人类之间的智力差异,大致类似于人类与蚊子之间的智力差异。如果人类认为彻底消灭蚊子不是什么大事儿,那么人工智能在将人类视为蟆蚁,并彻底灭绝人类的时候,能不能做到三思而后行?
物种进化的下一阶段?
当然,我们也拥有一个合理地应对高级人工智能的出现的积极方式,就是将其视为人类进化的下一个阶段。就像人类从“低等的”、不那么聪明的猿类进化而来那样,一个高级的人工智能,将以人类为基础进化出来。前面讨论的电影《人工智能》就预示了这种可能性。在那部电影中,人类已经灭绝,地球完全由人工智能管理。我们能否接受这种情况可能取决于我们与人工智能的联系,以及我们是否认为新兴的超级人工智能比人类“更好”。但是,要人类接受这样的想法可能存在相当大的阻力,这也意味着,人类接受超级人工智能,可能会变得越来越困难。
电影《人工智能:灭绝危机》(2018)剧照。
当人工智能变得足够聪明的时候,它可以在机械、思维和情感这三个领域,都优于人类的智能。这就是广为人知的奇点场景。我们的观点是,这种情况的发生,可能还需要几十年的时间,但它最终将是不可避免的。市面上已经有不少流行的电影,让我们初步领略了奇点到来之后的可能场景。
和所有大规模的技术变革一样,奇点导致的后果存在无数的可能性,从乌托邦式的(人工智能负责工作,人类负责享受),到灾难性的(人工智能彻底淘汰人类)。但在这两个极端场景的中间,存在一个相辅相成的领域,即人类有可能利用人工智能来增强自己的能力,就像今天我们经常使用机械辅助工具那样。不幸的是,我们得出的结论是,帮助人类可能不符合人工智能自身的利益。相比之下,奇点将使目前的社会由思维经济向情感经济的过渡,变得平淡无奇、无足轻重。
本文选自《情感经济:人工智能、颠覆性变革与人类未来》,较原文有删节修改。已获得出版社授权刊发。
作者丨[美]罗兰·T.拉斯特、黄明蕙
摘编丨安也
编辑丨张进
导语校对丨赵琳
设计人工智能产品:技术可能性、用户合意性、商业可行性
产品管理与机器学习一样是一个庞大的话题,所以让我们从一个基本问题开始。什么时候值得开发人工智能产品?当然,您也可以将此问题应用于更大产品的上下文中的功能。
大多数PM看到的一个有用的工具是IDEO推广的SweetSpotforInnovation(创新最佳点)。它探讨了产品的合意性、可能性和可行性,有价值的想法往往会触及所有这些方面。如果你不熟悉这个框架,你应该阅读这篇文章。
技术可能性(feasibility):我们现在有阶段真的能做到吗,可能吗?用户合意性(desirability):它能解决客户的问题吗?它是客户所期望的吗?商业可行性(viability):我们应该这样做吗?未来它会成功吗?让我们从机器学习产品的角度来看这些概念。
技术可能性(feasibility)可能性通常不是我建议您在评估产品创意时开始的部分。尽管如此,与传统软件产品相比,这可能是最不同的方面,尤其是因为我们还处于ML增强软件功能的早期阶段。
尽管时间估计仍然很困难,我们都非常善于评估软件的可能性。当您向开发人员描述问题时,他们已经在考虑技术和库。您可能正在考虑以前的产品已经解决了相关问题。随着时间的推移,机器学习会出现类似的思维模式。
在可能性方面,您应该问自己和您的团队的问题是:
我们要解决的问题是什么?
对于任何问题,问题设置都是必要的,但在处理更大的不确定性时更是如此。例如,假设我们的想法是检测生产线上有缺陷的产品。粒度在这里变得很重要:我们在发送给客户的有缺陷的产品中寻找多大的改进?
我们有关于这个问题的数据吗?如果没有,我们能否获得有关该问题的数据?
机器学习都是关于数据的。它并不总是意味着大数据,而是关于问题的足够的质量数据。某些数据很容易获取。例如,来自您的应用程序的用户操作。它们可能已经存储在某个地方。
而其他数据类型更难,例如:大量的标注图像集。查看我们的生产线示例,您需要一个图像集,其中包含完美和有缺陷的产品,并从您将传感器放置在生产线中的相同角度标注和拍摄缺陷。
数据中是否存在对算法有意义的模式?
机器学习的难点在于,数据科学家通常需要先进行大量工作来评估数据集并进行实验,以查看数据中是否存在ML模型可以理解的模式。与传统软件不同,如果不真抓实干,就很难评估可能性。例如,使用您的标注产品数据集(有缺陷的和无缺陷的),模型将能够区分两者。
在传统软件中,可能性几乎可以描述为二部分(可能与否)。然而,在机器学习中,技术可能性可能更多的是一个范围,它会溢出到用户期望的范围内。
用户合意性(desirability)弄清楚人们想要什么是一项棘手的工作,而对于AI产品,也不例外。评估合意性表面上与传统软件相同,但有一个陷阱。让AI评估产品线上的每个产品似乎是非常可取的。事实上,许多公司都在研究这些类型的解决方案。但是您还应该问一些其他问题:
该算法的性能如何以及它需要执行的性能如何?
这个问题与解决方案的技术可能性和用户合意性有关。在数据科学家卖力工作之前,同样没有简单的答案。
您可能会发现算法会以很高的速度检测到有缺陷的产品,但也会产生误报。这对您的生产线意味着什么?也许生产工人会因为误报而完全忽略该算法,而您的解决方案变得不可取。
描述一个完全自主的解决方案很容易,但构建起来并不总是可行的。也许您可以切实构建的产品只是人类的计算机助手。完全自动驾驶汽车和计算机辅助转向在用户合意性上大相径庭。但最好考虑在您的上下文中某些东西变成用户合意的点,这也与下一个问题有关。
用户将拥有多少控制权?用户是否信任您的解决方案并以与您相同的方式看待价值?
信任是人工智能中的一个重要话题,并且有充分的理由。机器学习模型对于开发它们的人来说可能是黑匣子,所以想象一下最终用户的感受。要考虑的一个重要方面是您必须传达多少信息才能说服用户,以及您对用户的决策有多少控制权。
例如,在我们的生产线示例中,您是否需要展示算法对每个预测的置信度(即该产品有70%的可能性有故障)?您是否会赋予生产线经理调整缺陷产品被丢弃的置信度的能力?
这当然是一种简化。将算法的控制权交给用户可能难以实现并且用户难以理解。
这些问题在医疗保健等敏感场景中变得极为重要,因为意想不到的后果可能是可怕的。
商业可行性(viability)如果您提出了一个可行且理想的解决方案,那么问题就在于它对用户以及最终对您而言价值是多少。评估商业可行性的方法有很多,而且PM必须经常考虑新产品理念是否符合公司战略。
一些与可行性相关的更多特定于ML的问题是:
长期产生的价值会大于短期成本吗?
开发ML功能的成本可能高得离谱。考虑到数据科学家和机器学习工程师是当今最受欢迎的人才。即使您的团队中已经有他们,他们也可以采取许多其他举措。此外,精通机器学习的设计师和主题专家可能更少见。获取高质量数据的成本也很高,而且训练模型也不是完全免费的。
从数据收集到模型服务,需要编写大量代码和建立基础设施。最重要的是,机器学习对大多数人来说都是新事物,并且所有利益相关者都参与了大量的教育和变革管理。
由于所需的成本和专业知识,也许总是值得从询问是否可以使用专家系统(即规则引擎)而不是AI来解决某些问题。其次,询问您如何确保您的团队使用其他人在他们之前建立的研究和技术。这两个问题可能会为您和您的公司节省一大笔钱。
问题会随着时间而改变吗?该解决方案能否扩展到其他领域?
另外两个方面会显着影响您的AI产品的可行性。
一方面是您部署解决方案的环境的动态程度。还是在我们的生产线场景中,产品型号会经常变化吗?如果是这样,为了维持解决方案的可行性,获取数据、训练ML模型和进行其他更新的成本将会加班加点。这个问题比你想象的更常见。
另一面可能是您的解决方案可以复制到其他类似的问题,您可以反复使用大部分工程。例如,您可能最初为单个产品设计了故障检测解决方案。尽管如此,同样的传感器可以安装在其他生产线上,并且可以收集训练数据。这些类型的机会可以证明许多重大的前期投资是合理的。
将它们结合在一起在机器学习方面,产品经理(但不限于产品经理)有点天真。他们的态度从完全超出可能性范围的ML到轻松解决所有问题的ML。所以很自然的,事实介于两者之间。
正如本文所示,AI产品中的用户合意性、技术可能性、商业可行性是相互关联的,与传统软件相比,揭示它们之间的关系将需要更具体的实验和原型设计。同时,数据科学家、工程师、产品经理和主题专家需要从一开始就一起工作。