浅析人工智能在欧洲的专利保护
0分享至人工智能在工业上的应用日趋广泛,从图像识别、自然语言处理到自动驾驶、机器翻译等领域逐渐纵深发展,已经成为现代工业系统不可或缺的重要组成部分。相应地,在人工智能领域的知识产权保护也受到越来越多的关注,各国的高科技企业都抢先在相关领域布局大量的专利申请。目前全球涉及到人工智能的专利申请已经超过几十万件,并且专利申请量还呈高速增长的趋势。但是,人工智能专利申请在授权方面却遇到了很大的阻碍。人工智能的核心部分是机器学习算法,专利申请也主要集中在该领域。机器学习算法多体现为数学方法,而数学方法在很多国家都不属于专利保护的客体。尤其是,在欧洲专利局(EPO)审查指南[1]中明确指出人工智能和机器学习基于诸如分类、聚类等计算模型和算法,而计算模型和算法本身具有抽象的数学本质,审查时需要重点关注。在欧洲专利审查判例中,对于涉及数学方法的案件,需要判断其是否具有“技术性”。对于“技术性”,无论在成文法还是判例法中,都没有给出确切的定义,而是考虑到技术不断发展、新技术不断涌现,将更多的解释权留给欧洲专利局或国家法院。从实践中,可以看到对技术性的判断多使用类比法,即将案件与已形成共识的案例进行类比,进而将相应的方案判定为具有“技术性”或不具备“技术性”。然而,对于新兴的人工智能领域中典型的算法类发明,这样的类比很困难,也给申请人带来了巨大的困扰。本文结合具体案例分析EPO对人工智能专利申请的审查逻辑,并探讨可能的应对策略。一、EPO对人工智能专利申请的审查逻辑在欧洲的审查实践中,对专利申请的技术性,通常需要进行两轮审查[2]:第一轮审查,审查权利要求是否包含技术手段;第二轮审查,审查权利要求是否具有新颖性和创造性。第一轮审查采用“任意技术手段法”,即任何包含使用技术手段的方法和任何技术手段本身具有技术性,因而属于欧洲专利公约(EPC)第52条第1款意义上的发明,因此不能依据EPC第52条第2和3款对权利要求提出反对。第一轮审查通常比较容易通过。对于人工智能和机器学习类专利申请,在权利要求中引入“计算机”等技术手段或在权利要求中限定真实世界的具有技术性的数据,即可通过第一轮审查。例如,对于权利要求“一种用于对皮肤病变图像进行分类的计算机实现的方法,利用增广数据生成训练数据,训练神经网络”,由于包括了计算机、皮肤病变图像等技术特征能够通过第一轮审查。但是,该权利要求也包括神经网络等本身指向抽象模型或算法的非技术特征,即为混合型权利要求,还需要经历第二轮审查。第二轮审查,使用问题解决法(problem-solutionapproach),考虑对发明的技术性作出贡献的所有特征。审查混合型权利要求的新颖性和创造性,一般可包括如下步骤:(i)根据发明上下文的技术效果,确定对发明的技术性有贡献的特征;(ii)基于步骤(i)中确定的对发明的技术性有贡献的特征,选择最接近的现有技术;(iii)确定要求保护的发明与最接近的现有技术的区别。在步骤(iii)中,将权利要求作为一个整体,来确定与最接近的现有技术的区别特征,确定由区别特征产生的技术效果,并从区别特征中区分作出技术贡献的特征和未作出技术贡献的特征。对发明的技术性作出贡献的所有特征既包括技术特征,也包括以下特征:单独看是非技术的,但从发明的上下文来看,有助于产生服务于技术目的的技术效果,从而对发明的技术性作出贡献。对发明的技术性没有做出贡献的特征无法支持创造性,如果某特征仅对解决非技术问题作出贡献,则无法支持创造性。例如,发明与现有技术的区别,如果单独看为非技术特征,从发明的上下文来看,也无法产生服务于技术目的的技术效果,则认为这些区别特征无法对技术问题的解决作出贡献,在判断创造性时不予考虑。如果没有区别特征,则提出新颖性反对意见。如果有区别特征,但区别特征未作出任何技术贡献,则提出创造性反对意见。如果区别特征包含作出技术贡献的特征,则基于这些特征带来的技术效果确定客观技术问题,进而判断用于解决客观技术问题的技术方案对本领域技术人员来说是否显而易见。使用问题解决法,根据发明上下文的技术效果确定对发明的技术性有贡献的特征,是决定人工智能和机器学习类专利申请能否通过第二轮审查的关键。人工智能和机器学习基于分类、聚类、回归和化简等计算模型和算法,例如神经网络、基因算法、支持向量机器、k-means等。这些计算模型和算法本身是抽象的,不具有技术性。但是,人工智能和机器学习在各技术领域的应用可认为具有技术性。也就是说,人工智能算法单独看是非技术的,但从发明的上下文来看,如果有助于产生服务于技术目的的技术效果,则认为对发明的技术性作出贡献,可支持创造性。在评价特征是否能够对技术性做出贡献时,判断人工智能算法是否服务于技术目的至关重要。EPO审查指南给出了一些技术目的示例,包括:数字音频、图像或视频增强或分析,例如,去噪、检测数字图像中的人;音频信号中的源分离、声音识别,例如将声音输入映射到文本输出;基于DNA样本的分析提供基因评估,提供评估的置信度区间以量化可靠性;通过自动系统处理生理测量数据来提供医学诊断。这些技术目的示例可以用作类比的基础。需要说明的是,技术目的不能是通用的,诸如“控制技术系统”这样通用的目的不足以赋予技术性。技术目的必须是特定的,或者说具体的,例如前面列举的声音识别、视频增强等。并且,仅仅是能够用于特定的技术目的也是不够的,权利要求必须在功能上限定于特定的技术目的。通常而言,仅仅限定人工智能算法的输入数据的技术性是不够的[3]。这种功能上的限定可以通过在技术目的和权利要求的人工智能算法之间建立足够的联系而实现。例如,通过限定人工智能算法的输入和输出与技术目的相关,使得人工智能算法与技术效果之间建立因果关系。即,使得权利要求中人工智能算法的特征能够对技术问题的解决作出贡献,从而在创造性审查中被考虑。一般而言,算法的技术目的主要由其提供的结果的直接技术相关性决定。例如,对于搜索关键词的语义获取方法,或者进一步的基于语义获取进行搜索关键词的扩展,虽然能够用于提高搜索引擎上的搜索效率,但是由于这些算法在权利要求中并没有明确限定如何用于在搜索引擎上进行关键词搜索提高,其提供的直接结果也并非提高搜索引擎上的搜索效率,因此也不认为具有技术性。EPO审查指南中还指出,作为一种数学方法的人工智能算法,通过应用于某一技术领域或适用于特定的技术实施,服务于技术目的,产生技术效果,可认为具有技术性。对于应用于某一技术领域的情况,人工智能算法的常见应用领域包括图像处理、声音处理、故障检测、预测维护、医学分析、自动驾驶等等。例如,在心跳监控装置中使用神经网络以识别不规律的心跳,被认为具有技术性。又例如,基于低层级特征,如图像的边缘或像素属性,来对数字图像、视频、音频或声音信号进行分类,被认为是分类算法的典型技术应用,具有技术性。但是,仅仅对文本文档本身进行分类而不管文本内容,则被认为是为语言目的而非技术目的,因而不具有技术性。对抽象的数据记录,即使是通信网络数据记录,进行分类,而不指出分类结果的技术应用,也不认为具有技术性。在分类方法为技术目的的情况下,生成训练集和训练分类器如果支持实现该技术目的,则被认为具有技术性。对于适用于特定的技术实施的情况,主要考量人工智能算法是否专用于该技术实施,其设计是否基于计算机的内部功能的技术考量。例如,采用与计算机硬件的词尺寸匹配的词尺寸切换的多项式化简算法,可以认为产生了有效的硬件实施的技术效果,具有技术性。但是,如果算法仅仅是一般的技术实施,例如,只是在通用的硬件、软件环境中实现了算法,即便算法的效率提升了,也不认为具有技术性。二、人工智能专利申请的审查示例下面结合具体示例来讨论什么样的权利要求既能通过第一轮审查,又能通过第二轮审查。原权利要求记载“一种对图像进行分类的方法,包括:通过在颜色空间中旋转第一组图像,获得第二组训练图像;使用所述第二组训练图像训练神经网络,得到图像分类模型;利用所述图像分类模型对图像进行分类”。这样的权利要求,虽然提到对图像进行分类,但并没有限定对什么类型的图像进行分类,即没有限定到任何具体的应用领域,也没有包含任何技术手段,无法通过第一轮审查。通过将“图像”限定为“皮肤病变图像”,或者将方法限定为“计算机实现”,例如将权利要求的主题修改为“一种用于对皮肤病变图像进行分类的计算机实现的方法”,可以帮助权利要求通过第一轮审查。检索到的现有技术公开了一种神经网络,用于检测皮肤病变并产生额外的预处理图像。比较可知,主题修改后的权利要求与现有技术的区别主要在于:通过在颜色空间中旋转第一组训练图像,获得第二组训练图像。这样的区别特征,单独看是非技术特征,从发明的上下文来看,也无法产生服务于技术目的的技术效果,因此无法对技术性作出贡献,需要对权利要求进行进一步的限定。修改后的权利要求记载“一种用于对皮肤病变图像进行分类的计算机实现的方法,包括:通过在颜色空间中旋转第一组训练图像以包括肤色变化,获得第二组训练图像;使用所述第二组训练图像训练深度卷积神经网络,得到图像分类模型,其中,在训练过程中通过随机激活所述深度卷积神经网络中的节点来应用dropout函数;利用所述图像分类模型对皮肤病变图像进行分类”。修改后的权利要求加入了更多限定。如前所述,权利要求的主题是技术特征,问题在于其他特征是否也对技术性作出贡献。从发明的上下文来看,本发明应用于医学分析的特定技术领域,服务于提高皮肤病变图像分类精度的技术目的,并且能够产生服务于该技术目的的技术效果。并且,权利要求中除主题之外的其他特征,通过特定的神经网络类型以及特定的训练方式,确保该权利要求功能上限于该技术目的,具有技术性。修改后的权利要求与现有技术的区别特征包括:1)神经网络的类型不同;2)神经网络的训练过程不同。如上面分析的,这些区别特征,虽然单独看是非技术特征,但从发明的上下文来看,有助于提高皮肤病变图像分类精度,对发明的技术性作出贡献,能够支持创造性。由此,相对于最接近的现有技术,可以确定权利要求所解决的客观技术问题是:如何提高皮肤病变图像分类精度。如果所要求保护的用于解决客观技术问题的技术方案对本领域技术人员来说是非显而易见的,则权利要求具备创造性。三、总结在欧洲的审查实践中,人工智能专利申请需要经历两轮技术性的审查。应对第一轮审查比较容易,只需在权利要求中包含技术特征即可,哪怕只是限定为“计算机执行”。应对第二轮审查比较困难,权利要求中对技术性作出贡献的特征才能支持创造性。对于人工智能算法类特征,单独看是非技术的,需要在发明的上下文中帮助产生服务于技术目的的技术效果,才能对发明的技术性作出贡献。EPO审查指南给出了一些技术目的示例。实践中可以参考这些技术目的在说明书中描述人工智能算法的技术目的,也可以在答复审查意见时将这些示例作为类比的基础。并且,仅仅是能够用于特定的技术目的也是不够的,权利要求必须在功能上限定于特定的技术目的。这种功能上的限定可以通过在技术目的和权利要求的人工智能算法之间建立足够的联系而实现。EPO审查指南中还指出,通过应用于某一技术领域或适用于特定的技术实施,服务于技术目的,产生技术效果,人工智能算法可认为具有技术性。对于技术领域,目前已经有普遍达成共识的人工智能常见应用领域。实践中也可以参考这些常见应用领域在说明书中描述人工智能算法的技术领域,也可以在答复审查意见时将这些常见应用领域作为类比的基础。对于特定的技术实施,主要考量人工智能算法是否专用于该技术实施,其设计是否基于计算机的内部功能的技术考量。实践中可以在说明书中通过特定的硬件或软件实施环境来强化这一点,尤其需要避免采用通用的计算机系统等描述。另外,对于上面的示例,权利要求经过了较大的修改才认为具有技术性。由于EPO对修改的严格要求,如需对权利要求进行修改,原始的申请文件如说明书中必须包含足够的技术细节,来提供修改依据。另外,未在说明书中提及,或不能从说明书中得出,而仅在审查过程中提出的技术问题,一般得不到认可,因此需要在说明书中清楚地描述技术问题。综上,本文希望通过结合具体案例分析EPO对人工智能的专利申请的审查逻辑,探讨可能的应对策略,帮助申请人在欧洲获得人工智能的专利保护。参考文献:[1]GuidelinesforExaminationintheEuropeanPatentOffice,2021.[2]计算机实施发明/软件相关发明专利审查对比研究报告.中国国家知识产权局,欧洲专利局,2019.[3]李永红.《欧洲专利局审查指南》近期修改介绍——关于专利保护客体,专利代理,2019,第2期:3-15.(来源:CIPMAGAZINE)(图源网络,侵权必删)特别声明:以上内容(如有图片或视频亦包括在内)为自媒体平台“网易号”用户上传并发布,本平台仅提供信息存储服务。
Notice:Thecontentabove(includingthepicturesandvideosifany)isuploadedandpostedbyauserofNetEaseHao,whichisasocialmediaplatformandonlyprovidesinformationstorageservices.
/阅读下一篇/返回网易首页下载网易新闻客户端人工智能技术的发展趋势及挑战
人工智能作为一项具有代表性的颠覆性技术,逐渐改变着我们的生活方式。接下来我会从几个方面来介绍一下我对人工智能发展的看法,包含什么是人工智能,人工智能的发展,人工智能所面对的挑战等内容。
什么是人工智能。
人工智能(ArtificialIntelligence),英文缩写为AI。它是研究、开发用于模拟、延伸和扩展人的智能的理论、方法、技术及应用系统的一门新的技术科学。
人工智能是计算机科学的一个分支,它企图了解智能的实质,并生产出一种新的能以人类智能相似的方式做出反应的智能机器,该领域的研究包括机器人、语言识别、图像识别、自然语言处理和专家系统等。人工智能从诞生以来,理论和技术日益成熟,应用领域也不断扩大,可以设想,未来人工智能带来的科技产品,将会是人类智慧的“容器”。人工智能可以对人的意识、思维的信息过程的模拟。
人工智能的定义可以分为两部分,即“人工”和“智能”。“人工”即由人设计,为人创造、制造。
而关于什么是“智能”,较有争议性。这涉及到其它诸如意识、自我、心灵,包括无意识的精神等等问题。人们唯一了解的智能是人本身的智能,这是普遍认同的观点。但是我们对我们自身智能的理解都非常有限,对构成人的智能必要元素的了解也很有限,所以就很难定义什么是“人工”制造的“智能”了。因此人工智能的研究往往涉及对人智能本身的研究。其它关于动物或其它人造系统的智能也普遍被认为是人工智能相关的研究课题。
尼尔逊教授对人工智能下了这样一个定义:“人工智能是关于知识的学科――怎样表示知识以及怎样获得知识并使用知识的科学。”而另一个美国麻省理工学院的温斯顿教授认为:“人工智能就是研究如何使计算机去做过去只有人才能做的智能工作。”这些说法反映了人工智能学科的基本思想和基本内容。即人工智能是研究人类智能活动的规律,构造具有一定智能的人工系统,研究如何让计算机去完成以往需要人的智力才能胜任的工作,也就是研究如何应用计算机的软硬件来模拟人类某些智能行为的基本理论、方法和技术。
有上述定义所得,人工智能本质就是算法,是一类可以自己学习的算法。
接下来说人工智能的发展。
1950年,一位名叫马文·明斯基(后被人称为“人工智能之父”)的大四学生与他的同学邓恩·埃德蒙,建造了世界上第一台神经网络计算机。这也被看做是人工智能的一个起点同年,“计算机之父”阿兰·图灵提出设想:如果一台机器能够与人类开展对话而不能被辨别出机器身份,那么这台机器就具有智能。
1956年,计算机专家约翰·麦卡锡提出“人工智能”一词。这被人们看做是人工智能正式诞生的标志。麦卡锡与明斯基两人共同创建了世界上第一座人工智能实验室——MITAILAB实验室。
50年代,人工智能迎来高峰期。计算机被广泛应用于数学和自然语言领域,这让很多学者对面机器发展成人工智能充满希望。
70年代,人工智能进入低谷期。科研人员低估了人工智能的难度,美国国防高级研究计划署的合作计划失败,还让大家对人工智能的前景望而兴叹。主要技术瓶颈:计算机性能不足;处理复杂问题的能力不足;数据量严重缺失。
80年代,卡内基梅隆大学为数字设备公司设计了一套名为XCON的“专家系统”。它具有完整专业知识和经验的计算机智能系统。在1986年之前能为公司每年节省下来超过四千美元经费。
1987年,苹果和IBM公司生产的台式机性超过了Symbolics等厂商生产的通用计算机。从此,专家系统风光不再。80年代末,美国国防先进研究项目局高层认为人工智能并不是“下一个浪潮”。至此,人工智能再一次成为浩瀚太平洋中那一抹夕阳红。
1997年,IBM的深蓝战胜国际象棋世界冠军卡斯帕罗夫;2009年,螺丝联邦理工学院发起的蓝脑计划,生成已经成功模拟了部分鼠脑;以及2016年谷歌AlphaGO战胜韩国李世石。
回顾了人工智能60余年的发展历程,科研技术人员不断突破阻碍,让我们可以看到今天人工智能所取得的辉煌成果。随着人工智能的不断发展,科学界对人工智能的看法也渐渐分成两种——悲观学派和乐观学派。
悲观学派的代表是天文物理学家史蒂芬·霍金(StephenHawking),以及特斯拉首席执行官伊隆·马斯克(ElonMusk)。霍金认为AI对人类将来有很大的威胁,主要有以下理由:
AI会遵循科技发展的加速度理论AI可能会有自我改造创新的能力AI进步的速度远远超过人类人类会有被灭绝的危机存在乐观学派主要是Google、Facebook等AI的主要技术发展者,他们对AI持乐观看法的理由:
人类只要关掉电源就能除掉AI机器人任何的科技都会有瓶颈,“摩尔定律”到目前也遇到相当的瓶颈,AI科技也不会无限成长,依然存在许多难以克服的瓶颈。依目前的研究方向,电脑无法突变、苏醒、产生自我意志,AI也不可能具有创意与智能、同情心与审美等这方面的能力。这两种学说各有各的道理,目前很难判断那种学派是正确的。就目前的弱人工智能来说,乐观派或许是对的。但我们很难保证之后的强人工智能不会对我们的生存产生威胁。
《新一代人工智能治理原则——发展负责任的人工智能》是为促进新一代人工智能健康发展,更好协调发展与治理的关系,确保人工智能安全可靠可控,推动经济、社会及生态可持续发展,共建人类命运共同体,人工智能发展相关各方应遵循的原则。由国家新一代人工智能治理专业委员会于2019年6月17日印发实施。这份文检里明确指出了人工智能的发展应遵循的原则:和谐友好,公平公正,包容共享,尊重隐私,安全可控,共担责任,开放协作,敏捷治理。文件的主题还是“负责任”,如薛澜所说:“比如我们提出的‘和谐友好’等原则,强调无论是人工智能提供的产品还是服务,都应该是负责任的、全面的,应以增进人类共同福祉为目标,应该符合人类的价值观和伦理道德,避免误用,禁止滥用、恶用。”负责任就是以人为本,一切以服务人类为主。目前还处于弱人工智能阶段,主要需要被约束的还计算机工程师。计算机工程师要负起自己的责任,确保人工智能安全可控可靠,规避风险隐患,做到为人服务,不侵犯用户的权益和隐私。
“考虑到人工智能发展的高度复杂性和不确定性,要按照渐进性的思路推进人工智能的治理。”薛澜表示,《治理原则》是一份框架性文件,对人工智能健康发展主要发挥宏观引导作用,今后还将根据形势的变化和需要,不断进行充实和调整。在薛澜看来,人工智能的发展过程中也面临着一些基础性的工作,立法就是其中之一。“我们发布的《治理原则》,也为今后的立法工作提供了重要基础。”他认为,人工智能发展非常快,而立法的周期较长,因此也很难只用法律框架来支撑人工智能的发展,“这就需要相关的原则准则、行业规范,包括从业者的自律,来协同推进其健康发展。”
防范风险隐患,发扬科技之善,人工智能发展迅速,它只会不断渗透进我们生活,计算机工程师要从八项原则出发,规范自己的道德标准,遵守法律法规,做好应对人工智能“觉醒”的准备,以人为本的发展人工智能,让人工智能为人民服务,才能更好地,健康地发展人工智能。
人工智能未来的挑战
所谓的人工智能在更大程度上都是在模拟人的感觉和思维,让一种更像人的思维机器能够诞生。著名的图灵测试,也是在是否能够像人一样思考的标准上进行的。图灵测试的目的,仍然在检验人工智能是否更像人类。但是,问题在于,机器思维在作出自己的判断时,是否需要人的思维这个中介?也就是说,机器是否需要先绕一个弯路,即将自己的思维装扮得像一个人类,再去作出判断?显然,对于人工智能来说,答案是否定的,因为如果人工智能是用来解决某些实际问题,它们根本不需要让自己经过人类思维这个中介,再去思考和解决问题。人类的思维具有一定的定势和短板,强制性地模拟人类大脑思维的方式,并不是人工智能发展的良好选择。
所以,人工智能的发展走向了另一个方向,即智能增强(简称IA)上。如果模拟真实的人的大脑和思维的方向不再重要,那么,人工智能是否能发展出一种纯粹机器的学习和思维方式?倘若机器能够思维,是否能以机器本身的方式来进行。这就出现了机器学习的概念。机器学习的概念,实际上已经成为发展出属于机器本身的学习方式,通过海量的信息和数据收集,让机器从这些信息中提出自己的抽象观念,这个时候,很难说机器自己抽象出来的猫的概念,与人类自己理解的猫的概念之间是否存在着差别。不过,最关键的是,一旦机器提炼出属于自己的概念和观念之后,这些抽象的概念和观念将会成为机器自身的思考方式的基础,这些机器自己抽象出来的概念就会形成一种不依赖于人的思考模式网络。当我们讨论打败李世石的阿尔法狗时,我们已经看到了这种机器式思维的凌厉之处,这种机器学习的思维已经让通常意义上的围棋定势丧失了威力,从而让习惯于人类思维的棋手瞬间崩溃。一个不再像人一样思维的机器,或许对于人类来说,会带来更大的恐慌。毕竟,模拟人类大脑和思维的人工智能,尚具有一定的可控性,但基于机器思维的人工智能,我们显然不能作出上述简单的结论,因为,根据与人工智能对弈之后的棋手来说,甚至在多次复盘之后,他们仍然无法理解像阿尔法狗这样的人工智能如何走出下一步棋。
不过,说智能增强技术是对人类的取代,似乎也言之尚早,至少第一个提出“智能增强”的工程师恩格尔巴特并不这么认为。对于恩格尔巴特来说,麦卡锡和明斯基的方向旨在建立机器和人类的同质性,这种同质性思维模式的建立,反而与人类处于一种竞争关系之中,这就像《西部世界》中那些总是将自己当成人类的机器人一样,他们谋求与人类平起平坐的关系。智能增强技术的目的则完全不是这样,它更关心的是人与智能机器之间的互补性,如何利用智能机器来弥补人类思维上的不足。比如自动驾驶技术就是一种典型的智能增强技术,自动驾驶技术的实现,不仅是在汽车上安装了自动驾驶的程序,更关键地还需要采集大量的地图地貌信息,还需要自动驾驶的程序能够在影像资料上判断一些移动的偶然性因素,如突然穿过马路的人。自动驾驶技术能够取代容易疲劳和分心的驾驶员,让人类从繁重的驾驶任务中解放出来。同样,在分拣快递、在汽车工厂里自动组装的机器人也属于智能增强类性质的智能,它们不关心如何更像人类,而是关心如何用自己的方式来解决问题。
处理好人工智能思维和人类思维的关系,是人工智能发展的最大挑战。模仿人类思维,会显得有局限性;发展机器思维,又会不可控,这两者的平衡如何把握,就看以后的计算机工程师怎么选择了吧。