老哥学习网 - www.lg9.cn 2024年05月14日 21:36 星期二
当前位置 首页 >公文范文 > 公文大全 >

人工智能自主发明的社会风险及其法律应对

发布时间:2023-06-29 19:30:05 浏览数:

贾丽萍 曹 璨

(福州大学法学院,福建 福州 350108)

人工智能自主发明的出现颠覆了传统发明机制。由于其发明过程缺少人类的干预,对这种发明物应当如何进行法律界定和保护引发了学界的争论,对此需要选取合理的保护模式化解社会各主体对权益的争夺与对责任的推诿。同时,智能机器发明产生的专利侵权、破坏市场竞争、违反人类伦理道德等衍生问题,亟须专利法及相关部门法的进一步细化,以实现对人工智能自主发明产生的社会问题的合理规制。

人工智能在与技术环境交互作用的过程中,凭借其自我进化的“机器学习”能力,能够独立生成技术方案本身是一种技术现象,但因此涉及的新型社会关系也成为一项社会问题。其在保护模式、专利侵权认定、抑制有效竞争与伦理道德等问题上凸显了技术发展的不确定性与法律保护的确定性之间的矛盾。

(一)人工智能自主发明引发的权利保护风险

在人工智能自主发明过程中因其发明活动来自机器的“思维”结果,而非人类智力成果,那么对此种结果应当如何选择保护模式,是机器人发明活动对传统专利法调整的社会关系产生的首要冲击。机器自主发明的成果是否应当适用以人类为主体构建的专利法进行保护,以及如何确定其权利主体成为学界争论的焦点,法律制度亟须做出回应。

(二)人工智能自主发明导致的专利侵权风险

人工智能在自主发明的过程中,因其可以通过互联网随意抓取、复制大量数据,而这些数据往往来源复杂,有些已受到专利法的保护,其挖掘海量信息的工作过程具有侵害已有专利权的风险。但在诉讼中,多主体联合侵权模式与公众难以合法举证隐蔽算法存在侵权行为的两方面因素,共同导致获取司法救济的困难。

1.智能机器侵权模式的认定困境

现行《中华人民共和国专利法》(以下简称《专利法》)规定了两类侵权行为:其一,直接侵权,即“行为人的产品或方法具有他人专利产品或专利方法权利要求书中的全部技术特征”;
①王迁:《知识产权法教程(第四版)》,北京:中国人民大学出版社,2014年,第360页。其二,间接侵权,即“行为人没有直接侵害专利权,但是诱使直接侵权行为发生,或者在明知或应知的情况下为直接侵权行为提供实质性的帮助”。②崔国斌:《专利法:原理与案例(第二版)》,北京:北京大学出版社,2016年,第579页。两者都是从单一行为主体的角度来规制专利侵权风险。但现阶段人工智能生成发明的过程需要基础数据提供方、技术层设计方、应用层开发方等多主体的配合,往往其分步的行为经过累加才构成专利权利要求书中的全部技术特征,而现行法单一主体的认定模式易导致法律规制的困境。

2.智能机器发明过程中证明责任分配的难题

在举证责任分配问题上,因人工智能算法具备隐藏性和难以解释性,原告很难提供证据证明被告使用了专利方法,因此具有适用举证责任倒置的必要。而《专利法》第66 条只设置了“新产品制造方法”这一种举证责任倒置的规定。当适用到人工智能自主发明侵权问题时,一方面存在着数据代码能否被认定为“产品”的困境;
另一方面,司法解释对“新产品”的认定是依据技术方案是否在专利申请日以前为国内外的公众所知,③2009年《最高人民法院关于审理侵犯专利权纠纷案件应用法律若干问题的解释》第17条。其采用的是专利新颖性审查时认定的结论,而不是侵权行为发生时的结论,本质上就与诉讼中判断的行为法益侵害性存在评判时间的不同步。因人工智能具备不间断公布现有技术的能力,当诉讼间隔过长时,被告方使用的技术方案在多数情况下不具备侵犯权利人专利权的情形,此时仍一律要求其适用“举证责任倒置”,实际上不合理地加重了被告方的举证责任。

(三)人工智能自主发明带来的反竞争风险

人工智能可以不间断地生成技术方案,一部分经过申请获得了专利权,而大部分以现有技术的形式被创造出来进入公共领域,在提供社会公共技术的同时,也带来了后续专利权实施与流转的风险。由于企业经营策略的指引,人工智能的所有者可凭借机器的快速创造能力,围绕自身专利权建设“专利围墙”——达到扩大自身专利权范围,防止竞争对手获得跟随发明的目的;
④Ben Hattenbach,Joshua Glucoft,“Patents in an Era of Infinite Monkeys and Artificial Intelligence”,Stanford Technology Law Review (2015),p.36.也可以围绕竞争对手的专利构建“专利牢笼”,⑤刘鑫、覃楚翔:《人工智能时代的专利法:问题、挑战与应对》,《电子知识产权》2021年第1期。让对手已获得专利权的核心专利无法充分实施,从而使专利丧失价值。在这一过程中,存在不正当竞争和垄断相关市场的反竞争风险,可能损害消费者和其他经营者的利益。

人工智能因具备“机器学习”的能力,在其发明过程中,能脱离初始设定自主修正程序,产生新的算法,再依照设定目的创造技术方案,这给反竞争行为的规制带来了困难。市场主体可以以自己对机器发明的过程并不知情,因而不具备破坏竞争的主观要素来免除法律责任。类似地,执法机构也因技术力量的缺陷难以认定公开的技术方案对市场产生的限制竞争效果而难以做出处理决定。同时,现行《中华人民共和国反不正当竞争法》(以下简称《反不当竞争法》)和《中华人民共和国反垄断法》(以下简称《反垄断法》)对利用人工智能技术进行的破坏竞争行为尚无明确的法律规制依据,仅就滥用知识产权的行为在《反垄断法》第55条进行了抽象性的规定。目前,明确的竞争法调整依据与有效的管控手段的缺失,给法律适用的正当性与责任认定造成了困难,使竞争法难以发挥对专利法调整外延的补充规制作用。现行法律制度需要及时调整,以应对产业主体通过人工智能自主生成海量现有技术,破坏竞争秩序的风险。

(四)人工智能自主发明导致的伦理道德风险

人工智能依赖大数据,以效率为导向的学习模式往往无法兼顾人类的伦理价值,其生成发明的过程中存在着结构性的伦理道德风险。一方面,人工智能算法在获取运用数据时侧重使用关联推理,却忽视了人类思维中感性的价值追求。人类社会建立的基本权利、平等正义价值在目前的人工智能搜集整合数据的发明过程中缺少应有的重视。如瑞安·艾伯特(Ryan Abott)所言:“一个机器如果没有道德指南,就能以对人类有害的方式进行创新。”①Ryan Abbott,Hal the Inventor:Big Data and Its Use by Artificial Intelligence,in Big data is not a mono‐lith,MIT Press,2016,p.187.另一方面,当人工智能学习数据建立模型时,在现有的法律规定的许可模式下,市场主体面对许可主体过多、成本过高等问题,难以获得合法授权。

怀疑论者大卫·休谟认为,在现实生活中,“所有的一切推论和结论在于经验”,“根据经验来的一切推论都是习惯的结果,而不是理性的结果”,“这在各方面看来都不是必然的”。②〔英〕休谟:《人类理解研究》,关文运译,北京:商务印书馆,1957年,第32、33、42页。由此审视智能机器发明过程所隐含的法哲学问题,即通过搜集海量数据自主进行关联学习的进路本身存在着后验概率永远不可能达到1 的认知结构风险。质言之,算法对外部对象进行数据化建模的这一过程是采用相关性的关联推理,而这样搭建的因果联系无法达到100%的可靠性,而多层次的网络结构又将此类风险进行累积。人工智能只具有部分的人类认知能力,将简单的行为与思考模式进行量化,但对尊严、幸福等价值难以感知,这增强了因技术风险引发的伦理风险的破坏力。

科学技术是一把双刃剑。风险这一概念本身具有文明的意涵,人们能够通过可预见性的制度设计对不可控的事情进行预先防范。③〔德〕乌尔里希·贝克:《风险社会》,何博闻译,南京:译林出版社,2004年,第4页。就法学领域而言,如何通过权利义务的安排化解智能机器生成发明过程产生的社会风险,对保障人工智能技术的健康运行具有重要意义。

(一)明确专利法保护模式

对一种可能带来市场利益且会打破传统科研竞争地位的创造力机器,其发明成果保护模式的合理选择是解决产业社会矛盾与制度风险的关键,其能够缓解机器发明存在的现代性的负面影响。

1.适用专利法保护人工智能自主发明的正当性

有学者提出,智能机器发明应当直接进入市场,因为其凭借市场的领先地位能够取得足够的竞争优势以激励技术的发展,而机器发明因多主体共同完成发明的模式难以确定其背后需激励的人类主体而缺乏专利保护的正当性,不应适用专利法保护。④Shlomit Yanisky-Ravid,Xiaoqiong Liu,“When artificial intelligence systems produce inventions: the 3A era and an alternative model for patent law”,Cardozo Law Review,2018,pp.2215-2263.但从社会风险的角度看,按照以上观点,智能机器发明因缺少法律授权,隐含着社会冲突的可能性,会由于缺少法律制度塔建的稳定的社会架构,加剧上下游技术链间的矛盾。同时,秘密保护模式耗费了本应被投入到技术研发中的资本,阻隔了社会公众应当享有的权益。因为几乎任何一种知识产品都或多或少参考了社会上前人的科学研究成果,⑤冯晓青:《知识产权法哲学》,北京:商务印书馆,2003年,第89页。而社会公众无法享有这样的技术成就也由此动摇了权利人获得财产利益的正当性。本文认为,人工智能自主发明物不应因其特殊的发明形式被排除出专利法保护框架,具体理由如下:一方面,阐述专利制度正当性的激励理论仍能继续激励该产业上下游研发的积极性,保障行业效益;
另一方面,机器发明模式不仅符合专利审查指南形式要求的“采用技术手段解决技术问题,以获得符合自然规律的技术效果的方案”,①《中华人民共和国专利审查指南》第二部分第1章第2条第3款。还满足专利制度的保护内涵,即“与著作权制度中作者与作品的关系相比,专利制度侧重于保护的是发明成果的创造性和实用性”。②朱雪忠、张广伟:《人工智能产生的技术成果可专利性及其权利归属研究》,《情报杂志》2018年第2期。因此应当认定人工智能发明物符合专利法适格标的。

2.人工智能自主发明的权利归属

诚然,我们应认识到,“人工智能生成发明主体资格缺失是其申请、获得专利权的最大阻碍”。③孜里米拉·艾尼瓦尔、姚叶:《人工智能技术对专利制度的挑战与应对》,《电子知识产权》2020年第4期。在专利申请权、专利权归属等问题上,本文赞同吴汉东教授论述的“承认‘机器发明人’这一法律事实,参照职务发明专利,赋予自然人或自然人的集合以专有权利”④吴汉东:《人工智能生成发明的专利法之问》,《当代法学》2019年第4期。的观点,以实现人工智能自主发明技术与现行专利法律制度间矛盾的消解媾和,化解现代化风险可能带来的制度失灵,也即在认定人工智能作为发明人的基础上,将专利的申请和取得权分配给人类主体即“专利的实际控制者”。通过合理的制度设计确认利益归属,避免各方主体争抢权益、推诿责任的市场不稳定风险。

(二)明确专利侵权的法律规制路径

在创造力机器的发明过程中,其发明成果的完成需要多主体共同配合,而此种创造模式在不透明算法获取数据的过程中,产生了依照现行法律难以认定侵权主体、权利人举证困难等风险。本文建议引入“控制与管理”规则应对智能机器引发的分步式侵权问题,并细化举证责任倒置的制度安排,确保权利得到及时救济。

1.侵权主体的认定

有学者建议借鉴美国司法实践中采用的“控制与管理”规则作为现行法侵权认定规则的补充,⑤孜里米拉·艾尼瓦尔:《人工智能发明创造中的专利侵权困境及其应对》,《中国科技论坛》2021年第4期。作为多方主体联合侵权的责任承担依据。美国法院依照《美国法典》第35 篇第271(a)节对BMC Res 案的判决认为:“在专利侵权的情况下,被告不能因此通过让其他人代表其执行一个或多个所主张的步骤来避免直接侵权的责任”。⑥BMC Res.,Inc. v. Paymentech,L.P.,498 F.3d 1373 (Fed. Cir. 2007).此即“控制与管理”规则的具体应用。该原则用于确认多侵权行为中的联合主体间法律关系,并据此判断侵权责任的承担主体。本文认为,此种做法可供我国借鉴。

具体言之,将此原则应用于人工智能专利侵权诉讼时,首先应当考虑联合发明中是否存在着委托代理合同,并将委托者认定为控制者。而在没有委托代理合同时,应当统筹技术资本投入占比等多因素考量在多步骤行为中起到的控制作用,综合判断联合主体的控制者,在各主体的技术资本比例难以确定的情况下,应当将侵权责任的风险归属于人工智能自主发明物的权利人,以实现权责一致。

2.证明责任的分配

前已述及,我国现行《专利法》第66条仅规定了“产品的制造方法”的证明责任倒置。但在人工智能时代,算法软件应当被同等保护,对软件算法、数据传输改进的新方法也应适用举证责任倒置。因为人工智能自主发明的应用情景不只包括具备物理结构的产品,也包括能够提升计算机性能的代码。本文建议将产品制造方法外延进行扩张,将有创造性的数据代码的完成方法也列入举证责任倒置的范围,防止其被人工智能随意抓取。同时,对于算法产品的界定不应局限于细节完全的匹配,而应从组成结构与功能上看是否能够实现相同的技术效果,据此评判产品的制造方法是否侵犯专利权。

另外,还应从以下几方面细化举证责任倒置的规定:第一,为责任倒置设置一定的期间,以化解不合理加重被告方负担的情形。例如设置一定年限的除斥期间,当超该年限而不行使诉权,则证明责任恢复由原告承担。第二,应结合投入市场的时间综合判断是否应当倒置举证责任,“不能一概以申请日作为标准”。①刘强:《技术网络化背景下的专利侵权判定——以云计算技术专利权为视角》,《北方法学》2014年第2期。若产品没有投入市场,而被诉方能够用类似的技术方案生成相同产品,需要证明具有较大的侵权可能性,应适用举证责任倒置的规定。而在产品已经投入市场的情况下,法院应结合权利申请日前技术公开情况与相关市场的消费者在投入市场日是否见过类似质量、功能的产品,综合人工智能公开的技术方案判断是否需要倒置证明责任。当有较大的侵权可能性时,需由权利人举证投入市场的时间证明产品属于新产品,再由被诉方承担证明责任。

(三)设置合理的竞争法应对措施

为应对市场主体利用人工智能低成本公开技术信息,围绕自身或他人专利进行现有技术布局,达到改变专利价值或取得垄断地位的隐性风险,本文建议以公开现有技术的危害程度对破坏竞争秩序的行为进行区分,完善《反不正当竞争法》《反垄断法》的责任条款,避免“背离了知识产权保护人类创造物的目的,并破坏了知识产品应有的市场竞争秩序”。②刘强:《人工智能对知识产权制度的理论挑战及回应》,《法学论坛》2019年第6期。

1.不正当竞争行为的法律应对

当运用智能机器生成现有技术的行为构成“以技术手段制约同类技术的运用”③刘继峰:《竞争法学(第三版)》,北京:北京大学出版社,2018年,第375页。时,应认定为不正当竞争行为,并适用《反不正当竞争法》加以规制。一方面海量的现有技术可能扭曲市场上既有专利的价值,将人工智能技术异化为竞争工具;
另一方面,此种竞争行为也违反了商业道德,破坏市场合理竞争机制,具有可归责性。

申言之,在具体实践中应先适用司法手段,依照《反不正当竞争法》中“经营者在生产经营活动中,应当遵循自愿、平等、公平、诚信的原则,遵守法律和商业道德”的原则性的规定,结合公平竞争原则,规制滥用人工智能技术侵害竞争对手的不正当竞争行为。在不断积累行政执法素材与案件经验的基础上,制定人工智能反不正当竞争行为的具体规制条款,适时增设原则性规定,明确规制的正当性。如在《专利法》第20条增加“采用不正当竞争的手段贬损他人专利权利的,依照《中华人民共和国反不正当竞争法》处理”。同时在《反不正当竞争法》第12条第4款前增设“以明显违法的方式使用人工智能网络技术侵害专利权人利益构成破坏正常经营活动的”作为具体不正当行为的判定依据。此外,在责任认定的过程中,本文建议对利用人工智能不间断生成技术方案的行为采用严格责任原则,防止市场主体以人工智能具有脱离人类干预的自主创造能力作为免责事由逃避责任。

2.垄断行为的判定

当利用人工智能的反竞争行为导致了限制、排除竞争的消极后果,超过了运用技术手段攻击竞争者具有的特定专利权的范围限制时,为保障消费群体的利益、维护市场秩序,须对该行为适用反垄断手段进行规制。

质言之,应当对经营者利用人工智能扩大自身权利范围,以期获得市场支配地位的情形进行限制。通过细化《反垄断法》设置的“经营者滥用知识产权,排除、限制竞争的行为”的具体规制步骤,增加以不合法手段扩张市场地位的行为的反垄断法规制路径,“避免造成更为严重的市场危害”。④刘鑫、覃楚翔:《人工智能时代的专利法:问题、挑战与应对》,《电子知识产权》2021年第1期。本文建议,一方面,在人工智能反垄断诉讼中增加责任承担方式,按照其公布方案影响范围的大小,由专利行政部门依申请给予强制许可或者在一定时间内将其公布的技术方案不列入现有技术领域作为责任承担要件。在维护实体技术投资产生的市场效益的同时,保障社会公众在市场交易中的选择权,维护公共利益。

另一方面,对政府实施的反垄断行为,反垄断执法部门对此类案件关注的重点应为是否产生了技术壁垒,即判断生成的海量现有技术是否导致经营者自身专利权控制了某一技术市场,或其他企业的平等竞争机会的丧失。但我国反垄断执法机构对各专业领域海量技术方案与专利权属之间结构关系的专业性知识,难以清楚判定是否构成滥用行为。本文建议,可采用专利技术景观①专利技术景观分析包括专利数量变化趋势、专利质量特征与专利结构特征三部分,分别从专利数量、质量与技术特征三方面描述技术专利情况。Aharonson B S,Schilling M A,“Mapping the technological landscape:Measuring technology distance,technological footprints,and technology evolution”,Research Policy,2016-1,pp.81-96.追踪相关产业的发展情况,以明确人工智能公开的现有技术是否能实际达到限制其他经营者参与技术市场竞争的效果。申言之,利用技术解决技术产生的问题,通过人工智能技术控制监管相关技术的各企业占有的份额,并综合考察该经营者的财力和技术条件,判断其行为是否能够产生垄断相关市场的风险。

(四)提高人工智能自主发明的伦理要求

1.提高智能算法设计的伦理要求

“安全是人工智能时代的核心法价值。”②吴汉东:《人工智能时代的制度安排与法律规制》,《法律科学(西北政法大学学报)》2017年第5期。对处于伦理道德紧张关系下的人工智能算法设计过程,本文建议尽快制定全面的人工智能算法的行业伦理标准。③吴桂德:《德国人工智能创造物的知识产权法保护及其启示》,《电子知识产权》2021年第1期。保障公众的数据权利等其他基本权益,确保人工智能发明的积极效果,实现算法正义。深圳市人工智能行业协会联合多家人工智能企业发起的《新一代人工智能行业自律公约》不失为一种有效尝试。④深圳市人工智能行业协会发布《由协会发起,首份人工智能行业自律公约公布》,2019 年8 月18 日,http://www.saiia.org.cn/index.php/2019/08/18/1212/,最后访问时间2021年11月9日。为应对损害人类道德的风险,应当在算法设计的过程中加入价值保留的程序设置,以纠正算法可能带来的决策风险,由算法的程序正义实现实质正义,即“在设计算法的过程中,利用代码设定动态因素阈值,从而实现对算法运行进行动态监管”。⑤郭哲:《反思算法权力》,《法学评论》2020年第6期。此外,在算法研发中关注人类福祉的价值追求,这也能在一定程度上减少算法对人类社会编制的个人信息茧房分化人类认知结构,⑥张爱军、王首航:《算法: 一种新的权力形态》,《治理现代化研究》2020 年第1 期。使“人作为目的”的人类社会的价值共识不被人工智能异化。在必要时,本文建议由社会组织代替公众进行公益诉讼,通过质证解释算法的正当性,制止算法对人类伦理价值的侵权行为。

2.完善数据处理活动中伦理风险的防控机制

我国《数据安全法》第8条规定:“开展数据处理活动……不得危害国家安全、公共利益,不得损害个人、组织的合法权益。”在人工智能数据处理过程中,应当树立人类权利优先的基本理念,充分考虑机器无法量化的差异性特征。在维护道德价值的同时,也要建立适合人工智能发展的商业化数据流转机制。

一方面,应加强人工智能算法的产业自主监管。为保障人类利益,应注重建设人工智能调取数据的法律规范与产业标准,发挥人工智能社会组织的自治作用,本文赞同有学者提出的发挥社会责任披露机制,完善人工智能算法“元治理”的观点,⑦郑智航:《人工智能算法的伦理危机与法律规制》,《法律科学(西北政法大学学报)》2021年第1期。引导社会组织合理制定适应不同产业的数据调取的行业标准或自治章程文件。对其中容易发生侵犯人类伦理道德的领域,可由多家产业主体以联合声明的形式向社会披露其获取数据的目的与行为的潜在违法性以及监督措施——包括公司内部设置数据监管部门与政府设置独立的数据监管机构。

另一方面,应建立保障人类尊严的高效数据流转机制。虽然我国新通过的《数据安全法》《个人信息保护法》对数据保护做出了总体规定,具有划时代的意义,但是对于具体条款仍然需要结合人工智能的技术背景进行细化,完善数据处理的法律保护。应通过部门法来补充细化数据控制者、数据处理者违法行为类型与责任,完善数据主体的更正权、清除权的行使方式,在加强法律监管保障人类尊严的同时,优化数据处理者的权利行使途径,加速数据资本的商业运转。国家数据安全工作协调机构应当加快制定分类分级的标准化数据保护文件,构建体系完备的国家数据库,以便产业主体进行数据搜集时,按照国家分类数据文件公布的保护要求并结合行业标准做好剔除敏感信息的处理工作,化解使用数据过程中的侵犯人类伦理风险,同时加快数据价值的商业运转。

社会风险的有效解决需要明晰的治理理念与完备的法律运行体系,实现社会组织与政府的共同依法治理,并由全面的监督体系保障法律活动的合法性,确保人工智能技术的健康发展。

(一)坚持预防性治理理念

传统社会危机的治理,通常由政府行使单向的权力作出行政行为,如采取事后管控措施,或由法院通过对私人主体遭受的侵权行为进行裁判,救济被损害的权利。但是“人工智能因为技术发展过程存在的不可预测性与潜在的不可逆性存在着威胁人类存续可能性的风险。①吴汉东、张平、张晓津:《人工智能对知识产权法律保护的挑战》,《中国法律评论》2018年第2期。因此需要树立预防性的风险防范理念,法治工作要围绕政府参与、行业自律、公众监督三方面确保技术安全。法律体系的建设要围绕人类利益优先的价值理念,完善社会安全与科学理性并重的智能创新观念。

(二)构建应对机器自主发明的法律运行体系

其一,在法律制定层面,通过设立专门的人工智能发展规划法,在确保人工智能健康安全发展的前提下,研究机器自主发明的风险规制问题。在制定该项法律的过程中,须发挥各部门法的协调配合,使制度资源在保障发明物积极流转的同时,对发明过程产生的专利法保护问题、侵权诉讼问题、市场竞争问题和人类伦理问题统筹考虑,以完备的法律监管保障人类福祉。此外,要实现法律法规与行业规范的有机衔接,由制定流程简便的行业规范对风险快速作出反应,再由法律法规从宏观视角对成形的技术风险排除机制进行归纳,运用国家强制力保障落实,以应对不同层面的社会风险。

其二,在法律适用层面,如前文所述,由于运用智能发明机器的社会主体相较人类发明者具有快速调取跨领域数据的能力,可能产生侵害第三人利益的风险。同时,产业主体对算法的运算过程往往采用商业秘密保护,也使得私人主体在面对具备黑箱效应的机器发明侵犯权益时,遭遇了缺乏技术手段与诉讼力量不足的困境,很难保障自身权益。针对此问题,应当发挥社会组织的作用,由人工智能的社会组织对机器发明过程中侵犯不特定多数人权利的案件进行合理评估,在符合条件时,代替公众提起公益诉讼,解决权利救济不畅的难题。

其三,在行政执法层面,政府须在严格依法的同时防止权力的过度扩张。建立宽严适当的事先预防型监管体系,在保护人类权益的前提下,避免影响机器创造能力的发展。服务型政府的构建须积极转变身份,由单方的监管者转向智能技术的共治者,在充分了解技术的可解释性后,排除技术可能带来的安全隐患,完善政策支持。政府应主动联合社会第三方力量,发挥智能管理优势,运用智能算法擘画机器发明领域的技术景观,对智能机器发明实时监管,并不断优化专利结构,抵抗外界风险。对可能涉及公共利益的高技术发明授权,笔者建议制定技术影响评价表格,确保公众对技术政策的民主参与权。

其四,在法律监督层面,笔者建议,一方面,应当注重发挥人工智能组织的源头监督力量,通过制定先导性的产业伦理章程和有效的自律规范,应对高新技术对社会结构带来的影响,保障权利人和社会公众的利益。另一方面,由独立的监管机构监督上述人工智能发展规划法的实施,其职权包括但不限于,在法律实施过程中向制定机关提出风险防控意见,有权进行关于社会组织的自律章程的备案监督工作,以及对个人或社会组织的投诉进行技术调查。此外,本机构还应与其他监管机构相配合,共同实现立法、司法、执法层面的有力监管,确保社会安全与科学理性并重的法治理念在法律运行的过程中得到彰显。

人工智能具备独立的思维模式,当它被运用到技术创新领域时,会产生现行法律难以应对的诸多社会风险。尤其是,传统专利法律制度调整的人与人的社会关系在面对机器自主发明时出现了应对困境。为此,应当确立人工智能自主发明专利保护模式的正当性,建立明确的侵权责任判定依据,完善竞争法应对,加强技术伦理道德要求。同时,在立法、司法、执法与法律监督四个主要方面,须建立保障人类福祉、发挥社会力量、转变政府角色、共同协调监督的人工智能自主发明法治治理体系,以吸收、化解人工智能自主发明所带来的风险,有效应对新一轮智能革命所带来的潜在的社会危机。

猜你喜欢专利法机器专利美国新专利法下的“现有技术”(上)英语世界(2022年9期)2022-10-18专利水运工程(2022年7期)2022-07-29机器狗环球时报(2022-07-13)2022-07-13机器狗环球时报(2022-03-14)2022-03-14发明与专利传感器世界(2019年4期)2019-06-26未来机器城电影(2018年8期)2018-09-21当然许可期间专利侵权救济探讨——兼评《专利法(修订草案送审稿)》第83条第3款知识产权(2016年6期)2016-12-01专利侵权行政执法的边界——兼论《专利法》第四次修改知识产权(2016年5期)2016-12-01专利法第四次修订中的两个重要问题知识产权(2016年3期)2016-12-01

推荐访问:人工智能 发明 应对

相关文章:

Top