优化营商环境要注重塑造一个充满创新活力、公平透明、鼓励科技创新的良好环境。鼓励科技创新、优化创新生态,是当前营商环境建设和优化一个重要内容。人工智能深刻改变着人类生产方式、生活模式和社会治理模式,人工智能+将成为当前乃至今后经济增长最重要的一个增长点。人工智能的发展趋势关系到国家的未来前途和中华民族伟大复兴事业。如何应对生成式人工智能发展中所提出的相关风险,包括侵权的风险,是优化营商环境的重要内容。

  一、生成式人工智能侵权法律模式的选择

  生成式人工智能侵权问题是我们当前应该思考的一个重大问题。国外实践存在两种完全不同的规制模式。一种是欧盟为代表的强监管模式。欧盟《人工智能法案》把人工智能涉及的法律风险划分为四个等级,针对不同的风险分别应对并确立治理方案。这个法案体现了欧盟对人工智能的强监管理念,尤其是注重对个人信息隐私保护,设置了很多义务性规则,模型开发者、服务提供者一旦违反这些义务就可能构成侵权。另一种是以美国为代表的轻监管重利用模式。美国《国家人工智能倡议法案》是一部人工智能促进法,相关侵权问题仍以传统隐私法、侵权法解决。近年出台的《人工智能行动方案》也基本贯彻轻监管重发展的理念,这种模式对于模型开发者、服务提供者而言,合规义务相对较轻,侵权发生的概率相对较小。

  我们应该采取何种模式?虽然有学者呼吁要尽快立法,但是我认为专门立法为时尚早。首先,当前生成式人工智能的潜在风险总体可控,其主要是对隐私权、个人信息、知识产权等造成侵害,而不是对人的生命财产安全造成现实的重大侵害。其次,人工智能技术发展日新月异,这些技术带来的新问题新挑战,需要时间去观察、认识和总结。如果我们现在还没看清楚就匆忙制定相关规则,可能会妨碍它的发展。从促进国家人工智能发展重大战略角度,我认为应当在发展中予以规范。首先是发展,然后在发展中逐步规范。

  事实上,《民法典》《个人信息保护法》等相关法律已针对人工智能侵权问题设置了相关规则,可以大体上应对当前人工智能的侵权风险,关键是怎么解释好使用好这些规则,同时通过司法解释配套,以及逐步地积累相关案例,最后总结这些实务经验,在这个基础上再形成我国的人工智能立法,这样更接地气,更科学合理,更有利于服务于国家人工智能发展战略。

  二、人工智能侵权的归责原则

  从既有案例可以看出,人工智能侵权的确有区别于传统侵权的特点:服务提供者和用户等侵权主体的多元;并非实际侵害他人的财产和人身,主要是侵害隐私、个人信息、知识产权等权益;对侵权过错的判断更加复杂;因果关系体现为原因的多元结合,等等。人工智能侵权的特殊性,并不表示我们一定要在法律上将其视作一类特殊的侵权而适用特殊原则。关于人工智能侵权的法律规制,提出几点建议。

  1.应当适用过错责任。无过错责任会给人工智能发展带来很大的障碍。一旦发生侵权,如果不考虑有否过错就承担责任,那么模型开发设计者和服务提供者承担的风险则太大。无过错责任多适用于产品责任等领域,人工智能提供的不是产品而是服务,这种服务可能会有瑕疵,但这个瑕疵不会像产品瑕疵那样会给受害人人身或财产造成现实的重大的侵害。因此,没有必要把严苛的产品责任原则如此迅速地适用到人工智能上来。我们还是应该适用过错责任原则,既有利于鼓励人工智能的发展,给模型的开发、设计、制造者提供创新空间,同时也兼顾对受害人保护,这是最佳的选择。

  问题的关键是这个过错怎么判断,我们的建议还是以违反注意义务为标准。例如,违反了合规义务就可能会导致侵权,就表明模型的开发、设计、制造者等是有过错的,应该承担相应的责任。这些合规义务在相关的法规规章等规范性文件中存在着明确的规定。例如,模型的设计者必须将有关教唆从事违法行为的相关信息过滤掉。否则,如果生成出类似的信息,就有可能构成侵权。

  2.人工智能侵权的过错判断应遵循场景化原则。人工智能发展引发侵权场景的多样性,不同场景的风险和防范程度差别非常大,对其不能采取“一刀切”的方式,而应结合具体场景来确定风险防控的成本比较和合理义务。比如,利用人工智能收集他人的各种碎片化信息,并不一定都构成侵权。如果通过信息处理,旨在为用户提供个性化的服务,这对用户是有利的,不构成侵权。但如果专门针对某个特定的个人,收集其行踪信息或生活隐私,甚至将这些信息打包出售,这就有可能构成对他人信息和隐私的侵害。这就是说,要以具体用途等做场景化的分析判断。

  3.人工智能侵权规则要考虑现有技术水平。人工智能发展到今天,仍存在一些现有技术无法克服的困难和障碍,比如说人工智能会产生幻觉或臆想,因此其生成出来的虚假信息,可能是臆想的产物。但是,在现有的技术条件下,暂时无法克服这些技术困境。因此,如果模型的制造者和设计者已经尽到最大努力,但在现有技术条件下,仍然难免生成出某些虚假信息,则就不能认定它是有过错的。在侵权责任法中,产品责任有“发展风险抗辩”,医疗侵权中有现有医疗技术无法诊治的抗辩,这些规则也可以适用于生成式人工智能的侵权,即人工智能侵权规则也应引入现有技术条件的抗辩规则。

  4.人工智能侵权过错认定要综合考虑风险程度和防范成本进行效益判断。有时候风险确实已经形成,但是要完全地消除或防范风险可能需要付出巨大的成本代价,这时候一定要求模型的制造者和设计者付出极高的成本费用去消除风险,从经济上也是极不合理的。例如,模型生成出来某条虚假信息,相关当事人就要求模型必须优化或者将有关训练数据中的虚假信息予以删除,这可能对模型来说负担太重,因为它要在海量数据中识别某条特定信息,本身是非常困难的。要其予以删除,在技术上也很难实现,通常只能对关键词进行过滤,但过滤的关键词不宜太多,否则也会增加过重的成本负担。因此,在认定过错时,就涉及一个风险防范成本的判断问题。

  5.要注重区分人工智能服务提供者的过错和用户的过错。DeepSeek是交互的,其生成的结果有语料的来源,同时也依赖于用户输入的指令、信息。如果用户故意提供虚假信息引诱大模型做出虚假判断,这种情况下可以认为主要是用户的过错。

  三、人工智能侵权的具体问题

  1.服务提供者过错认定应类推适用避风港规则。避风港规则规定在《民法典》第1195条,是为平台侵权设定的一个保护规则。人工智能侵权能否援用避风港规则?我个人认为是可以的。人工智能侵权和网络侵权有很大的相似性,它们都借助网络,虽然有差异,但是基本应用场景还是相同的,尤其是我们要考虑怎么有利于促进人工智能的发展,对大模型我们还是要鼓励它发展,采用避风港是一个很有效的办法。避风港规则有利于保护服务提供者的利益,避免出现一旦生成虚假信息就使服务提供者担责的现象。

  2.AI对已公开信息的利用。生成式人工智能对于已公开个人信息的利用是一个受争议的话题。欧盟将已公开的个人信息视同一般信息,对它们给予同等保护。美国则不再保护已公开的个人信息。对于已公开的个人信息,我认为应当回归《民法典》和《个人信息保护法》的规定。《民法典》一方面明确对其予以保护,另一方面也将其跟一般的个人信息区分开。《民法典》第1036条规定,如果处理已公开的个人信息会给个人造成重大利益侵害,这时候该个人享有拒绝权。这个“重大利益侵害”就是规范已公开个人信息收集处理的重要标准。例如,将从网上已公开的各类信息收集处理,其中可能涉及到某个人的隐私,如果将该信息打包出售,就可能造成对个人权益的重大侵害。

  3.敏感个人信息问题。针对人工智能情形下的敏感个人信息。不能简单照搬和适用单独同意,要对《民法典》《个人信息保护法》的相关规定,结合具体场景作出解释。要区分应用场景的具体情形,一是看它是否公开,二是看它是训练阶段还是商业应用阶段,三是区分处理敏感个人信息是否针对特定的个人。即便在人工智能训练阶段,开发者处理敏感个人信息的动机也存在差异。如果针对特定人搜集其敏感个人信息,是为了刺探特定人的隐私,这就有可能构成侵权。但如果是泛泛的搜集他人已公开的敏感个人信息作为语料进行训练或优化模型,这不一定构成侵权。

  4.已公开的作品数据问题。关于已公开的作品数据,如对作品的数据处理,在人工智能环境下是不是一定都要取得作者的同意?这是一个受争议的话题。从鼓励人工智能发展来看,如果对已公开的作品数据都要求取得作者同意,那么人工智能的语料就会大大受限。在这种情形下,谈判成本极高,可以说市场已经失灵。能不能就把它归入《著作权法》第22条规定的合理使用中去?我个人是赞成这个看法的,这就是合理使用的范围,对个人著作权要做合理限制。

  5.深度伪造问题。深度伪造目前发展迅猛,深度伪造技术如果不得到有效地规范,会带来很大的风险。这个问题的解决还是要回到《民法典》第1019条的规定,禁止利用深度伪造技术侵害他人权益。侵害权益是一个基本标准,只要造成权益侵害就是有过错的。为了防止侵害权益,必须要有一定的义务如合规义务等。

  总之,人工智能发展伴生着风险与挑战。为服务于促进人工智能国家战略发展的重大战略,我们应坚持“发展中规范,规范中发展”的监管理念。面对新领域、新技术和新挑战,我们的执法和司法更需秉持审慎、包容、开放理念,保障人工智能在安全、可靠、可控前提下有序发展,营造鼓励创新的良好营商环境。

更多精彩,请关注“官方微信”

11.jpg

 关于国脉 

国脉,是营商环境、数字政府、数字经济、低空经济、民营经济、产业发展、数字企业等领域的专业提供商。创新提出"软件+咨询+数据+平台+创新业务"五位一体服务模型,拥有营商环境督查与考核评估系统、政策智能服务系统、数据资源目录系统、数据基因、数据母体、数据智能评估系统等几十项软件产品,长期为中国城市、政府和企业提供专业咨询规划和数据服务,广泛服务于发改委、营商环境局、考核办、数据局、行政审批局等政府客户、中央企业和高等院校。

责任编辑:wuwenfei