查看原文
其他

张安毅 | 人工智能侵权:产品责任制度介入的权宜性及立法改造

张安毅 深大社科学报 2024-01-11

点击上方“深大社科学报”可订阅!

人工智能侵权:产品责任制度介入的

权宜性及立法改造


张安毅,法学博士,河南财经政法大学副教授

原载《深圳大学学报(人文社会科学版)》

2020年第4期



人工智能侵权对现行侵权责任法规则带来挑战,但人工智能目前还无法颠覆现有法律体系。在人工智能取得独立民事主体地位之前,人工智能只是具有分析判断等特殊功能的产品,人工智能侵权风险也只有通过产品责任规制生产设计行为才能得以良好控制。人工智能与以往人类生产的所有产品都存在巨大不同,人工智能代替人类做出自主决策决定了其会面临道德选择困境;人工智能产品内部推理过程无法还原决定了其设计缺陷难以证成;人工智能程序系统设置的独立性决定了其设计环节其他主体无法影响。因此,应改造产品责任制度以规制人工智能侵权,在产品质量标准中加入伦理道德规范,对人工智能产品设计缺陷实行举证责任倒置,将设计者增加为独立的产品责任主体。鉴于人工智能的智慧化发展方向,产品责任规制人工智能侵权也具有权宜性,未来人工智能相关立法不仅要控制风险、救济损失、保障人工智能科技创新的积极性,同时还要为将来具有自我管理能力的人工智能发展为独立法律主体并自行担责留下空间。

关键词


人工智能;侵权;产品责任;立法改造;规制路径



人工智能的广泛应用深刻改变了我们的生产生活方式,智能机器人担纲主持、自动汽车实现无人驾驶、“阿尔法狗”战胜世界围棋冠军等,都表明人工智能可达到的技术水平和高度不可估量。然而随着人工智能的普及,其脆弱性也逐渐暴露,人工智能的潜在风险频频致人损害,由此也带来一系列棘手的法律问题。自动运行的智能机器人失控而致损第三人是谁的过错?无人驾驶汽车发生交通事故侵权由谁来负责?人工智能侵权适用何种归责原则?已有的侵权责任规则能否有效规制人工智能侵权?学界对此众说纷纭,并无定论。解决人工智能侵权的责任问题,首先要明确人工智能是什么,究竟是人类制造的产品还是具有人格属性的一种实体;其次,人工智能侵权有何特殊性,人工智能侵权的出现是否颠覆了现有法律体系,现有法律体系应该如何主动适应未来人工智能发展?本文将从这些问题出发,探讨人工智能侵权的立法规制路径。


一、人工智能侵权对侵权责任法的挑战及其规制路径


人工智能侵权一般是指应用人工智能技术的终端设施侵害他人权益造成损害的情形。如果是行为人控制、指令、利用人工智能实施侵害,此时人工智能就成为行为人侵权时的作案工具,侵权主体是行为人,这与传统侵权行为没有区别,适用传统侵权责任规则就可以解决,故不在本文研讨范畴。人工智能侵权的常见情形是人工智能自身在没有外来干扰的情况下致人损害,这可能源于人工智能设计、编程的漏洞和缺陷,也可能源于控制系统损坏或运行设备的物理损坏等,对此应如何确定侵权责任?在传统一般侵权责任规则下,侵权人的过错是其承担侵权责任的必备要件,无过错即无责任,这是为了在一定程度上保护行为人的行为自由。但人工智能在运行过程中处于自主、自动状态,比如谷歌的概念车就已经完全取消了方向盘、刹车等干预装置,此时如果发生侵权事故,判断谁有过错进而确定责任人就成为难题。人工智能是按照人类设计的既定程序运行的,现行法律也没有针对人工智能规定注意义务,因此无法判定人工智能有过错;人工智能的管理人、使用人、所有人既没有实施导致损害发生的行为,也无法避免或阻止人工智能侵权的发生,比如自动汽车内的人纯粹是乘客而不是司机,更是不能判定他们存在过错。总之,在一般过错侵权责任规则下解决人工智能侵权责任问题存在困难。

      人工智能侵权如果不能适用一般侵权责任规则,那么依据现有的其他侵权法规则和理论能否解决其侵权责任问题?人工智能的潜在风险很难控制,有时会做出与设计者初衷不同的决策,尤其是人工智能在经历自主学习之后,其决策体系越来越倾向于发展成为一个“黑箱”[1]。从这方面而言,人工智能侵权更像是高度危险作业,可以适用高度危险责任。在高度危险作业情况下,当事人应当对高度危险作业引发的损害承担无过错侵权责任,立法目的是督促当事人尽力防范、避免损害的发生。但“高度危险责任的责任人限于为营业目的而从事高度危险作业之人”[2],而此时人工智能的使用人或者营业人事实上都无法控制人工智能,人工智能有自己独立的判断系统,即便让人工智能的使用人、营业人承担责任,也无法起到防范、减少这类侵权发生的作用。因此,高度危险责任不适用于人工智能侵权。有学者提出,人工智能与其管理人之间的关系类似于代理人与被代理人,可以用代理人责任来解决其侵权责任承担问题,代理人的行为后果由管理人负责[3]。还有学者提出,可适用雇主责任解决人工智能侵权问题,如果管理人有“过错”,则应当对人工智能侵权行为承担“替代责任”,类似于雇佣关系中的雇主为雇员的职务行为承担责任[4]。但代理人责任和雇主责任适用的前提都是代理人、雇佣人是独立的主体,有独立人格和独立利益,人工智能肯定没有独立的利益,至于有无独立的人格尚存在巨大争议,而且管理人不会向人工智能支付代理费、雇佣报酬,因此将人工智能推定为独立的代理人、雇佣人过于牵强。我国已有学者注意到人工智能侵权的特殊性,并认为现有的侵权法不足以解决人工智能带来的问题[1]。

      鉴于传统侵权法规则和理论无法较好解决人工智能致损侵权责任问题,一些学者提出,在传统法律视野下将人工智能视为物已不能解决其侵权问题,人工智能与传统机器的区别在于其具有“人”的自主性,赋予其民事主体地位并自行担责是大势所趋。有学者认为,人工智能应该具有类似于企业法人的法律人格[5];也有学者认为,人工智能应当具有法律人格,但是属于有限的法律人格[6],其权利义务应当限制在法律规定的范围内;还有学者则强调人工智能具有财产方面的意思能力,应以财产性人格的进路将其拟制为电子法人[7]。尽管学界关于如何赋予人工智能法律人格还存在争议,但不少学者倾向于在确定人工智能民事主体地位的前提下解决现有法律难题,比如在承认未来人工智能能够自主决策、享有权利的前提下,可以要求其承担法律责任,“正如人类要为自己的行为付出代价一样,人工智能也是如此,并不因为人工智能并非人类就可以逃脱法律制裁”[6]。

      如果将人工智能视为民事主体而不是物,就需要打破原有民法规则,这样做目前是否具有可行性呢?首先,从立法技术上看,法律调整民事主体最终是调整其行为并影响其决策机制,但目前人工智能仍是由一系列人类设计的算法来操控的,不会产生自己独立的意志,且人工智能不可能对人类制定的法律产生敬畏意识,法律也无法直接调整人工智能的运行决策程序。其次,从立法效果上看,人工智能自身就是一种人类创造的财产,自己没有独立的财产,让其承担民事责任将面临无法执行的困境。即使为其设立类似基金的财产,其背后出资、管控的还是人类,因而没有实际意义。因此,就现阶段来看,并没有将人工智能作为独立民事主体调整的基础和必要性。正如有学者指出的,“面对人工智能技术的发展,用现行民法的基本理念和基本规则进行适当调整,就能够解决其所带来的问题。”[8]人工智能虽然具有智慧,但其智慧是人类设计的算法赋予的。人工智能目前只是人类的工具,没有超越人类视野下“物”的范畴,人工智能应被置于人类的控制下,应将其作为法律关系的客体而非主体[9]。不过人工智能的“智力”发展不可限量,未来人工智能很可能会具有超越人类、不受人类控制的思维判断和行动能力,他们可能会比人类更好地控制、管理自己,人工智能运作模式有可能由人工智能自己依据社会需要来进行设置,此时也就无法用人类固有的法律规则来调整它了。但在目前人工智能被人类支配的状况下,还不存在让人工智能作为独立民事主体、独立担任社会角色、独立发挥社会功能的需要,我国现行立法也没有赋予人工智能以民事主体地位。因此,对于人工智能侵权的规制,还要从人工智能“物”的属性出发以确定解决方案。

二、产品责任制度规制人工智能侵权的相对合理性


人工智能一般是指研究、开发用于模拟、延伸和扩展人的智能的理论、方法技术及应用系统的一门新的技术科学。人工智能最大的特殊性是其可以像人一样独立判断和决策。但现阶段的人工智能没有类似人类的社会关系和社会地位,在人工智能取得独立民事主体地位之前,人工智能在本质上只能是具有特殊功能的产品,人工智能的这种属性决定了修改现行产品责任制度以解决人工智能致损侵权责任具有必要性和可能性。我国《产品质量法》第2条规定,本法所称产品是指经过加工、制作,用于销售的产品。人工智能是经过加工制作出来的,其被生产出来的目的是参与流通即销售,从这一点来看,人工智能属于产品的范畴,接受产品责任制度的调整在现阶段具有相对合理性。与此同时,在人工智能具有自我管理的能力和机会之前,人工智能的侵权风险也只有通过产品责任规制生产设计行为才能得以良好控制。侵权责任法的制度功能一方面是补偿受害人的损失,另一方面则是通过责任分配,课以当事人相应的注意义务,减少或者避免损害的发生。比如高度危险作业致人损害的情况下,适用无过错责任就是为了激发行为人投入适当的成本预防损害的发生[10]。同样,在人工智能侵权场合确定责任人,不仅涉及对受害者的赔偿,还涉及防范致损事件发生义务的分配问题。产品责任具有规制生产行为的作用[11],通过产品责任制度方能促进生产者、设计者尽力改进人工智能运行程序、严格生产规范,保障人工智能产品的安全。致损事实发生后,如果需要对侵权的人工智能进行召回、修理或者更换,这些法律后果都要通过产品责任制度才能实现。当然,人工智能与一般产品具有根本不同的发展倾向,随着科技进步,人工智能不仅能够模拟人的智能,其强大的计算功能还会使得其超越人类、在某些方面取代人类成为必然的结果,人工智能普及所带来的失业潮就是一个例证。另一方面,人工智能具有的通过学习而增长智力、能够自我决策等特性使得在未来无法仅仅将其视为人类可以随意控制的工具,人工智能完全可以产生自我意识、熟悉和遵守人类社会规则或者建立自己的行为准则。人工智能的一个里程碑式事件是机器人“索菲亚”取得沙特阿拉伯国籍,这使得“索菲亚”具有了享有公民权利、履行公民义务的机会和资格,这也说明将来人工智能取得法律主体身份并非不可能。基于人工智能发展的不可限定性,产品责任规制人工智能侵权只是权宜方案,其合理性也是在一定时代背景下而言的。

      但无论如何,从现行法律规则适用的技术上看,产品责任制度规制人工智能侵权具有多方面的可行性:第一,产品责任的无过错责任归责原则,可以督促生产者尽最大努力保证人工智能这一产品的安全,杜绝人工智能产品设计上的瑕疵和盲目生产行为。有学者以自动驾驶汽车为例,指出在无人驾驶情况下系统的可靠性至关重要,让生产者对系统安全性问题承担产品质量责任具有合理性[12]。第二,一般产品缺陷包括设计缺陷、制造缺陷和警示缺陷3类,人工智能产品的缺陷也可以按照这种方式划分,比如智能机器人不按照输入的指示运行属于设计缺陷,智能机器人电池漏电属于制造缺陷,没有合理告知消费者操作注意事项则属于警示缺陷。人工智能在自动运行时侵权,基本上就是由设计缺陷、制造缺陷和警示缺陷这3类原因造成的,可以适用产品缺陷致损责任规则。反之,如果不是人工智能的缺陷造成侵权,而是用户自身的问题,则适用传统侵权责任规则就可以解决。第三,产品责任制度的责任承担方式适用于人工智能侵权。我国立法规定的产品责任承担方式包括排除妨碍、消除危险、赔偿损失,以及对产品缺陷的补救方式如警示、召回等,都可以适用于人工智能侵权场合。比如产品召回制度可以及早去除危险,避免损害进一步扩大,更有利于保护消费者。人工智能产品在设计方面的缺陷,有时只有在使用之后才能得以透彻认识,因此将召回制度用于人工智能缺陷产品具有合理性。第四,产品责任制度的抗辩事由也适用于人工智能致损侵权。我国《产品责任法》第41条规定了生产者的免责事由,包括未将产品投入流通;产品投入流通时,引起损害的缺陷尚不存在;将产品投入流通时的科学技术水平尚不能发现缺陷的存在。这类抗辩事由也适用于人工智能产品责任场合,能够保障产品生产、行业发展的积极性,在一定程度上鼓励科技创新。当然,责任者如果以尚不能发现缺陷的存在为由进行抗辩是非常不容易的,只要这种缺陷是现有技术水平能够识别、能够事先预判的风险,不管能不能控制和避免,责任者都需要负责。人工智能具有学习能力,可能基于学习产生了之前没有的缺陷,但这是设计时就可以预料到的问题,所以不能以此为由免责。

三、产品责任制度规制人工智能侵权不可回避的偏差


虽然人工智能是一种产品,但它与以往人类生产的所有产品都存在巨大不同,其具有类似甚至超越人类的智能,在许多场合可以直接取代人类的工作。按照目前的发展趋势,人工智能具有获得脱离人类控制的独立自主能力的倾向,人工智能的高度自主性、复杂性非一般产品可以比拟。一般产品都是在人的操作下发挥产品功能,但人工智能发挥功能并不需要人的操作。这些特殊性决定了建立在传统产品基础之上的产品责任制度在面临人工智能侵权时,不可避免会存在制度上的不足和调整上的偏差,主要表现为以下几个方面。


(一)产品责任中产品缺陷判断标准的偏差


      产品存在缺陷是适用产品责任的前提,按照我国《产品质量法》和《侵权责任法》的规定,产品缺陷的判断标准分为两种,即产品存在危及人身、财产安全的不合理危险,或产品达不到国家或者行业规定的标准。现阶段我国还未制定人工智能产品的国家、行业标准,目前对产品存在的危险是否合理的判断,考虑的因素都与产品质量标准相关。产品质量标准包括技术标准和管理标准两个方面,主要是从产品的物理性能、使用性能上分析产品状况,丝毫不涉及社会道德伦理问题,这对于判断人工智能的某些仪器设备是否存在缺陷具有适用性,比如判断人工智能传感器是否正常、自动驾驶汽车的轮胎是否有缺陷等,都完全适用。但人工智能在使用过程中会出现大量自主决策的过程,而这些思考、选择和决策原本可能是需要人类做出的,这导致人工智能很多时候会像人类一样陷入道德选择困境,这是人工智能作为人类工作替代物面临的最大问题。正如学者指出的,自动驾驶汽车的算法也可能需要面对伦理上的挑战[13]。例如在发生事故时自动驾驶汽车是应该严格遵守交通规则还是优先保护人类?一辆自动驾驶汽车在行进过程中面对突然从路边跑过来的小孩,需要在双黄线上转弯以避免撞到小孩,但这可能违反交通规则,此时就需要做出抉择。实践中已出现类似的事例,微软推出的智能聊天机器人Tay上线 24 小时即在与人的交流过程中,因学“坏”而成为满嘴脏话的“不良少女”,被紧急下线[14],这不啻为一记警钟。其实早在2015年,霍金就发出过警告,超级聪明的人工智能可以非常容易地实现它的目标,但如果这些目标与人类的不一致,就会产生麻烦[15]。是否应该为产品性能设置伦理边界,这是以往产品制度中从来不需要考虑的问题,但如果不在人工智能的程序设计上加入伦理规范要求,以保证其行为和决策不违背人类的伦理道德规范底线,那么人工智能带给我们的可能不仅仅是便捷,还有其做出有悖社会伦理的决策之后所带来的无穷无尽的麻烦。


(二)产品责任中举证责任分配的偏差


      一般来说,受害者主张产品责任成立时,应当对人工智能产品存在缺陷、受损事实以及缺陷与损害事实之间存在因果关系进行举证。产品缺陷有设计缺陷、制造缺陷和警示缺陷,对于制造、警示方面的缺陷,判定相对简单,举证也不困难,比如自动驾驶汽车的制动装置是否符合质量标准、责任人是否合理提醒了人工智能的正确使用方法及使用中的风险等,对此只需要按照一般产品缺陷的判断标准进行举证、确认即可。但人工智能设计上的缺陷,属于运算程序方面的瑕疵,需要认识其内部系统工作原理,从而指出算法存在的缺陷,这是一般人无法完成、甚至该领域专业人士也难以完成的证明。人类每做出一项决策都会有自己的理由,然而人工智能自主做出的决策,人类是很难解释其决策理由的。对于具有学习能力的高度自主性的人工智能来说,随着系统自身经验的增加,其行为、决策的推理过程连设计者本身有时也无法完全还原。在计算分析能力上,人脑和这些人工智能比起来逊色很多,要想通过系统运行证明其设计上的缺陷困难重重。即便通过专业人士证明了存在设计缺陷,法官等法律工作者如何对此达成共识也是一个难题。所以如果采用一般产品责任的举证规则,人工智能侵权中受害人的损失就难以得到救济。


(三)产品责任中责任主体范畴的偏差


      按照我国《侵权责任法》和《产品质量法》的规定,在适用产品责任时,受害人可以向产品的生产者请求赔偿,也可以向产品的销售者请求赔偿,但人工智能的设计者和生产者往往不是同一主体,设计缺陷不能由生产者买单。人工智能运行系统十分复杂,即使是专业人士也难以完全明晰其运算过程和机理,非专业设计者更是无法控制其运行风险,因此人工智能的研发设计环节有很强的专业性,不是所有生产人工智能产品的市场主体都具有研发设计人工智能产品的能力。为了分散研发失败的市场风险,人工智能设计者和生产者在很多场合都是独立的市场主体,如北京中关村就集中了一批专门从事人工智能研发的高科技企业。实践中,许多人工智能致损都是设计方面的缺陷造成的。比如自动驾驶汽车学习了漂移技术而通过漂移停车造成事故,但该技术本身是不允许人工智能学习的,这种情形仍然是设计中的漏洞,应由人工智能的设计者来承担责任。人工智能产品的运行程序是设计者决定的,在人工智能进入流通领域之后,生产者也无法控制人工智能系统会做出什么样的决策。有学者指出,高度自主的人工智能可能会打破预先设定的算法,这种偏离预期的行为与生产者无关,要求生产者承担责任缺乏说服力[16]。另外,人工智能产品很多时候是给用户之外的主体造成损害,比如无人配送车将第三人撞伤,作为第三人的受害人显然无法便捷、准确地确定产品责任的生产者、销售者等主体,如何确定被告信息成为难题。这些问题都有待于通过改造人工智能致损的产品责任制度来解决。

四、产品责任制度规制人工智能侵权的立法改造


人工智能产品缺陷的判断标准、举证难度、责任主体等与一般产品存在明显不同,解决人工智能侵权,需要改造现行产品责任制度。


(一)产品缺陷判断加入伦理道德规范标准


      人工智能可以像人一样思考、选择和决策,人工智能的最高理想是代替用户决策,比如在人工智能医疗领域,“人工智能决策—医生验证复查”的模式就将成为常态[17]。但人工智能不具有人类所独有的道德情感以及是非善恶意识,这又使得人工智能具有很多危险性。霍金就曾指出:“成功地创造出人工智能是人类伟大的进步。但,这极有可能是人类文明最后的进步。”[18]“人类的最高目标是人类的全面发展,技术只是为这个目标服务的手段。”[19]人工智能作为影响整个人类发展的高科技产品,为其设置伦理道德底线以从整体上把控这一领域的发展方向十分必要。比如智能主播在阅读资料时看到人类的欺诈案例,对其加以学习运用进而出现欺诈听众的情形,就是不应该发生的现象,要从设计上予以杜绝。总之,从一开始就应该为人工智能的研发设置伦理边界。2018年12月欧盟人工智能高级别专家组发布了一份人工智能道德准则草案,并于2019年4月发布了正式生效文本,为推动人工智能技术合乎道德要求提供了具有操作性的指导标准,这是值得借鉴的做法。今后立法应当明确,人工智能产品质量标准应加入伦理道德规范。伦理道德规范标准可由人工智能监管部门牵头制定,具体内容应包括:人工智能的决策应遵守法律法规,尊重他人权利,认同社会核心价值观和伦理道德原则等。如果人工智能决策系统不能避免人工智能出现违反伦理道德规范的行为,应视为存在产品设计缺陷。除伦理道德规范标准外,产品设计方面的法律标准是毋庸置疑的,人工智能决策出现违反法律情形的,当然属于设计上的重大缺陷。


(二)产品设计缺陷实行举证责任倒置


      在“谁主张、谁举证”的举证责任分配原则下,如果要求受害人证明人工智能设计存在缺陷,如何证明、甚至如何判断其完成了证明都存在困难。在人工智能产品责任场合,原告和被告的举证能力是不同的,这源于当事人各方与证据的距离不同、信息与技术不对称,以及人工智能本身运行决策过程难以还原等因素。在由原告举证产品设计缺陷的情况下,由于人工智能产品的设计者、生产者处于优势,败诉概率极低,此时设计者、生产者的理性策略即为实施投机行为,减少风险预防成本,从而获得更高的净收益,但这是产品责任制度适用时不希望出现的社会后果。人工智能算法中的规则是由设计者、生产者设定的,相对于消费者,他们对最终出现的风险的预见和控制程度也更高。因此,有必要对人工智能产品是否存在设计缺陷实行举证责任倒置,即由产品责任的被告证明产品设计符合产品责任法的要求,这能够促使他们采取措施避免产品致损事件的发生。未来在人工智能产品致损案件中,只要受害人证明了自己因人工智能受到了损害,人工智能产品侵权责任的被告就应当针对人工智能不存在设计缺陷或设计缺陷与损害之间不存在因果关系承担举证责任。如果被告不能证明其人工智能产品设计不存在缺陷,或缺陷与损害事实的发生没有因果关系,就应承担产品责任。


(三)增加人工智能产品责任的责任主体


      人工智能产品的设计者和生产者不是同一主体时,有必要把设计者纳入产品责任主体范畴。人工智能生产者无法控制产品设计上的风险和缺陷,因此设计者应纳入侵权责任主体与生产者一道承担无过错的产品责任,无过错责任可以督促设计者最大化地保障人工智能设计方面的安全性。为了保障被侵权人求偿权的实现,受害人应当可以向人工智能产品的设计者、生产者、销售者任一主体求偿。依据我国产品责任制度中的追偿制度,责任主体承担赔偿之后,可以向最终造成产品缺陷的主体追偿。当然,如果因为第三者对人工智能的系统进行破坏,导致出现程序错误、系统紊乱而发生致损后果,比如黑客攻击了无人驾驶汽车系统导致发生交通事故,则黑客作为第三人应是最终责任人。针对人工智能产品对第三人侵权时,第三人难以确定人工智能产品设计者、生产者、销售者的问题,应规定人工智能的管理人(一般是人工智能产品的用户包括人工智能产品的所有人、使用人等)负有指明产品的生产者、设计者、销售者的义务。人工智能管理者是使用人工智能的受益者,相对于第三人也更了解人工智能的生产者、设计者和销售者,应该承担此义务。人工智能的管理人如果不能指明人工智能致损产品的生产者、设计者、销售者,则应当承担产品致损的赔偿责任。

      另外,如前所述,人工智能在自动运行时,可能见不到人类的操作,发生致损事件后如何确定、找寻背后的责任人是一个现实难题。除了规定人工智能管理者负有指明产品生产者、设计者、销售者的义务之外,还有必要借鉴已有的动产登记制度,建立人工智能产品登记制度,要求人工智能上市交易前在监管部门强制登记。我国建立了多个类型的动产登记制度,但目前并没有确定动产登记的统一受理机构。人工智能虽种类繁多,跨越多个行业和产业领域,但技术监管是核心,因此可以由科技部牵头,成立人工智能的专门监管部门作为其登记机构。人工智能产品登记可以有两方面的作用:第一,便于确定产品责任的赔偿主体。在人工智能投入市场交易前,可以要求登记其产品设计者和生产者信息,获得产品编号并标注于产品之上。人工智能的销售者和用户因过于分散及变更频繁,考虑到工作量过大可暂不纳入登记范畴。登记制度的追溯功能,可以便利受害人准确地确定人工智能产品设计者和生产者进而对其提出赔偿要求;第二,便于查清产品责任的最终责任主体。监管部门要牵头制定人工智能产品质量的国家和行业标准,新类型的人工智能产品进入市场前进行登记时,监管部门要对人工智能技术指标是否符合质量标准进行审查。人工智能产品登记时要同时提供设计、生产技术指标进行备注登记。这样,一方面登记部门可以依据国家和行业标准进行审查,防止不合格产品进入市场;另一方面,如果人工智能产品出现致损侵权,可以倒查是哪一环节出现问题,便于查明产品缺陷,也便于在人工智能产品设计者、生产者、销售者承担责任后,向造成产品缺陷的主体也就是最终的责任主体进行追偿。人工智能产品登记制度可以先由主管部门起草部门规章予以探索。

五、立法建议与展望


截至目前,我们可以在不颠覆现有法律体系的情况下规制人工智能侵权,在充分关注人工智能特殊性的前提下,改进产品责任制度以约束人工智能的设计与生产行为。我国可以在《侵权责任法》或《产品责任法》中专项规定人工智能致损产品责任的特殊规则。本文建议的条文草稿为:因人工智能产品存在缺陷造成他人损害的,受害人可以向产品的生产者、设计者、销售者要求赔偿;产品的生产者、设计者、销售者赔偿后可以向造成产品缺陷的主体追偿。人工智能产品造成他人损害的,设计者应对产品是否存在设计缺陷承担举证责任;如果人工智能产品决策违反社会伦理道德的,视为存在产品设计缺陷。人工智能产品存在缺陷造成第三人损害,人工智能管理人不能指明致损产品的生产者、设计者、销售者的,应当承担赔偿责任。

      人工智能给人们带来了诸多便利,带动了交通、医疗、生物、服务等各个领域的快速发展,因此人工智能的相关立法不仅要控制风险、救济损失,还要保障人工智能科技创新的积极性。为避免对产品责任的严格规制压制人工智能新技术研发的积极性,今后还要尝试建立强制性的人工智能产品责任险,让设计者、生产者以较小的成本获得共担风险的机会。人工智能作为新兴技术,一些技术风险和漏洞是无法完全避免的,因此立法可以参考机动车强制险的模式,强制要求人工智能的设计者、生产者购买产品责任险。在发生人工智能致损事故后,由承保的保险公司先行赔付受害人,不足部分再由产品责任人赔偿。保险制度的损失分摊功能,可以让人工智能的设计者、生产者以较小的成本分担赔偿责任支出,从而让其放心创新;保险制度的防灾防损功能,即保险人通过提供损失管理服务来帮助被保险人对潜在的损失风险进行预测、统计分析与评估的功能,还可以促使人工智能设计者、生产者采取合理措施降低、消除产品风险。

      需要说明的是,人工智能的蓬勃发展势不可挡,随着大数据、云计算、物联网等信息技术的发展,未来将是人工智能的大跃进时期,这些智商超群的人工智能在既能独立决策、独立行动,也能独立创造社会财富并进行管理之后,很可能具备主体意识进而对其权利义务提出要求,彼时可能就需要考虑让其“自我”管理,用自己创造的财产自行解决其侵权问题。在“法律人”与“生物人”分离的立法技术下,或许赋予人工智能独立人格,才能更好地对高智慧的人工智能进行激励、约束或控制。总之,未来立法要为具有自我管理能力的人工智能发展为独立民事主体留下空间,到那时,依据独立主体责任自负的规则,产品责任制度也就不需要再充当调整人工智能侵权的手段了。


【参考文献】

[1] 司晓,曹建峰.论人工智能的民事责任:以自动驾驶汽车和智能机器人为切入点[J].法律科学(西北政法大学学报),2017,(5):166-173.

[2] 唐超.论高度危险责任的构成——《侵权责任法》第69条的理解与适用[J].北方法学,2017,(4):81-95.

[3] 张建文.格里申法案的贡献与局限——俄罗斯首部机器人法草案述评[J].华东政法大学学报,2018,(2):32-41.

[4] 吴汉东,张平,张晓津.人工智能对知识产权法律保护的挑战[J].中国法律评论,2018,(2):1-24.

[5] Davies C.R.An Evolutionary Step in Intellectual Property Rights-Artificial Intelligence and Intellectual Property[J].Computer Law & Security Review,2011,27(6):601-619.

[6] 袁曾.人工智能有限法律人格审视[J].东方法学,2017,(5):50-57.

[7] 张志坚.论人工智能的电子法人地位[J].现代法学,2019,(5):75-88.

[8] 杨立新.用现行民法规则解决人工智能法律调整问题的尝试[J].中州学刊.2018,(7):40-49.

[9] 刘洪华.论人工智能的法律地位[J].政治与法律,2019,(1):11-21.

[10] 魏振瀛.民法学[M].北京:高等教育出版社,2013.715.

[11] 刘洪华.人工智能法律主体资格的否定及其法律规制构想[J].北方法学.2019,(4):56-66.

[12] Tom Michael Gasser. Legal Issues of Driver Assistance Systems and Autonomous Driving[A].Azim Eskandarian ( Ed).Handbook of Intelligent Vehicles[M].London:Spring-er,2012.1519-1535.

[13] Jeffery K.Gurney. Crashing into the Unknown: An Examination of Crash -Optimization Algorithms through the Two Lanes of Ethics and Law [J].Albany Law Revie-w,2015,(1):183-267.

[14] 郭爽.微软聊天机器人被教坏 变身满嘴脏话“不良少女”[EB/OL].http://it.people.com.cn/n1/2016/0404/c1009-28248123.html,2020-1-4.

[15] 黄志澄.如何看待霍金对人工智能的警告[N].中国青年报,2017-06-05(002).

[16] Susanne Beck. The Problem of Ascribing Legal Responsibility in the Case of Robotics[J].AI & Society,2016,31:473-481

[17] 李润生,史飚.人工智能视野下医疗损害责任规则的适用和嬗变[J].深圳大学学报(人文社会科学版),2019,(6):91-99.

[18] (法)吕克·费希.超人类革命[M]. 周行译.长沙:湖南科学技术出版社, 2017.153.

[19] 林德宏.科技哲学十五讲[M].北京:北京大学出版社,2004.280.

欢 迎 关 注 本 微 信 公 众 号

《深圳大学学报》(人文社会科学版)

唯一官方微信平台

联系电话:0755-26534976

投稿邮箱:sdxb@szu.edu.cn

官方网站:http://xb.szu.edu.cn

国内统一刊号:CN44—1030/C

版权所有

欢迎个人转发,媒体转载请联系授权

(文中插图未经注明均来自网络)

深大社科学报









继续滑动看下一个

您可能也对以下帖子感兴趣

文章有问题?点此查看未经处理的缓存