收藏 分享(赏)

博士学位论文-人工智能产品致人损害民事责任研究.doc

上传人:生活太好了 文档编号:1438427 上传时间:2018-07-17 格式:DOC 页数:33 大小:67KB
下载 相关 举报
博士学位论文-人工智能产品致人损害民事责任研究.doc_第1页
第1页 / 共33页
博士学位论文-人工智能产品致人损害民事责任研究.doc_第2页
第2页 / 共33页
亲,该文档总共33页,到这儿已超出免费预览范围,如果喜欢就下载吧!
资源描述

1、1博 士 学 位 论 文 -人 工 智 能 产 品 致 人 损 害 民 事 责任 研 究人工智能技术现已广泛应用到各个行业。人工智能具有显著的拟人特征,这导致智能机器人、自动驾驶汽车等人工智能产品致人损害的民事责任认定及承担面临若干法律疑难,包括人工智能产品能否成为独立责任主体、过错责任原则难以适用、侵害事实与因果关系查明困难等,这些是我国传统民事责任制度没有预料与考虑的新问题。美国、德国及欧盟近年来已涉足人工智能民事责任相关探讨及立法尝试。参考这些国家的经验与不足,考虑到人工智能的技术属性,虽然人工智能产品不宜成为独立的责任主体,但仍需要建立专门的伦理准则、登记公示制度与召回处置机制,确立生

2、产者、销售者与使用者之间差异化的归责原则,并侧重强调生产者的举证责任,以及在保护隐私权的前提下记录并保存侵害原由与过程的电子数据。现今,人工智能技术现已广泛应用到物流、交通、运输、医疗、制造、服务等各个行业,它在未来必然更加普及,也不可避免地对人类造成伤害。例如:日2本早在 20 世纪 80 年代就发生了工业机器人压死工人的事故;美国食品药品监督管理局则在 2007 年收到了 200 余次投诉,指控医疗外科手术机器人导致病人遭受烧伤、切割伤与感染,甚至造成 89 例死亡事故;可预见到,自动驾驶汽车、物流或制造作业机器人也必然会发生交通肇事或者生产事故,损害人类的生命健康、财产安全。随着人工智能

3、的迅速推广,此类侵害现象将持续增多,引起有关民事责任认定与承担的一系列问题。然而,人工智能系统是一种新兴的现象,它具备高度的行为自主性与独立性,能够完成自我学习与调整,甚至脱离了人类控制,这导致由它实施的侵害呈现显著的拟人性、复杂性、特异性,进而引起传统民事责任法律制度能否适用、如何适用的担忧和困惑。鉴于此,笔者尝试结合人工智能的技术特性,分析传统民事责任制度调整人工智能侵害现象的局限与困境,并探究国外做法的经验与不足,在此基础上,提出我国人工智能民事责任制度构建相关对策建议。一、传统民事责任制度适用人工智能的困境人工智能所涉及的民事责任通常表现为,智能机器人、自动驾驶汽车等人工智能产品侵害人

4、身或财产而引起的侵权责任。对此,现行法律制度能否予以有3效规制?进一步而言,这种侵害是否存在某些特殊的特征,不宜适用传统的民事责任制度?这是人工智能技术应用无法回避的现实问题。以往,人们一般将人工智能与人形机器人联系起来,初级阶段的人工智能研究也的确侧重于机器人对人脑的模拟效果等宏观问题,忽视了人工智能的实际应用。然而,在互联网技术高度发达的今天,人工智能不再局限于创造一个拥有人脑效果的完美机器人,而是依托算法、数据处理技术,由机器人自主独立地搜集、分析、筛选与预测浩如烟海的数据,并通过互联网控制下的分布式传感设置实现数据的实时更新,持续传输至“大脑”,按照算法做出进一步的优化选择、调整、决策

5、或者指令,最终让机器人实施具体行动。胡凌:人工智能的法律想象,文化纵横2017 年第 2 期。通过上述技术,人工智能得以实际应用于社会生产、经营及生活。例如,“物联网”是人工智能应用于物流供应链的生动体现,也是当代物流行业转型发展的共同目标。它使用智能机器人、无人车、无人船、无人仓与数据系统,能够自动完成运输、搬运、拣货、装卸、信息处理等一系列无人化作业,并且在集装箱、快件或包裹等货物包装上安置统一标准的电子标识,通过射频识别系统、全球定位系统等传感工具直接扫描电子标4签、采集货物信息并且上传互联网,由数据系统对货物信息完成集中、全程、实时、高效的采集、定位、跟踪与更新,黄玉兰:物联网射频识别

6、(RFID) 核心技术详解(第 2 版),人民邮电出版社 2012 年版,第 3 页。并根据这些信息做出进一步分析判断,发出指令以合理配置物流资源、优化物流过程,从而实现提升效率、降低成本。基于上述分析,人工智能的特殊表征可总结为非常复杂的“擬人属性”,这种属性具体表现为几方面:其一,它拥有外在可见的物理形体,这是人工智能影响外界的直接载体。其二,它依托算法、代码及信息传感技术,拥有海量数据的采集、分析、交换、更新与处理能力,几乎不受任何的人类外部控制,表现出高度的自主性或独立性。其三,它以大数据、算法、机器学习、神经网络等技术为主导,可独立从外部世界发现并汲取新的知识,完成人工智能系统自身的

7、持续学习、积累与提升,完成源源不断的“深度学习”过程,James Hendler,Alice M. Mulvehill, Social Machine:The Coming Collision of Artificial Intelligence, Social Networking, and Humanity, APress,2016,p.101.并且实现自我调整以适应环境的变化。因此,人工智能可视为以算法5为主导的硬件处理系统,它并非简单替代人力劳动,已不能等同于纯粹供人类操纵的工具。因此,对于人工智能侵害的民事责任,也不宜简单适用传统民事责任制度的处理原则,而应当结合人工智能的拟人属性,

8、予以特殊的综合考量。(一)责任主体构成的疑惑究竟由谁承担人工智能产品致人损害的民事责任?按照侵权责任法、产品质量法的调整规则,人工智能产品的生产者、销售者可按照产品质量法承担产品缺陷致人损害的赔偿责任,使用者也可承担使用不当导致的侵权责任。然而,依托高科技的人工智能产品具备高度自主的分析处理能力,并且拥有人类无法企及的超强认知能力,即能够对自我技能、行为准则产生特定的认识与遵守,它们跟人类大脑的差距愈加缩短,甚至具备情感之外几乎全部的人脑功能,从这一角度考量,人工智能产品的行为似乎可理解为自身独立实施。由此引起的疑问是,可否将人工智能产品直接确定为侵权责任主体?这直接关乎赋予它们以独立法律人格

9、有无必要、是否可行的问题。毋庸置疑,这对传统法学理念提出了重大挑战。依据传统民法理论,法律关系主体与客体之间存在不可逾越的“鸿沟”,只有两类形态能取得法律关6系的主体资格或人格,其一是自然人,其二是作为自然人集合的法人或其他组织,无精神意志之物不应成为主体,只能视为法律关系的客体。然而,在人工智能背景下,上述观点正遭受不断冲击,实际上,呼吁赋予高度自主的人工智能产品以拟制人格的主张已屡见不鲜。有学者主张,民事法律关系主体所提及的“人格”是非常抽象的概念,评判可否取得人格的依据应为赋予其“权利能力”的必要性,由此方能揭示法律关系主体及人格的内在实质,进而划分出法律关系主体与客体之间的清晰边界。日

10、北川善太郎:日本民法体系,李毅多译,科学出版社 1995 年版,第 56 页。以法人为例,虽然它并不拥有精神意志,但作为众多自然人的集合,能够基于自然人(股东及管理人员)之共同意思而实施法律行为,产生相应的权利、义务及责任等法律效果,并将这些效果最终归于自身,因此法人取得“权利能力”具备充分的理由,各国立法也几乎均赋予了法人以拟制人格。对此,国内也有论者指出:“人工智能具有独立自主的行为能力,有资格享有法律权利并承担义务,人工智能应当具有法律人格。”袁曾:人工智能有限法律人格审视,东方法学2017 年第 5 期。按照上述观点,法律关系主体与客体的区分依据并非局限于7是否拥有生命、是否拥有独立意

11、志,而是应当将重点放在衡量有无必要赋予主体资格使其享有权利能力,如法人拥有拟制人格那般,赋予人工智能产品以拟制人格并非不可。在现有技术条件下,人工智能产品可以自己的“大脑”(人工智能系统)分析信息、做出判断并发出侵害人身或财产的指令,当然,这一指令既可能源自人工智能系统为完成预设工作任务而排除妨碍的明确意图,也可能源自人工智能系统存在没有料到该指令将造成侵害的漏洞。该指令可通过“神经网络”(如液压装置、电子线路)操纵“器官”(例如各类机械或装置)对人身或财产实施伤害。此时,可能引起法律意义的侵权关系,似乎可将责任后果直接归于自身。然而,人工智能产品并非自然人的集合,而是生产者、使用者实现某一生

12、产经营目标的工具,它是基于生产者、使用者的意思或指令而實施行为,因而可理解为它担当了“无辜代理人”的角色Lawrence B. Solum, “Legal Personhood for Artificial Intelligences”, 70 N.C. L. REV. 1992, p. 1231.,进而基于替代关系而将法律效果归于背后的生产者或使用者,该情形实际上已不再考虑人工智能产品的拟人属性。总之,问题在于,有无必要或理由赋予人工智能产品以承担侵权责任的独立8人格?如果不赋予,如何解决人工智能产品所拥有高度自主性之特殊现象及后果?针对这些法律与道德交叉、避无可避、亟待解决的前沿问题,我国

13、学界、立法及司法领域尚未达成一致观点。(二)过错责任原则的适用困境人工智能背景下的智能机器人拥有高度自主的选择判断能力,甚至摆脱了外部的人为控制或影响,表现出突出的“智能化”属性。这导致传统侵权理论秉承的主观过错要件难以诠释,王桂玲:侵权责任法保护的民事权益的表达模式与完善路径,政法论丛2016 年第 2 期。不宜适用于人工智能产品实际实施之侵害行为,主要原因是过错判定一般以侵权人在主观上“应知”或“明知”的注意义务为准则。然而,人工智能产品是基于独立自主的思考、判断而决定做出侵害,并非源自人为的操纵与控制,但直接将“应知”或“明知”的注意义务准则归于人工智能产品自身似乎也不妥。在人工智能产品

14、实现完全自动化、智能化的情况下,使用者已不再需要进行直接操控,也无需监控周边的环境状况,甚至无需在紧急状况下予以干预。一旦人工智能产品发生事故而损害人身或者财产,使用者既无主观过错,也与人工智能系统自身引起的事故9不存在因果关系,就此而言,“无辜”的使用者无需承担责任。例如,在物流运输过程中,自动驾驶汽车拥有高度发达的自动系统及装置,不需要驾驶人员或其背后的物流运输公司进行直接操控,实现了乘客或货物的无人化载运。在此情形下,一旦发生交通肇事,物流运输公司、乘客及货物托运人均不应负有合理的注意义务,除非他们实施了干扰、破坏或阻碍自动驾驶汽车正常运作的故意或过失行为,这明显改变了传统侵权法关于交通

15、事故的责任原则。可见,人工智能实现了无人化的操作,导致其使用者不再负有主观上的注意义务,使得过错归责原则最终变得无所适从。另外,在人工智能产品应否获得独立人格的争议状态下,探究人工智能产品是否存在主观过错似乎也无所适从,而且没有任何实际意义,原因是即使人工智能产品可被认定为承担过错责任的责任承担者,它也无法实际履行经济赔偿或其他救济。既然不宜追究使用者、人工智能产品的过错责任,那么可否追溯生产者、销售者等其他主体的责任?如果追究生产者、销售者的责任,则似乎离不开产品质量法倾向维护消费者利益的调整规制,尤其在排除使用者过错责任的前提下,将不再强调主观上的故意或过失,而是更强调侵权行为导致的事实及

16、损失,10刘笑岑:关于无人驾驶汽车的法律问题访谈,法制日报2016 年 11 月 26 日。此时将依据产品质量法追究生产者的无过错责任,以及销售者的有限过错责任。然而,有观点并不赞同产品质量法的适用,而是基于人工智能所具备的技术特性,主张采用“技术中立”原则,即技术自身一般不产生责任,严义挺:技术、构罪与证明“互联网+”语境下诉讼的“+互联网”性,上海政法学院学报(法治论丛)2017 年第 3 期。具体而言,针对人工智能技术自身引起的侵害,使用者除自身过失外均可豁免责任,生产者、销售者也均不承担责任,除非该技术的最初商业用途即是意图侵权或违法。徐爱国:英美侵权行为法,法律出版社 1999 年版,第247 页。可见,与产品质量法相比较,技术中立原则同样不再关注生产者、销售者的主观要件,但也不再重视产品有无缺陷,刘志云、刘盛:供给侧改革背景下的经济法:挑战与回应,政法论丛2017 年第 4 期。即针对人工智能自身技术缺陷引起的侵害,生产者、销售者可能仍无需承担责任。显然,技术中立原则不利于维护受害方利益、保障安全秩序,但也拥有一定的存在理由,人工智能系统本就是极度复杂的技术难题,这区别于常规意义、批量生产的普

展开阅读全文
相关资源
猜你喜欢
相关搜索

当前位置:首页 > 学术论文 > 管理论文

本站链接:文库   一言   我酷   合作


客服QQ:2549714901微博号:道客多多官方知乎号:道客多多

经营许可证编号: 粤ICP备2021046453号世界地图

道客多多©版权所有2020-2025营业执照举报