东方法学特稿|沈伟伟:人形机器人事故责任制度的困境及应对

发布日期:2024-09-19 20:14

来源类型:观察者网 | 作者:何雨桐

【澳门金牛版正版资料大全免费】【新澳开奖记录今天结果】【2024年新澳门王中王资料】【管家婆最准一肖一码】【新澳彩开奖结果查询】【2024年新澳开奖结果】【4949澳门免费资料大全特色】【2024今晚澳门特马开什么号】【黄大仙一肖一码开奖37B】【2O24澳彩管家婆资料传真】
【494949澳门今晚开什么】 【2024新澳免费资料】 【2024最新奥马免费资料生肖卡】

作者:沈伟伟,中国政法大学法学院副教授,大数据和人工智能法律研究中心主任、法学博士。

现如今,人形机器人不再只是出现在科幻小说中,而已逐渐融入日常生活,从工厂劳动、家务助手、医疗看护,它们的身影出现得越来越频繁,而且在可预见的将来,这一趋势不可阻挡。过去几年机器人技术的迭代发展,大幅提升了人形机器人的性能,包括其行动精度、预测能力以及对应功能,使它们能在更广泛的场景中承担更复杂的任务。一方面,人形机器人不再局限于简单重复的流水线工厂作业,而是越来越多地出现在民用服务行业,例如酒店接待、餐馆服务员,甚至成为家庭的一分子,承担起家务助理和居家看护的角色。另一方面,随着执行任务范围的拓展,人形机器人的操作风险也在逐渐增加,比如运输机器人和诊疗机器人都存在伤人风险。尽管人形机器人的技术不断进步,但就像它们试图模仿的人类一样,完全避免事故只是理想状态,现实世界中事故不可避免。承认人形机器人事故在现代生活中的扩张趋势,也意味着承认人形机器人会越来越频繁地损害财物、伤害他人,甚至造成灾难。

因此,从法律角度出发,事故责任法律问题便浮出水面。当事故是由人形机器人(而非自然人)引起时,传统事故责任制度在归责和救济两个层面,均遭遇前所未有的挑战。通常,传统事故责任制度是用来应对自然人导致的事故。然而,当事故是在人机混控状态下触发,不但可能涉及自然人过错,也可能涉及算法失灵,此时,如何确定责任归属和责任救济?更具挑战性的是,在人形机器人场景中,出问题的算法有可能,甚至大概率是机器学习算法,这些算法能够学习新信息并根据习得的新信息在不受人类干预的情形下自动调整行为,这种自主性必然会冲击传统的事故责任制度,后者预设的前提是人类完全支配其所使用的工具(包括机器)。其中,不仅涉及技术层面的挑战,还涉及对现有事故法律制度各环节的重新思考和可能变革。

本文将描述和分析这一系列挑战,并提出可行的制度建构,用以应对人形机器人大规模应用的挑战。首先,将焦点放在技术现状分析,将讨论人形机器人和人工智能技术的发展,以及随之出现的全新的人形机器人事故问题。其次,聚焦人形机器人事故对传统事故责任制度的挑战。再次,针对人形机器人事故展开类型化讨论,目的是区分哪些类型的事故可以由传统事故责任制度处理,哪些类型的事故需要重新建构事故责任制度。最后,讨论应当如何重新建构特殊事故责任制度,以应对人形机器人这一技术变革。

一、人形机器人的概念和技术特征

2023年10月,我国工业和信息化部颁布《人形机器人创新发展指导意见》,确立了“2025年人形机器人创新体系初步建成;2027年人形机器人技术创新能力显著提升”的宏大目标。而在业界,近年我国人形机器人的研发也得到市场热捧。在国策和资本双重驱动下,人形机器人成为近期学界热点,尤其备受瞩目的是机器人科技创新和法律规制之间的紧张关系。为了从学理角度探讨这一热点,本部分首先将阐释人形机器人技术,一是为了澄清本文的讨论对象,二是为后续法理讨论作实证铺垫。

(一)人形机器人的定义

1920年,恰佩克发表一部三幕科幻剧《罗素姆万能机器人》,剧中机器人就叫“罗博特”(Robot),捷克语原意是“劳役、苦工”,这就是舶来词汇“机器人”的源头。过去百年间,这个词走出剧本,在现实中不断发展和演化。但至少到目前为止,机器人尚未通过图灵测试,未能出现像科幻小说中描述的那样“觉醒”,依旧承担其原初被赋予的服务人类“劳役、苦工”功能。

人形机器人属于机器人中的一个类别。它并不是一个法学界创设的概念,而是一个业界实践的产物。因此,本文所讨论的人形机器人,主要从实践应用功能上来界定,将其理解为“利用机器学习算法具备人工智能,能够模仿人类外观和行为的机器设备”。

(二)人形机器人的技术特征

本文认为,人形机器人具备如下三个技术特征。这些技术特征不仅将影响具体的事故风险,也成为事故法律责任制度需要考量的因素。

首先是模拟人形。这是人形机器人区别于其他类型机器人的主要硬件特征。人形机器人通常配备全部或部分模拟人类的五官、四肢等机械构造。并且,大多数人形机器人的身高都设定在1.7米区间,接近人类平均身高。以近期国内外几个人形机器人研发产品为例,英国Engineered Arts公司的Ameca能深度模仿人的表情和声音。配备液压动力系统的波斯顿动力公司的Atlas,能够在极端环境中表现出超出人类的迅速反应和复杂动作。Figure AI公司的Figure 01可通过其视觉体验,来规划未来行动,还能反思记忆素材,甚至可以口头解释推理过程。中国科学院自动化研究所的Q4可以模拟人类肌肉控制系统,并能够实现与人类的交互。

其次是人工智能。如果说“模拟人形”是在物理构造上接近人类,那么“人工智能”则是在智识上接近人类。假如不具备人工智能这一特点,机器也仅仅是机器而已,就算是人形机器,也还称不上“机器人”。恰恰是由于其在智识上模拟了人类,我们才会给它贴上“机器人”标签。当然,没有天生的人工智能,其背后是大语言模型、机器学习技术、数据收集分析、信号数据传输等复杂的人工智能技术。这是人形机器人能够模仿人类行为的关键。正是基于这些技术应用与组合,部分人形机器人甚至拥有超越人类的感觉和智识。比如,医学图像识别机器人,在人眼完全无法实现的高像素、高精度的电子网格上,将传感器收集的照片与病理数据库中的照片相匹配,识别精度甚至超越经验丰富的临床医师。与之类似,在过去十年间,我们已经见证不少棋类机器人击败人类顶尖棋手。从计算机科学角度,人工智能得以实现的先决技术条件,是机器学习算法。为何如此?回答这个问题,必须从机器学习算法的对应物——不具备机器学习功能的算法(且称其为“普通算法”)的局限性谈起。

普通算法仍是当今计算机程序中的重要组成部分。程序员可以利用普通算法对机器人操作进行人工编程,使其具备明确且逻辑清晰的运算模式。较之机器学习算法,普通算法有其优势。它精确明晰,更具可解释性和可预测性,也因此在规制层面更加可控;当出现算法失灵时,也更容易排除故障。但普通算法的短板也很突出。由于普通算法是在程序员编定的特定环境中运行,欠缺自主性,一旦出现外部环境变化,普通算法就容易陷入僵局,须由程序员干预并作出调整。

以人形机器人导航系统为例。普通算法将会输出人形机器人从A至B的最优路线,并适时启动、加速、减速、停止等。这类基于普通算法的导航,只适用于一些高度可控的环境。因为唯有如此,程序员才可以预测机器人可能遭遇的、数量有限的场景,设计出与预设场景一一对应的“如果—则—否则”(if-then-else)代码规则,并据此执行相应导航控制。换言之,在一个动力输出供应稳定、障碍物隔绝、天气稳定的运行环境下(比如有轨道路、封闭车间等),不确定性被严格限制,普通算法才能实现导航。可是,如若变换一个场景——城市道路晚高峰,那么普通算法就将陷入困境。满负荷车流倒是其次,大量行人、自行车、电动车,让一个穿越十字路口由A至B的简单路线变得极不可控。在此场景下,机器人所遭遇的不确定性将大为提升,因而普通算法无法以穷尽可能性的方式来先行设计。用计算机科学的行业术语来说,这便是普通算法的“知识获取瓶颈”,这也是机器人在普通算法时代应用场景有限的原因之一。

而机器学习算法的到来,给人形机器人技术注入新活力。有了机器学习算法,人形机器人不再需要预先穷尽所有可能性,进而执行程序员针对每一种可能性预设的对应行为指引。一个高质量的机器学习算法,可以直接为人形机器人设定既定目标,机器学习算法自主学习、自我改进,并利用训练数据分析推导,自行找出完成既定目标的最优方案。这与墨守既定代码规则的普通算法有着本质区别。一言以蔽之,机器学习算法既是程序自身,也是不断自我改造的程序员。每一次新的机器学习算法运行,都会作为下一次运行的垫脚石,通过不断积累运行数据提升优化。而这种机器学习将带来人形机器人行为上的不确定性。正如瑞恩·卡洛(Ryan Calo)所言,机器学习算法重要特征之一,就是能产生一些创新性的、难以预料的输出,他称其为“涌现”。正是借助“涌现”,机器学习算法能够帮助人形机器人应付普通算法所无力应对的动态场景。当然,“涌现”也不是没有门槛,没有代价。从技术角度出发,对于机器学习(尤其是无监督状态下的深度学习和强化学习)而言,人形机器人行为的预测和解释都将变困难,甚至不可实现,后文将详细分析其制度后果。

最后是人机混控。人工智能技术嵌入机器学习算法,赋予人形机器人一定程度的自主性。然而,这种自主性是相对的,而非绝对的。无论是人形机器人,还是其他类型的机器人,只要未能突破图灵测试,就不具备绝对自主性。换言之,人形机器人的行为,仍旧离不开人类指令。无论是启动、操作,甚至《黑客帝国》中人类祭出的终极控制手段“断电”,人类还享有一定控制权。在实际运行中,使用者控制大致可分三步骤:第一步骤,使用者通过一系列简单直观的肢体动作或口头生成指令;第二步骤,机器人接收使用者指令;第三步骤,机器人依据使用者指令完成行为操作。而人形机器人的相对自主性,有利于其在第三步骤发挥应变能力,而不是简单机械地服从使用者指令。因此,在人形机器人运行过程中,由于人类控制和机器学习算法的相对自主性,人机混控成为人形机器人的一项核心技术特征。

(三)人形机器人引发的事故责任制度新问题

模拟人形、人工智能和人机混控,这三个人形机器人的技术特征,将在数量和性质两个维度引发事故责任制度的新问题。

首先,人形机器人的硬件技术特征模拟人形,使其更有利于被应用到人类服务场景。恰恰是由于模拟人形特征,使得人形机器人比之其他机器人有着更广泛的应用空间。原因如下三点。第一,地球已被人类改造成适合人类日常生活的样态,而人形机器人模拟人形的硬件特征,将使其更便于在人类日常生活场景下得到应用。比如人形机器人通常被设计成双足行走(而非轮式移动或履带式移动),这种移动方式使得人形机器人在适应不同人类日常环境时具备更大灵活性。第二,人类文明创造出的大部分工具也是适配人形。因此,人形机器人可以更为直接地利用类似手持器械、桌椅、手术台、病床、门锁等现有工具为人类服务。第三,比之传统机器设备,人形机器人的模拟人形特征使其更容易在情感上被人类接受,并能够通过面部表情、手势、语言与人类进行交互,从而更好地理解和响应人类的需求和指令。

在当前人形机器人应用比较普遍的机械工厂中,就已出现大量人形机器人纠纷。随着人形机器人应用的扩大和人机交互频度的提高,可以预见,由此带来的人形机器人法律纠纷将超越工业应用场景,扩展到诸如餐厅、病房、卧室等日常生活领域,并涉及隐私、人格利益、精神损害等法律问题,成为事故法律制度需要回应的新问题。

其次,人形机器人的“人工智能”,带来了事故责任制度上的不确定性。一方面,有别于传统机器,人形机器人的“人工智能”技术在硬件上具备感知模块、决策模块、运行控制模块,各模块都需要相应的软件技术支持,甚至可能通过第三方聚合App控制,因此,人形机器人通常存在多元开发主体,以及各方交互过程中的不确定性。另一方面,机器学习算法的“涌现”能力,也使其具备一定自主性,同样给人形机器人的行为带来不确定性。从法律角度出发,这两类不确定性包括潜在责任主体的不确定性、机器学习模型自身演化的不确定性、输出结果的不确定性、人形机器人功能的不确定性等。换言之,传统事故责任制度习惯于在确定性中寻求最佳责任分配方案,但面对人形机器人,恐怕不得不在不确定性中寻求最佳责任分配方案,而不确定性的技术源头,就是具备一定自主性的机器学习算法,及其背后的多元开发主体。这给事故责任纠纷的数量、责任主体认定和行为定性都带来新挑战。

最后,“人机混控”给传统事故责任制度中的责任认定和分配提出新挑战。以往在传统机械事故中,不存在自主性算法介入行为的情况,一旦出现行为损害与法律责任,传统法律责任只需考虑人类过错或产品瑕疵。然而,人机混控从根本上挑战了传统法律责任判断标准。在人机混控场景下,如何证明是算法造成了损害?损害是由于算法失灵,还是人为过错,抑或天灾?因果关系链条如何确立?算法侵权责任认定本已困难重重,人工智能技术相关算法的介入,不单是加剧了这一困难,而是彻底颠覆了原有事故责任制度的推理前提和逻辑。机器学习算法的优势恰恰在于人类无法控制机器学习的结果,人机混控可以发挥各自优势提升协作效率和任务完成精度;但是,二者也引发控制过程和输出结果的不可测,甚至可能超出人类(无论是程序员还是使用者)控制。新问题浮出水面:这么一个既接受人类控制,也接受机器学习算法控制的设备,其行为引发事故后,法律责任如何认定和分配?

二、人形机器人挑战传统事故法律制度

网络法诞生之初曾出现一个著名的“马法之辩”。以弗兰克·伊斯特布鲁克(Frank Easterbrook)为代表的一派法学家,质疑网络法存在的必要性。他认为法学界之所以不需要专门治理马的马法(the law of the horse),是因为马匹交易有合同法、马造成损害有侵权法……一般性法律足以应对与马有关的法律问题。那么,既然我们不需要一部专门治理马的马法,为什么需要一部专门治理网络的网络法呢?

将“马法之辩”嫁接到当前讨论,我们不禁要问:传统机器也是机械工具,人形机器人也是机械工具,那么,为什么需要一套专门治理人形机器人的事故责任制度呢?这一追问,将启发我们思考如下三个问题。第一,从法律角度,对比传统机器,人形机器人事故有何特殊之处?第二,现有的事故法律制度,是否足以应对涉及人形机器人的不同类型事故?第三,如果无法应对,如何在法律制度层面进行补足?这三问将作为下文论证主线。本部分将首先处理第一问:从法律角度,对比传统机器,人形机器人事故有何特殊之处?相较于传统机器,人形机器人事故有四个特点。

第一,人形机器人的“过错”判断标准与传统机器存在根本差异。传统机器发生事故,使用者在事故一刹那作出操控选择,往往是在紧急情势下应激而为,哪怕存有主观过错,通常也属于过失而非故意。而现有事故责任制度、紧急避险制度的设计,也是针对这类主观过失。然而,人形机器人与传统机器不同,由于其行为不仅依赖使用者的直接控制,还包括机器学习算法的自主行动,而人机混控的技术特征,也使得过错的认定变得复杂。此外,模拟人形的硬件特征,也增加了人机交互的模式和频度,如果人形机器人没能准确理解使用者的指令,将引发过错判断标准的困难。总之,由于人形机器人模拟人形、人工智能、人机混控三个技术特征,模糊了人形机器人事故的过错主体,使其混合使用者过错和算法失灵,在根本上挑战了传统机械事故的过错判断标准。举例而言,假设一款人形机器人在家务劳动时,意外撞坏家中贵重物品或伤害家中幼童。此时,传统机械事故可能归咎于使用者操作过失,或在可以证明产品瑕疵的某些特殊情况下追究产品责任。然而,对于人形机器人而言,使用者的设置和指令、与人形机器人的交互细节、机器学习算法的决策、实时收集和分析环境信息的能力等因素,都会影响人形机器人的具体行为决策,并最终影响责任认定。在这样的情况下,简单地将过错归咎于使用者一方的行为过错,显然不能适应人形机器人技术特征和应用现状。

第二,人形机器人应用中算法失灵导致事故的算法责任,在传统事故责任法律制度中处理得太过简单,不足以应对人形机器人算法的实际应用场景。人类使用算法,难免遭遇事故。文字工作者难免遭遇如下尴尬:Word码了一堆字,一时忘记保存,系统突然崩溃,被迫重启前功尽弃,无奈只能绞尽脑汁回忆残篇,或是望屏兴叹悔恨交加。即便Word自动保存功能设计得再糟糕,也未必有人真起诉开发Word的微软公司。从法理角度,我们触碰到了侵权责任的边界。此时,侵权责任通常只作为合同责任的补充,后者已在软件用户协议中被预先处置。换言之,对于算法失灵导致的法律纠纷,侵权责任通常只作为合同责任的补充,而纠纷解决主要诉诸软件用户协议。在实务中,除非涉及第三方损害或人身伤害,否则,主张算法侵权通常难获法院支持。然而,如第一部分所阐述的,人形机器人将带来更多人与机器人共存和交互的场景,而其对于人类服务的大规模替代,也将提升人身伤害、第三方损害的可能性,算法失灵一旦造成人身伤害或第三方损害,法院就有更大动因支持侵权责任。这种处理方式虽然与传统产品责任类似,但却有其特殊之处:它涉及的是机器学习算法主动介入人形机器人行为而引发的侵权事实,而非像传统产品责任案件那样,由于产品瑕疵而被动触发。

第三,机器学习算法的引入,增加了人形机器人算法失灵的认定和排除故障(Debug)的难度。首先是算法失灵的认定。随着部分控制权由机器学习算法接管,人形机器人的行为变得更为不确定和不可测。在一些情况下,无论是人类使用者,还是开发算法的程序员,都难以完全理解算法背后的每一项自动化决策。这并非人形机器人所独有,而是广泛存在于机器学习算法之中的共同挑战。以知名机器学习算法AlphaGo为例,它在2017年接连击败了人类顶尖棋手。然而,即使是创造AlphaGo的工程师们也无法针对其每一步棋的奥妙给出解释——试想,假如可以解释,那么这些工程师早已称霸棋坛。AlphaGo的运行被限制在一块布满19条横线和19条纵线、共361个交点的棋盘之上,哪怕是这样一个简明清晰、高度可控的环境里,AlphaGo工程师们依然无力解释。那么,在更复杂且充满不确定性的人形机器人服务场景中,解释机器学习算法,认定算法失灵,无疑难上加难。其次,机器学习算法还增加了排除故障难度。例如,搭载机器学习算法的波音737MAX客机,是2018年印尼狮航空难的承运机型。随后,波音工程师们努力排除故障,尚未准确找到确切的算法失灵问题,也因此没能避免半年后埃航同一机型因同样算法失灵问题再遭空难。人形机器人与现代客机相似的一点是,使用者的干预、环境因素改变、车外第三方行为,都有可能影响机器学习算法的自动化决策,一旦出现算法失灵,如何准确定位和排除故障,进而减少事故纠纷,这是另一个新挑战。

第四,人形机器人算法失灵导致的损害,难以通过传统事故责任制度进行有效救济。由于机器学制度主要分两方面:财产赔偿和行为纠正。通过寻求人形机器人的开发者或使用者的法律责任,我们或许还能从财产赔偿的角度找到解决途径。然而,当我们试图纠正致害行为本身时,传统事故责任制度便显得捉襟见肘。这是因为,传统法律救济很难控制人形机器人的具体行为,尤其是当这些行为不断受到复杂且动态的机器学习算法所驱动时。对于传统机械事故,法律救济只需着眼于纠正使用者行为,“教做人”——比如,通过禁止相关责任人继续从事特定行业的方式。传统救济措施无需考虑算法的行为纠正。但在人形机器人的人机混控场景下,法律救济则不得不两者兼顾:既要“教做人”,也要“教做算法”。法律可以通过拘留、监禁、罚款、禁止从业等传统手段来纠正机器生产者或使用者行为;然而,对于已部分脱离了生产者和使用者控制的机器学习算法,我们能采取哪些措施来纠正其行为呢?是硬件断电,软件卸载,还是代码重置?这便成为新难题,而这一难题的复杂性在于,我们不仅需要考虑到机器学习算法的快速发展,还需要预见到未来可能出现的各类场景和风险,以制定出具有前瞻性的解决方案。

三、人形机器人事故的类型化分析

传统事故责任认定,是基于过错责任展开的。以道路交通事故为例。道路交通安全法第76条确立如下归责制度:车辆之间的交通事故,实行过错责任,双方都有过错,则按比例担责;车与非机动车或行人的交通事故,实行过错推定原则和无过错原则。

然而,如前所述,人工智能和人机混控的事实,使得人形机器人事故的过错认定更为复杂。这里既可能存在使用者的自然人过错,还可能存在算法失灵。自然人过错,属于传统事故法责任认定的构成要件。而算法失灵并不仅属于算法客观瑕疵,还包含算法自主行为,因此,我们需要通过算法自动化决策所带来的结果,比照自然人过错,倒推拟制算法在“主观方面”存在的过错,使其在规范逻辑上能与传统事故责任认定的构成要件尽可能契合。事实上,算法失灵和自然人过错的认定逻辑本质上是共通的:都是以客观行为作为依据,来推定行为主体的主观过错。那么,根据人形机器人的过错主体(自然人或算法),我们便可以把人形机器人事故拆分成如下两类。

(一)第一类:自然人过错

根据传统侵权法的界分,自然人过错无非两种情况:自然人故意和自然人过失。

首先是自然人故意,它又可以细分为两类情况。第一类是利用人形机器人故意杀人、伤人、损害财物等,这并不属于事故法的处理范畴。第二类是故意最低成本损害(Deliberate Least-cost Harm),亦即,自然人为避免更大损失而故意选择承受较小损失。在该情形下,我们假设自然人有足够时间做出反应,两害相权取其轻。这类情形类似于电车难题,传统事故责任制度借助紧急避险等机制来应对。但无论上述两种情况中的哪一种,人形机器人都没有带来任何新问题。其次是自然人过失。表面上,人形机器人的自然人过失和传统机械事故一样,无非是疏忽大意或过于自信。不可否认,人脑也是一个黑箱,因此侵权法建立一般理性人标准作为参照。当然,如果人形机器人的复杂性提升了自然人的注意义务,那么自然人过失认定的标准也就越宽泛。而且,人形机器人分担的任务越多,并不必然意味着自然人过失越少。例如,偏向于依赖自动驾驶功能的司机,也更倾向于在加强过程中打盹、阅读、打电话,而不是专注监控自动驾驶。也正因此,在实践中,人形机器人也承担更多警示义务,以避免用户误操作和注意力转移。但即便如此,这也只是在边际上影响人形机器人事故责任分配,不会在实质上带来影响。因此,人形机器人事故中的自然人过失,依然能被纳入传统事故法律制度中进行考察。

(二)第二类:算法失灵

在人机混控的人形机器人事故中,如果出现算法失灵,也存在如下三类情形。

第一类情形,是人形机器人的普通算法瑕疵。普通算法瑕疵在传统机器人也存在,比如警示未作出回馈、电子操控系统未响应、用户隐私泄露、网络安全问题等。人形机器人的普通算法瑕疵可以比照人形机器人的硬件瑕疵:当人形机器人硬件设计存在缺陷、不能达到同行业技术水准,法律上可以适用产品责任。

第二类情形,是人形机器人的机器学习算法瑕疵,它可能出现在数据采集过程中(如采集图像精度不够、对象识别错误),也可能出现在数据分析运算中,最终都可能引发自动化决策失误,进而引发事故。此外,人形机器人还存在机器学习算法所引发的系统性致害问题。比如,机器学习算法所带来的系统性歧视问题,对高收入使用者和低收入使用者、男性使用者和女性使用者采取差别化安全标准。这都属于机器学习算法瑕疵这类算法失灵的范畴。这在传统事故法律制度中很难找到应对之策。

第三类情形,是人形机器人的机器学习算法“故意”引发事故。这种算法过错的目的,是实现故意最低成本损害,只不过算法所展现的“故意”比自然人故意更具形式理性。这是因为在技术上,算法与自然人不同之处在于,算法在处理信息的速度方面异常迅捷,在事故一刹那,哪怕只有几毫秒,它也可以在理性推算后采取自动化决策。看似偶然的事故,其决策却是算法理性化选择,其形式逻辑比自然人更理性。尽管机器学习算法的理性化选择通常是基于相关性考量(而非基于因果关系考量),但无论如何,在紧急情形下控制人形机器人时,算法所作的自动化决策接近人类故意,它属于紧急情形下的“故意”自动化决策,并非程序员介入或者普通算法程式设定的“故意”自动化决策。

现实中更可能发生另一类接近于电车难题的问题是:为了避免使用者的损害,算法“故意”伤害第三方。在事故即将发生那一刻,人形机器人面临抉择:保护使用者,还是第三方(他人或其他财物)?以商业逐利为目标的自动驾驶生产商在算法设计时,自然更倾向于保护使用者。一方面,从商业模式上看,使用者是直接客户,而第三方则不然;另一方面,从信息成本上看,传感器难以对外部情形做出确切判断(第三方数量、抗撞击程度和躲闪灵敏度等),而对使用者反应则会有相对明确的预期。在这种情况下,人形机器人算法在无法避免伤害的情况下,“故意”伤害第三方的情形就更可能发生。那么,由此受到人身或财产损害的第三方,何以对“故意”造成事故的机器学习算法问责?这也是传统事故责任制度的盲区。

四、人形机器人事故的责任制度构建

上述人形机器人事故分类始终贯穿着自然人与算法、普通算法与机器学习算法两组对照。类型化不是目的,而是手段,最终是为了帮助我们厘清人形机器人事故法律问题的层次,进而确定哪些类型是可以纳入传统事故责任制度,哪些类型必须探索新的事故责任制度。

通过上述人形机器人事故的类型化分析,我们可以明确传统事故责任制度在人形机器人事故中的可行性和局限性。传统事故责任制度仅仅适用于自然人过错和人形机器人普通算法瑕疵这两类场景,而且存在一个前提:人机过错可以明确区分。

在无法明确判定人机过错混同、机器学习算法瑕疵,甚至机器学习算法“故意”引发事故这几类情形下,传统事故责任制度则会陷入盲区。如何处理人形机器人带来的这些新问题,这是人形机器人事故责任制度构建的重点。下文将针对人机过错混同、机器学习算法瑕疵、机器学习算法“故意”引发事故等问题,探讨相应的事故责任制度构建。

(一)利用“一般理性人”技术标准规制算法失灵

既然人形机器人的应用不可避免会引发事故,那么其事故责任制度的目标也应当更务实:从完全避免事故(Prevention),转向减少事故(Mitigation)。这一理念可以追溯至交通事故法的源头,代表人物便是拉尔夫·纳德(Ralph Nader),其观点汇聚在《任何速度都不安全》(Unsafe at Any Speed)一书中,并最终固化到美国交通事故责任制度之中。在该书的影响下,美国主流裁决原则是:车辆制造商无需设计出完美车辆,但有义务“在设计和制造产品时,采取合理注意义务,最小化其用户可能遭受的人身伤害;并且,在发生碰撞事故之时,不能将其用户置于不合理的人身伤害风险中”。“合理注意义务”“不合理的人身伤害风险”,这些措辞,实际上就是将合理性标准纳入产品设计、研发和制造环节中。这种披着安全标准外衣的事前规制,对于可能主动触发致害行为的产品而言,不仅有用,而且必要。为了应对人形机器人事故,我们需要根据具体技术实践,综合考量技术应用成本,采取合理的事前规制手段来控制算法失灵现象,进而减少人形机器人事故的发生。

值得注意的是,技术标准本身就蕴含着侵权法领域的过错责任标准。为了判定使用者过失——使用者是否尽到合理注意义务,事故责任制度会假定“一般理性人”标准,这是人类行为所需满足的最低条件。同样,类似标准可以适用于人形机器人算法,一旦算法的行为高于一般理性人标准,亦即:如果将算法操控替换为一般理性人操控,也无法避免事故发生,这便等同于尽到合理注意义务。在这种情况下,即便发生事故,也不被认定为算法失灵。而这类算法失灵认定标准可以通过技术避风港机制——一旦满足技术要求即可成为责任抗辩事由——逐步转化为行业技术标准,固化到人形机器人的设计、研发、制造等环节。与前述美国交通事故责任制度的“合理注意义务”“不合理的人身伤害风险”一样,人形机器人的算法应当从行为效果反推,根据不同行业的风险承受程度,比照自然人注意义务确定算法注意义务。一旦人形机器人算法无法满足监管机构提出的算法注意义务标准,则须承担相应责任风险。随着这类“一般理性人”技术标准的推广,此消彼长,游离在标准之外的人形机器人算法失灵及其引发的事故问题就将被限缩,责任确定性也将随之增强。

(二)人机混控法律事实认定机制的建立

操控由人类独控到人机混控的决定性转变,以及机器学习算法在法律事实认定上的不确定性,挑战了以过错为中心的传统事故责任制度。例如,使用者误操作过失和算法瑕疵之间,在现实中就很难分清。类似情形普遍存在于人机混控的控制权事实认定层面,是人形机器人规制无法回避的问题。

为了应对人机混控和机器学习算法失灵这两个法律事实方面的难点,我们必须在事故责任制度建构层面,解决当前问题比较集中的取证困难。第一是针对人机混控。人机混控意味着人形机器人既非完全算法自主,也非完全依赖使用者。如何分清事故发生之时,人机混控的主导权究竟是使用者还是算法?即便是表面上由使用者控制,那么算法是不是有效如实执行了使用者命令?这些对法律裁判来说都是事实认定难点。例如,在国内外自动驾驶事故纠纷中,争议焦点往往在于引发事故的直接指令到底由使用者作出还是由算法作出。

因此,监管机关应当在事前、事中、事后三个阶段分别采取措施,厘清“是否存在机器学习算法瑕疵、机器学习算法是否‘故意’引发事故”这些法律事实。在事前,监管机关应当要求制造商应对其机器学习算法功能、算法自动化决策流程等信息定期进行备案。在事中,人形机器人产品运行,应当由相应的安全监测平台,用以监测人形机器人算法运行信息,尤其需要激励人形机器人制造商在保证个人信息和数据安全的前提下,妥善留存运行数据和日志,用以应对潜在的人形机器人事故取证。换言之,和成熟应用的民航飞机和民用列车一样,人形机器人也需要黑匣子,也需要一套事件数据记录(Event Data Recorder)系统,在触发相应条件后,详细记录包括速度、位置、时间、安全系统状态、算法操控动作、人类使用者操控动作等数据。在事后,监管机构应当启动针对机器学习算法的第三方算法检测和算法审计。此举不仅旨在追本溯源,揭示机器学习算法是否存在设计或执行缺陷,而且还要评估这些缺陷是否导致事故的发生。

(三)事故法层面的最小成本规避者

“最小成本规避者”这一理念,最早由法经济学家盖多·卡拉布雷西(Guido Calabresi)在《事故的成本》中提出,它奠定了一种全新的事故归责理论视角。该理论核心观点是:为了最大限度地减少社会总成本,事故责任应划归于那些能够以最低成本规避事故风险的主体。这代表了一个从社会总体福利出发,考察事故责任制度的新思路。从法经济学的视角分析,“最小成本规避者”理论尤其适用于法律事实认定成本过高的情景。在这种背景下,追求最低的社会总成本成为一种切实可行的最优选择。在涉及机器学习算法的人形机器人事故中,“事实认定成本过高”至少在目前技术和制度条件下,还相当普遍。由于人形机器人涉及的技术复杂性以及可能涉及的多个责任方,要确定事故责任方不仅困难重重,而且代价高昂。采用“最小成本规避者”模式,关键在于找出人形机器人应用生态链条中,哪些参与方能以最合理的成本有效预防这类事故的发生,并在事故发生后能更有效地确定和分配相关责任。由于开发主体多元、人机混控、机器学习算法导致归责成本过高,“最小成本规避者”事故责任制度设计有利于降低事故纠纷解决中的归责成本问题。

可是,到底谁才是人形机器人事故的最小成本规避者呢?在人形机器人事故中,相关主体无非是使用者、所有权人、制造商(包括背后的算法开发者)。下文将逐一分析。

首先,使用者并不是最小成本规避者。人机混控意味着使用者无法对人形机器人的全部行为持续保持完整控制权。即便是在运行过程中使用者握有部分控制权,但比之制造商,使用者在信息和技术上都处于劣势。使用者在事故发生前,对于人形机器人的控制仅限于激活、注销,或者设置部分自动操控功能。发生事故后,如果把事故责任集中到使用者身上,那么使用者很难证明算法失灵,也很难将算法失灵与损害结果的因果关系链条搭建起来。更加棘手的是,事故发生时人形机器人的数据对于制造商来说可能被视为商业机密或不利证据,因而他们通常不会愿意主动披露。这也加剧了算法失灵认定难度。

与使用者类似,人形机器人所有权人也不是最小成本规避者。一旦把风险全部转嫁给所有权人,要求其在购买人形机器人时同意承担使用中的所有风险,这将极大抑制其购买这类高风险产品的意愿,尤其在当下传统辅助设备和人形机器人处在同一市场竞争之时,一旦由所有权人承担责任,那么他们将会更倾向于选择风险更低的传统设备。同时,和使用者一样,所有权人本身对算法设计、组装和品控管理没有控制权。因此,即便将全部责任推给所有权人,所有权人也不具备统筹降低事故总成本的能力,反而会阻碍技术的普及与发展。

排除前两者,本文认为最小成本规避者应当是制造商。第一,针对人机混控和算法过错的判定,制造商相较于其他主体,其信息获取成本最低,更有利于解决事故纠纷中信息不足的问题。第二,制造商控制着人形机器人的技术设计和改造,更有能力控制可能存在的事故风险,事故责任将激励制造商降低事故风险,规避事故成本。尤其是在前述行为救济层面,制造商比公权力机关更有能力实施行为救济,利用对软硬件的控制能力,来引导人形机器人行为,提供补偿性救济,甚至借助人形机器人更容易满足人类精神上的报应心理而实现将报应正义内藏于设计之中。即便制造商未必能控制某部分机器学习算法的风险,但至少制造商还有一个兜底选项:舍弃该部分机器学习算法,以保证产品安全。第三,在人形机器人开发主体多元的现状下,制造商相较于个体化的使用者和所有权人,更容易通过集体化的人形机器人定价机制、保险公司索赔机制等,来将事故成本分摊到其他主体中,比如采购质量更好的零配件,通过提升销售价格,将成本转移给所有权人;再比如,购买保险将责任风险转移给保险公司和投保人。因此,针对人形机器人事故,事故责任制度应当将制造商定为最小成本规避者,再通过其内部责任转移或给定特定免责事由,来细化责任制度。

但是,制造商成为最小成本规避者,并不意味着严格责任。零事故的人形机器人并不存在。严格责任看似简单明确,却会打击制造商开发和应用机器学习算法的积极性,长此以往将损害整个产业,与国家确定的产业发展政策相冲突。因此,监管机构应当在确定人形机器人制造商为最小成本规避者的同时,根据不同行业(诸如工厂、医疗、家居、物流等)的风险承受程度,辅之以责任技术避风港和相关责任豁免机制,以实现更具规制弹性的事故责任体系。只要过错责任足够激励制造商研发人形机器人算法,并能在减少使用者过错的同时不增加额外算法过错风险,那么,它就能带来全社会的净安全收益。

结语

不少机器人警示论者呼吁,作为人类劳动的辅助(而非替代),人类应当规训机器人技术,而不是被它们捕获或被它们改造。可这或许只能涵盖其中一部分现实情境。就像德国思想家卢曼所言,当技术“不能再被认为是对体力劳动的辅助,我们必须重新界定人与机器的关系”。对于人形机器人事故责任的讨论,可以看作成机器人规制的重要案例,其模拟人形、人工智能、人机混控的特性,也能帮助我们进一步思考人与机器的关系。毕竟,像围棋一样,我们可以预见到在许多领域,机器早晚有一天会赶超人类——因为人形机器人技术会随着软硬件技术的研发不断提升,然而,除非出现《高达》中的基因改造人,否则人类智力和体力水平很难整体提升。例如,待到人形机器人驾驶技术成熟和普及之时,或许未来的事故法就将禁止人类司机驾驶车辆上路(就像现在禁止某些自动驾驶车辆上路一样),因为比之人形机器人,人类司机将带来更大的道路风险和归责困境。

对于以“人形机器人创新发展”为目标的我国而言,人形机器人事故将随着其普及越来越频发。如果不积极回应人形机器人技术的发展,我们就会付出代价,甚至丧失科技发展机遇。毫不夸张地说,我国人形机器人产业能否弯道超车,复刻20世纪80年代日本汽车产业的崛起,除了科技研发之外,最重要的制度保障就是合理适度的事故责任制度。围绕人形机器人的技术特征,本文分析了人形机器人事故责任的类型,由此推导出可以纳入传统事故责任制度的类型和需要重新建构事故责任制度的类型,并对后者提出了相关的制度建构框架性思路。毕竟,我们能否从容应对人形机器人的未来,并对其他可能出现的颠覆性技术变革早作准备,取决于我们现在的选择。

(本文来源于《东方法学》2024年第3期)

专题统筹:秦前松

JaytylerFerretti:

3秒前:在国策和资本双重驱动下,人形机器人成为近期学界热点,尤其备受瞩目的是机器人科技创新和法律规制之间的紧张关系。

李立群:

2秒前:在这种情况下,人形机器人算法在无法避免伤害的情况下,“故意”伤害第三方的情形就更可能发生。

Gayle:

1秒前:这是人形机器人能够模仿人类行为的关键。

Lormand:

1秒前:作者:沈伟伟,中国政法大学法学院副教授,大数据和人工智能法律研究中心主任、法学博士。