更新时间:2024-10-27 22:17点击:
(原标题:无人驾驶由谁负责)
近期,北京、武汉等地的无人驾驶网约车、无人驾驶配送车、无人驾驶游船、无人机等产业加速跑,在全国甚至全球赢得先发优势。但其引发的社会治理问题,尤其是责任归属问题,仍是未解之谜。
不能因为社会规则的缺失而限制产业的创新发展,但也不能任由相关技术在“无政府状态”下肆意而为,故需社会各界加强理论思辨和现实讨论,以期在制度规则上达成一定的社会共识。
无人驾驶不等于无人负责
现行法律和规章制度的约束主体大都是人(自然人或法人),尤其是涉及刑事责任等重大问责机制时,往往需要指向明确的自然人个体。
换言之,对于重大事故和蓄意犯罪等安全底线(尽管相对一般安全事故而言发生率不高)的监管是维系交通和社会秩序的必要条件,它在很大程度上依赖于刑法。其中,大部分道路交通犯罪针对的是机动车辆的驾驶员。
因此,确定责任主体是无人驾驶(以及人工智能其他相似产品)监管的首要议题。与正常的车辆驾驶不同,无人驾驶没有直接的驾驶员,导致直接的责任主体缺失,这似乎成为现实中的“无头悬案”或理论上的悖论。
透过现象看本质,我们依然可以找到可能成为无人驾驶的几个责任主体,具体包括:无人驾驶的使用者;无人驾驶背后的远程操控者、技术员或安全员;车辆所有者、运营者或受益者。当然,这主要是理论上的思辨,也有少量国外案例作为支撑。但具体到监管的责任主体是谁,这个问题仍需要学术界和政府及立法部门的深入调研和论证。
毫无疑问,无人驾驶车辆(或船舶和飞机等其他交通工具)纵然没有驾驶员,但有明确的使用者。类似于英国法律委员会提议的“负责使用的用户”;在美国佐治亚州这意味着“导致车辆移动的人”。
使用者在明知无人驾驶的情况下,选择使用或启动了无人驾驶车辆,那就默认其愿承担这个潜在后果。当然,有人会认为使用者只是被服务的对象,是消费者。而一般理论认为,消费者只要不存在不当使用的情况,就不应为消费过程发生的不良后果负责。所以,由使用者承担无人驾驶的主体责任,在全球各国存在较大争议。
一个折中的做法是无人驾驶车辆的使用者仍然要承担驾驶员的角色。由于驾驶员的关键地位,美国一些允许自动驾驶车辆上路的州,要求必须有人类驾驶员在驾驶座并保持警觉,实则保留备用驾驶员。其后果是,无人驾驶车辆需要驾驶员来承担责任,使用者成为驾驶员,无人驾驶徒有其名,限制了行业发展。
第二类可能的责任主体是远程操作者。远程操作者、技术员和安全员等可谓是自动驾驶技术的“驾驶员”。在一般情形下,人们感受不到他们的存在,但在紧急情况下,他们会及时出现并提供安全帮助。
美国加利福尼亚州允许申请自动驾驶测试许可,但要求在无人类备用驾驶员在场的情况下,需要有持有相应驾照的远程操作员“持续监督车辆的动态驾驶任务执行”。美国亚利桑那州规定,交通违章或车辆违规行为引发的处罚将归于“测试或操作完全自动驾驶汽车”的人。
换言之,这种做法将驾驶员的概念扩展到了被认为负责车辆的远程操作员,尽管他们并未坐在车里。
第三类责任主体则跳出了驾驶员的逻辑框架,从利益视角出发找寻车辆所有者、运营者或受益者来负责。
前两类主体使用者和远程操作者分别让车辆动起来和远程操控车辆,在监管思路上是赋予其驾驶员的影子身份,进而在现行法律框架下对他们以驾驶员的身份进行问责。倘若找到了无人驾驶车辆的驾驶员,现行法规依然适用,所有无人驾驶的监管难题迎刃而解。
但如前所述,前两类主体毕竟不是真正的驾驶员,如此武断的身份认定存在很大社会争议。因此,第三类责任主体浮出水面。
若使用者和远程操作者不能成为“替罪羔羊”,还有谁可以为潜在事故承担责任?社会上呼较大的呼声是让车辆所有者来承担责任。
目前,车辆所有者、运营者、受益者都是同一个主体——平台企业。他们推出这个新业态,提供服务并获得收益,理应为此负责,就像餐馆要为其餐品负责一样。
但现实难点在于,平台是一家企业,并非自然人,很难承担刑事责任。有人提出由企业法人负责,但这就超出了产品质量或服务质量责任的正常范畴。一般而言,消费者在使用产品或服务时,产品或服务的供应商对产品质量负责,但有明确范畴,不可过度追责。
更大的难点在于,当车辆所有者、运营者、受益者分离时,责任归属和分担几乎无解。例如,如果今后允许个人租赁无人驾驶车辆交由第三方运营,此时会出现车辆所有者、租赁者、运营者和受益者多个主体。
需要说明的是,上述分析仅针对无人驾驶车辆正常使用过程中可能出现的潜在事故责任,而对于使用过程中的故意的违法行为,则需一事一议鉴别具体责任人。例如,若使用者的不当使用导致发生恶意撞人事件,则该使用者应是首要责任人。
智能机器是否有人格,如何对其问责?
无人驾驶的车辆、船舶、飞机以及其他人工智能机器都没有灵魂和思想,它们不是人。
但如果这些机器具有了人格特征,就具有了独立的法律人格,从而可为“自己”的行为负责。这听上去像是科幻小说,但在学理上和现实中已然存在。
包括无人驾驶车辆在内的机器有没有人格?对此存在两种相反观点。
一种观点认为,机器没有人格,不需为其行为负责,从而需要追求机器背后的人的主体责任。
有学者认为,尽管通常以智能机器的“自主性”来描述它们自主决策的能力,但它们并没有欲望或价值观。当描述一个人工智能系统具有自主性时,人们通常的意思并不是它“自己”作出决策。从这个角度理解,自主性的问题并不是人工智能系统固有的某种神秘特质。
即便机器拥有自主决策能力,也只是在人类程序命令下“毫无意识”的动作,本质上是在执行人类的决策。所以,人类应为机器的自主行为负责。
当然,人类赋权机器自动决策的过程要透明,不能由人在不知情的情况下对机器的错误行为负责。申言之,操纵机器的人为机器负责,普通人则有权知道机器如何决策,从而保障自身的知情权。同理,平台等大企业为智能机器负责,需要告知用户智能机器的算法和自动决策的原理。
根据欧盟《通用数据保护条例》(GDPR),用户有权要求解释是否存在自动化决策机制,以及“自动化决策涉及的逻辑原理、对用户的重要性和产生的预期后果”等信息的合理说明。对应于无人驾驶的情境,平台应为车辆负责,并告知用户车辆运营的基本信息,如车速、避让行人等信息。
另一种观点则认为,无人驾驶车辆在内的机器及其人工智能系统具有“机器人自主意识”,以后终将拥有完全的法律人格。
有学者认为,机器具有自主意识,可以对自身行为负责。道路交通法律的功能以及惩罚违法行为的目的是提高道路安全和维护道路秩序,对驾驶员的罚款和监禁及人身改造是为了倒逼人类行为符合安全准则。
作为类比,人类可直接对无人驾驶车辆及其智能系统进行规则约束,并将执法视为训练系统的反馈环节以进一步修改其算法和架构设计。
在更严重的情况下,撤销某些无人驾驶车辆在道路上行驶的授权,使其退市或消亡,类似于对人身的死刑核准。简言之,机器若具有人格,可以通过改造或消灭的方式给予惩戒。
一个乌托邦的愿景是,无人驾驶车辆在驾驶技术上可能远优于人类驾驶员,以至于根本不需要考虑刑事责任,只需要维系其中的科技伦理和市场竞争秩序。这就将对人的社会监管问题转化成为对市场的经济监管问题。
社会规则亟待深刻变革
以无人驾驶为代表的人工智能体系统复杂而高效,可以推动文明的整体进化,影响社会机制,带来社会分工、就业市场和机会模式的变动,影响文化实践和社会互动,改变人类的生产、生活及生存方式,从而可能会重塑社会规范。
快速变迁的物质技术总是需要相应的制度、观念等文化适应,才能带动整个社会的发展和创新。但如今,人类原本就倾向于滞后的文化,明显无法适用于新的技术。尤其是当治理制度、伦理观念无法快速适应时,会不会出现文化滞后阻碍技术变迁的困境?这些问题都亟待学术界和业界的理论研究和现实讨论。
在笔者看来,无人驾驶不代表无人负责,背后大致有两种思路:一是将责任主体具象化,找到虽不是驾驶员但可承担驾驶员责任的人;二是将机器人格化,由其对自身负责。
(作者系中国社会科学院财经战略研究院副研究员)