AI联结的社会
随着人工智能技术的不断发展,人类与人工智能共生的时代开始了。
全球联机协作的人工智能,将构筑一个深度改变人类生活的“人工智能网络”。
在人工智能网络化时代,我们将面临不可预测和控制的风险。我们的社会是否已为迎接迎接这一切做好准备?
科幻小说与生活的边界即将模糊,“电车难题”不再是脑海中单纯的思想实验。
人工智能是否能像人类一样,对自己的行为负责?
大数据下无处不在的“人物侧写”,还有“责任的空白”“数字污名”“就业难民”等全新社会问题,是否会催生新的歧视与压迫?
……
面对可能出现的伦理难题和社会风险,我们当下又能做些什么?
围绕这些问题,日本信息学界、法学界、社会学界、人工智能技术领域的多位前沿学者从国际化、专业化的视角出发,进行了深入探讨。
学者们通过“情景设定”的方式,对人工智能网络化时代的风险和危机进行了预演,并在社会政策和法律应对层面,提出...
随着人工智能技术的不断发展,人类与人工智能共生的时代开始了。
全球联机协作的人工智能,将构筑一个深度改变人类生活的“人工智能网络”。
在人工智能网络化时代,我们将面临不可预测和控制的风险。我们的社会是否已为迎接迎接这一切做好准备?
科幻小说与生活的边界即将模糊,“电车难题”不再是脑海中单纯的思想实验。
人工智能是否能像人类一样,对自己的行为负责?
大数据下无处不在的“人物侧写”,还有“责任的空白”“数字污名”“就业难民”等全新社会问题,是否会催生新的歧视与压迫?
……
面对可能出现的伦理难题和社会风险,我们当下又能做些什么?
围绕这些问题,日本信息学界、法学界、社会学界、人工智能技术领域的多位前沿学者从国际化、专业化的视角出发,进行了深入探讨。
学者们通过“情景设定”的方式,对人工智能网络化时代的风险和危机进行了预演,并在社会政策和法律应对层面,提出了精彩的建议。
编辑推荐
·AI网络化将给人类社会带来无法预测的重大变化,我们是否做好了应对风险和挑战的准备?
·日本信息学、法学、社会学、人工智能技术领域的前沿学者,关于人类如何与AI共生进行跨界对话,在社会治理和法律制度层面提出务实的对策建议。
·深度讨论智联社会的隐私与伦理、信息安全、AI开发准则、政治参与、知识产权、劳动就业等核心问题。
·全球视角,横向比较美国、欧洲、日本在相关领域的政策,提供多国经验。
·通过情景设定实例和“思想实验”,将读者代入未来的预设场景,尝试回答文学作品、电影和游戏中的经典问题:在AI网络化时代,人类如何做才能既利用人工智能为人类服务,又保护人类的基本利益?
·北京大学中国社会与发展研究中心主任邱泽奇教授作序,哈佛大学、清华大学、中国人民大学、厦门大学等国内外高校的多位学者联合推荐。
媒体推荐
法律工作者在直面“司法智能化”的同时,也扮演着优化规则的守卫者角色。如何解决AI衍生的个人隐私和信息安全问题?如何优化法律制度和管理体系?想要深入了解AI网络化时代法律问题的读者必将欣喜于阅读此书。
——齐树洁 厦门大学法学院诉讼法学教授、司法改革研究中心主任
人工智能网络化正大踏步朝我们走来。人类做好了与之相处的准备吗?在伦理上、法律上应当如何应对人工智能与人的关系?日本学界精英以预设情景做出了前瞻性分析,启人心智,让人跨越专业门槛一窥究竟。这是一本促人面向未来的好书,忙碌的人们若分身阅读,定有收获。
——任剑涛 清华大学社会科学学院政治学系教授,教育部“长江学者”特聘教授
在人类面对网络化的智能机器时,如何保障人类的基本利益:身体、人格、责任、尊严?
以我对人工智能有限的认知,我以为,这样的提问非常日本!工业化的历史表明,同在儒家文化圈,日本却是一个非常务实的国家。人工智能的发展显然还没有走到真正威胁人类的时刻,探讨人工智能场景下的人类利益,显然是一个虚拟问题。务实的日本人在遭遇一个虚拟问题时,又如何处理呢?《AI联结的社会》恰恰展现了务实的智慧。
——邱泽奇 北京大学中国社会与发展研究中心主任,教育部“长江学者”特聘教授
人工智能(AI)技术必将带来一场革命性的变革,将使人的生活方式、交往方式以及思维方式发生根本性的转型,因而,人工智能将为我们展现出一个不同于以往和现在的未来。我们生活的这个时代,见证了人工智能技术的兴起,也应为人类在不久的将来进入人工智能时代做好准备。可以说,从20世纪后期起,人工智能的概念就已经超出了科学研究和技术创新的领域,得到了人们的广泛关注,特别是在人们的观念中造成了震荡。也许,我们距离人工智能时代的到来还有一段较长的路,但是,我们在今天就需要在思维、观念上做好迎接这个时代到来的准备,特别是要充分估计到人工智能将对人类社会造成什么样的影响。所以,我们渴望阅读这个方面的作品。
——张康之 中国人民大学公共管理学院行政学系教授,教育部“长江学者”特聘教授
目前,人工智能伦理准则已经在全球范围内达成基本共识。在此共识基础上,《AI联结的社会》致力于解决以下四方面的关键问题:一是探讨“AI网络化”治理的必要性及其方向;二是AI研究开发相关问题的阐述;三是AI网络中的信息流通及正当使用;四是AI网络化将对社会产生的深远影响。作者们独辟蹊径,深入浅出地阐释了AI带来的信息安全问题、基本法治制度和控制管理体系构成,并附有大量虚拟情景实例,是一部扎实、详尽的优秀作品。
——赵鸣博 东华大学信息科学与技术学院教授,IEEE会员
在医学领域,AI智能诊断和精准医疗一方面为疾病的诊断和治疗提供了新手段,另一方面也涉及数据隐私、诊断可靠性等问题。《AI联结的社会》讨论了AI技术在多领域(也包括医疗领域)应用所涉及的法律和伦理问题,值得相关研究人员和临床医生参考。
——涂毅恒 哈佛医学院脑科学与人工智能专业讲师
近十年来,世界各地的许多高校纷纷成立了AI研究中心和学院,培育了一大批AI人才,进一步增强了AI在各个领域的影响力。随着AI技术的快速发展和广泛应用,关于AI安全、伦理和法律方面的讨论日益增多且愈发重要。本书对AI尤其是AI网络化的伦理和法律进行了仔细探讨,指出了许多值得AI研究者、AI产品和服务生产者、使用者以及政府部门深思和研究的问题,是一部受众广泛、内容充实、又很具有国际视野和前瞻性的作品。
——樊继聪 康奈尔大学运筹学与信息工程学院博士后研究员
试读章节
中文版序
机器的智能和人类的智慧
围绕人工智能主题,我读过很多作品。一些书名看起来很学术的,读起来却非常科普。也许是人工智能话题炙热的缘故,除了科普作家,某些学有专长的著名专家也加入其中,但对人工智能却是一知半解,有关人工智能的研究成果也是鱼龙混杂。我手里的这本是否也是其中之一呢?
我抱着尝试的心态读下去。这一读,便没有放手,直至卷终。《AI联结的社会:人工智能网络化时代的伦理与法律》(以下简称《AI网络化》)是一本论文集。通常,论文集会依照论文的主题汇集,难以让讨论具有内在逻辑一致性。这本论文集不同的是,它的主题内在逻辑一致性很强,从这个角度来说,它更像一本合著成果。在假定人工智能自身形成网络的场景下,会给人类带来哪些挑战。围绕这一主题,全书划分为六个部分,总论部分交代了问题和方法,第二部分探讨人工智能的研发原则,第三部分讨论人工智能数据、信息、知识的流通和使用,第四部分分析在人工智能网络化的场景里人类的隐私与安全,第五部分探索人类社会基本准则面对的挑战和应对之策,第六部分再回到人类自身,讨论保障人类珍视的尊严、人格与责任。
简要的内容构成介绍应该能让读者了解,这是一部接地气的著作。与天马行空地探讨智能时代、机器崛起、人工智能时代的作品不同,与耸人听闻地断言智能革命、机器取代人类、奇点临近的作品也不同,《AI网络化》的出发点是,我们知道人工智能的发展是一股历史潮流,势不可当;我们不用像算命先生那样去预测什么时候人工智能时代会到来;我们也不用像森林里的小女孩那样不断呼喊狼来了,人工智能要夺走我们的工作;我们尝试着回答,人工智能会以什么样的形态到来,在这个进程中,人类可以做什么来保证人类的基本利益,即人还是人!说得更加简洁一些,在人类面对网络化的智能机器时,如何保障人类的基本利益:身体、人格、责任、尊严?
以我对人工智能有限的认知,我以为,这样的提问非常日本!工业化的历史表明,同在儒家文化圈,日本却是一个非常务实的国家。明治维新以后,我们不知道日本人提出了什么惊世骇俗的理论,却知道日本的产品行销世界,对日本产品的质量,鲜有人怀疑。这源于日本人的务实。人工智能的发展显然还没有走到真正威胁人类的时刻,探讨人工智能场景下的人类利益,显然是一个虚拟问题。务实的日本人在遭遇一个虚拟问题时,又如何处理呢?《AI网络化》同样展现了务实的智慧:日本专家们采用了情境锚定法(Anchoring Vignettes)。情境锚定法是社会调查中面对未来时常用且有效的测量方法。它假设一个情境,实在的、可以在头脑中呈现的情境,然后,询问人们面对情境的决策和行为取向。在理论究中,这样的方法也被称为思想实验(Thought Experiment),是理论逻辑演绎的常用且有效的方法。
运用情境锚定法,《AI网络化》给定了一个讨论的初始:在未来,无论是专用人工智能还是通用人工智能,人工智能自身形成了一个网络,“使用者不仅可以自己设置,也可以接受他人设置”(第10页),就像是《黑客帝国》里的机器帝国,人工智能甚至具有了拟人的“意志”,“拥有与人类智能相关的功能;能够通过对信息、知识进行系统化处理,得到数据、信息和知识”(第6页),“渗透到社会整体之中,进而使人类和人工智能网络共存,在各种社会场景中,都将可能实现人工智能、物和人的相互联结”(第11页),人类如何做才能既利用人工智能为人类服务,又保护人类的基本利益?
在汗牛充栋的人工智能研究中,人工智能网络化是一个被忽略或被默认的议题。说是被忽略,至少在我读到的文献中这是第一本将其特别强调的作品。说是被默认,在众多讨论人工智能的研究中,作者们往往忽略了人们生活在一个政治和社会制度有差异的世界,国家技术能力的强弱和国家之间关系的好坏并非与人工智能创新和应用没有关系。忽视既存的制度约束和假设人类的一般存在看起来有利于讨论,实则是学术的不负责任。《AI网络化》突出强调人工智能网络化的现实社会情境,也是学术务实的另一个证明。
《AI网络化》首先呈现的不是人工智能带给人类的便利,而是风险。“这些风险与人工智能网络化为社会带来的便利同在,有时可能超越国境,超越现实与虚拟的界限,瞬时扩散出去。”(第13页)借用既有的研究成果,《AI网络化》将风险区分为功能风险和制度风险,认为其中重要的不是功能风险,而是制度风险。因此,风险分析是人类面对人工智能挑战的出发点,包括风险评估、风险管理和风险传播(第14页)。风险分析的目的,不是为了甩锅,而是让风险明确化,进而确保公平竞争,让风险与收益达成平衡。在这里,我们既看到了日本人务实的一面,又看到儒家文化的深层存在。
设定人工智能网络化的前提,自然地提出了人工智能治理的人类化议题。《AI网络化》的主张是,人工智能的治理,一定是国际的,而不是一国的。为促进技术创新和应用,初始期宜采用软性治理,治理内容除了确保各种价值观,还应确保廉洁、透明性、可控性、安全性、隐私性、安保体系、公正性等(第18页)。为了既促进人工智能的发展,给人类带来更多便利,又保障治理的有效性,约束人工智能可能带来的风险,《AI网络化》认为,一个由人工智能高度互联建构的智联社会(第20页),应该遵从八项基本原则:“第一,所有人都可以受惠;第二,保障个人的自主性及人的尊严;第三,保证革新性研究开发的持续与公平竞争;第四,坚持可控性和透明性;第五,利益相关方的参与;第六,兼顾虚拟世界与现实社会;第七,通过超越空间的协调合作实现有活力的区域社会;第八,通过分散合作解决全球性问题。”(第21页)
与上述原则关联密切的被分解为了人工智能研发中的人类伦理与秩序的贯彻,人工智能使用中的数据、信息、知识等价值观,人工智能与人类的关系,包括如何保障人的尊严、人格与责任以及支撑因素如隐私、安全、既存的社会准则等。贯穿《AI网络化》始终的是,保障人类基本利益的原则被置于在最优先的位置,基于此,《AI网络化》里出现了一些日文风格突出的概念,如“联结”(第11页)、“人物侧写”(第48页)、“立人设”(第62页),也引用了众多流行的概念,如“隐私设计”(Privacy by Design,PbD)(第206页)、“切断开关”(Kill Switch)(第208页)等。它意味着《AI网络化》的讨论既不是日本人自己圈子内的讨论,也不是脱离了日本的话术贩卖,而是从日本的关切出发,面向整个世界的分析和探讨。
参与讨论的近20位作者,既有业界人士,也有学界新秀。从《AI网络化》文本可以看出,他们的一个共同特点是,都非常熟悉国际上人工智能探讨的热点和难点问题,表达的也是他们对这些热点和难点的观点。人工智能数据是大数据问题的一个子集,欧盟有GDPR,美国有关联的法律却没有一般的法律,中国在民法典中有涉及,日本的《个人信息保护法》也只是关联的法律。到目前为止,数字化前沿国家对此还没有达成一致。我以为,根本不可能达成一致,尽管其基本出发点是保护人类利益。但我们知道,机器并没有利益,机器的利益实际上是掌握机器的人的利益,电车难题(见第五部分的讨论)便是典型的例子。当我们在人工智能里设定人类生命优先时,不是牺牲机器的问题,而是优先保护谁的生命的问题。如此,问题又回到了人类,而不是人与机器的关系。为此,我更愿意把问题修订为,当人工智能网络化将带给人类更大利益同时也带来更大风险时,如何分配这些利益才是对大多数人更加有利的,也是对大多数人而言更加有利于控制风险的?
在这个问题面前,人类自身的歧视、分化、极化、垄断等将会是长久且难以达成平衡的议题。我们期待一个可以促进技术发展的竞争性研发生态,却又希望避免一个由发展带来的垄断性市场,回避一个由利益分配严重不均所生产的极化社会,还希望避免一个因伦理失衡而可能带来的毁灭性后果,最终希望做到人类自洽(第307页),它,的确需要超级智慧。《AI网络化》至少是面向超级智慧的有益尝试。
邱泽奇
2020年5月
AI网络时代的刑事法律
立教大学研究生院法务研究科教授
深町晋也
情景设定
事例1 自动驾驶汽车与过失犯
X1购买了由汽车公司Y1所制造、贩卖的自动驾驶汽车(第3级),下雨天的时候普通公路上以自动驾驶模式、每小时40公里的速度行驶。在X1没有注视前方的时候,走在道路左侧人行道上的小孩A,松开了父母的手进入了机动车道。自动驾驶汽车执行紧急应对措施,切换成驾驶员手动模式,但是由于X1没有注视前方,导致其瞬间的反应不够及时,来不及紧急制动。这时X1向右打方向盘,想要避免撞到A,但此时后方有一辆摩托车超速行驶而来,自动驾驶汽车没能避开与摩托车的碰撞,最后导致摩托车翻车,驾驶摩托车的B死亡。
事例2 AI的刑事责任与保护生存权之间的两难境况
X2购买了由汽车公司Y2所制造、售卖的自动驾驶汽车(第4级或者第5级),在普通公路上以40公里的时速行驶。本案中的自动驾驶汽车装有防冲撞系统,可以通过紧急制动避免冲撞,在判断已经来不及紧急制动的情况下,其设计是向左右打方向盘来避免冲撞。但如果是在即便采取了这样的紧急措施也无法避免冲撞的情况下,比如说如果紧急制动的话会与后面的车辆冲撞、向左打方向盘的话会与行人冲撞,向右打方向盘的话会与后方驶来的摩托车冲撞的情况下,则会采取使受害人减少到最低的措施。X2在单行道上行驶,前方一辆迎面驶来的汽车冲向X2,因此本案中的自动驾驶汽车就只能向左或者向右打方向盘,但是左侧人行道上有一位行人C,右侧的人行道上有一小群人正站着说话,因此本案中的自动驾驶汽车选择向左打方向盘,虽然避免了与前方车辆的冲撞,但是却碾过了C导致其死亡。
一 引言
在AI网络时代,短期问题、中期问题和长期问题的主题可能会是不同的。因此需要在刑事法中思考的问题也与多个话题相关。比如说,某些人出于恶意,在AI中装入令其失控暴走的程序漏洞(bug),或者对其进行黑客攻击,这样的事例会给AI网络带来严重威胁。对世界各国来讲这都是一个重要问题。比如说,德国在2014年网络犯罪相关报告书中,指出了IoT存在的问题,称不仅仅是智能手机,智能家电等设备也有被恶意操控的危险性,为我们敲响了警钟。但是,本文将不涉及这些出于主观意图的黑客攻击等问题。本文所探讨的对象是,AI网络虽然以社会利益最大化为目的,但却不是由于有意的攻击,而是由于AI采取了有问题的运作方式而导致出现了权利侵害的情况。在这里举的案例,就是开头的情景设定里提到的,由自动驾驶汽车导致的伤亡事故。本文以自动驾驶汽车为主题,对刑事法中可能产生的问题展开讨论。
二 自动驾驶汽车与过失犯罪
1.什么是自动驾驶汽车
自动驾驶汽车,或者自动运行汽车是指,搭载了即便不通过驾驶人员的操作也能够安全地移动到指定目的地(自动驾驶)的系统的汽车。这种自动驾驶是通过AI软件实现的,因此自动驾驶车也可以认为是安装了这样的AI软件的汽车。之所以引入自动驾驶汽车,是因为交通事故(死伤事故)中超过九成,都与驾驶员的人为失误相关,因此为了降低由人为失误引发事故的可能性,增大社会获得的便利与益处,人们认为引入自动驾驶汽车基本上是符合社会预期的。特别是在今后日本老龄化社会问题将进一步加剧的情况下,与中青年人相比,高龄者的认知、判断能力将会降低,因此这种自动驾驶汽车的登场,将令高龄者可以享受到既安全又舒适的移动,从这个角度来讲自动驾驶汽车的意义很大。
根据2016年由SAE(Society of Automotive Engineers,美国汽车工程师学会)提出的标准,自动驾驶汽车根据其可自动化的程度,分为从0到5的6个等级。导入了能够对行驶环境进行自动监视的系统的自动驾驶汽车都超过了第3级(有条件的自动驾驶),而第3级中,由于某种情况(比如说恶劣天气)导致自动驾驶系统对环境监测能力受限时,就要靠驾驶员人为判断,驾驶员必须恰当处理(称为“人工接管”[override])。到了第4级(高度自动驾驶)或者第5级(完全自动驾驶),则完全不考虑这种人类驾驶员人工接管的必要性,彻底依靠自动驾驶系统进行应对。像这样,第3级的自动驾驶汽车与第4级以上的自动驾驶汽车,在发生重大紧急事件之时,是否需要人类驾驶员做出妥当处理这一点上有所不同,特别是从刑事责任的角度来看,具有很大差异。
2.第3级自动驾驶汽车与死伤事故
接下来我们来讨论一下,在开头的情景设定中,到底应该由谁来对受害人的死亡承担刑事责任。事例1与事例2最大的不同就是,前者中基本应由人类驾驶员来承担过失责任,而后者中的驾驶员则基本不需要对自己的过失负责。
在事例1中,自动驾驶系统要求驾驶员X1自主控制汽车。因此,可能会有人认为,只要存在自己对汽车进行操纵导致了B的死亡这一事实,X1的过失驾驶致死罪(《汽车驾驶死伤处罚法》第5条)就理应成立。但其实,这里值得讨论的问题是,到底应该判定X1在什么问题点上产生了过失呢?在刑法中,如果要认定过失罪成立,就必须要认定有违反注意义务的情况,那么X1具体在哪些点上违反了注意义务呢?
汽车驾驶员在驾驶汽车时必须承担的义务中,最基本的一条就是注视前方。也就是说,道路的状况时刻都在发生变化,驾驶员要及时并且恰当地应对这些变化,因此必须要时刻注视前方以取得与道路状况相关的信息。即便是第3级的自动驾驶汽车通过自动驾驶系统行进的时候,我们仍认为驾驶员注视前方是其不可免除的基本义务。也就是说,自动驾驶系统在对汽车进行控制时有可能随时切换成驾驶员的人工接管模式,而作为驾驶员必须要为人工接管模式做好准备,时刻注视前方获取道路状况信息。所以说,X1即便是在以自动驾驶模式行驶的过程中,也不能免除掉注视前方义务,必须要时刻注视前方。
但还是有人可能会对这种思维模式产生质疑。举个极端的例子,我们是否能够要求驾驶员在自动驾驶模式行驶的时候,也永远像自己驾驶时一样集中注意力呢?第3级的自动驾驶汽车,在进入人工接管模式之前,所有驾驶任务都是由自动驾驶系统进行处理的,而驾驶员也以这些系统为前提,也就是说驾驶员认为系统进行的这些处理是恰当的,是值得信任的,并以此为前提乘坐自动驾驶汽车。驾驶员对自动驾驶系统的这种信赖,恐怕是法律没有考虑到的。
在刑法中有一个原则,即行为人如果是在信赖他人行动的情况下,即便是由于该行为人采取了不恰当的行为而导致侵害了他人的权益,也不会对行为人追究责任(信赖原则)。适用于信赖原则的,基本上都是基于人类行为的问题。在事例1中,如果可以信任汽车公司Y1,认为其能够设计、制造出正确恰当运行的AI,那么即便是AI的运行出现了不恰当之处导致侵害了他人的权益,那么也应该认为行为人不为此承担责任。但是,在事例1中,切换到人工接管模式本身是恰当的运行,所以并不是自动驾驶系统进行了不恰当的运作因此催生了事故。也就是说,第3级自动驾驶汽车的设计就是以人工接管模式为前提的,因此只要不是出现了本来完全不应该切换到人工接管模式之时却被切换到了人工接管之类的事情,那么就无法免除X1的责任。
但即便信赖原则在这里不适用,然而回到前面提到的疑问,对于没有亲自操纵和驾驶的驾驶员,到底是否能够期待他能像自主驾驶的驾驶员那样专心地注视前方呢?这个问题是依然存在的。即便是自主驾驶的驾驶员,有的时候也会注意力涣散,一边看着其他东西一边驾驶的情况并不少见。非自主驾驶的时候就更是如此,当然也可以想象驾驶员会因为无聊而看手机。考虑到这种状况,对那些非自主驾驶的驾驶员也同样要求完成注视前方义务,违反义务就要对他们处以交通违章罚款,并(根据违章扣分的累计)进行暂停、吊销其驾照等行政制裁,或(在发生事故的情况下)施以刑罚,这样是否妥当呢?如果同样要求完成注视前方义务,那么在第3级自动驾驶汽车的用户界面中,就应该设计并安装一些功能,让那些非自主驾驶的驾驶员也要注视前方,这种设计是非常重要的。除此之外,对于紧急事态下被切换到人工接管模式的驾驶员,到底能否及时进行应对,这又是另外一个问题了。切换到人工接管模式所需要的时间,最短的情况下只有4秒11,即便注视着前方,也很有可能出现无法靠紧急制动避免事故的情况。这种情况下,能否依靠紧急制动以外的方法来避免事故就成了问题的关键。事例1中,如果想要避免与A的冲撞,那么只能向右打方向盘,由于B也在超速行驶,由此导致了本案中的冲撞。在这种情况下,驾驶员X1有可能相信B会遵守最高限速行驶,这就可以适用刚才所提到的信赖原则。那么就能得出结论,否定掉X1的过失责任。
第4级以上的自动驾驶汽车与死伤事故:AI的刑事责任
在事例2中讨论的是第4级以上的自动驾驶汽车,在这个事例中完全不考虑人类会对驾驶产生什么影响,可以说本案是一个完全起因于自动驾驶系统的事故案例。但是,在日本所批准的道路交通相关条约(通常所说的《日内瓦公约》)中,第8条第1项中就规定了车辆中必须要有驾驶员,而根据第4条的定义规定,所谓驾驶员是指在道路上驾驶车辆的人。因此,第4级以上自动驾驶汽车,人类是无法参与其中的,而这样的自动驾驶汽车是否满足条约的要求,就成了一个关键性问题。假如说前提条件就是驾驶员一定要是人类,那么不修订《日内瓦公约》的话,第4级以上自动驾驶汽车根本就不会被允许在道路上行驶。
那我们首先假定,我们要修订《公约》,并允许第4级以上自动驾驶汽车在道路上行驶。那这里出现的问题就是,从理论上来讲,是否可能对设计这种自动驾驶汽车的设计人员,以及构成自动驾驶汽车的系统(程序)追究刑事责任。前者是对自然人追究责任,而后者是对系统或者说AI这样的非自然人追究刑事责任,两者的性质截然不同。在这里,首先对最近大家都很关心、乐于讨论的后者展开探讨。
从传统刑法学的立场出发,我们认为所谓刑罚,只能施加于像自然人那样,具有一定人格的存在。从这个观点出发,那么能否认为自动驾驶汽车的系统,即AI是拥有人格的呢?这就是问题的关键点。
比如说在德国就有学者从正面对是否可以认定AI拥有电子人格一事展开了讨论。另外,在日本也有从传统刑法学的立场出发,针对是否可以肯定AI具有行为性和责任能力一事展开的讨论。像这种问题设定,即是否可以肯定AI具有人格这一问题,还有可能进一步分化为两种路径。第一种路径是从与自然人类似的观点出发,赋予其人格基础;第二种路径则不讨论与自然人的类似之处,只讨论是否认可AI的人格并对其适用刑法。
第一种路径中重要的问题是,AI拥有怎样的性质会导致其与人类相似。比如说,如果AI具有跟人类同样的认知能力、判断能力(责任能力),就可以认定与人类相似,进而有可能被追究刑事责任。从这样的路径出发,预想过一些类人机器人AI(典型的就是“铁臂阿童木”和“终结者”),并认定它们是拥有人格的。但是另一方面,越是强调其与人类相似,那么就越有可能要超越追究刑事责任的前提——赋予其“人格”的基础,而是变成要讨论其是否
与人类一样需要保护,这一点有可能成为问题关键。从这种理解出发,最后对这个问题的讨论甚至可能会发展为,如果把与人类相似的AI破坏掉或删除其程序,是否就与“死刑”同等。在德国这种否定死刑的国家,这样处置的权利本身都有可能被否定掉。但是,在与法人的人格(法人格)相关的讨论中,则不会产生这样的问题,其原因就是,与人类一样需要保护中所讲的“类人特性”,明显是一种过度的要求。与人类相似这一路径,有可能会导致陷入“人之所以为人的根本到底是什么”(没有终结)的争论,因此必须要进行慎重的应对。
而第二种路径则不去探究AI与人类的相似性,而是探究是否可能赋予AI人格。但这里的问题就是,不管它是否与人类相似,都肯定AI拥有人格,并且使其适用刑法,这件事到底在刑法上具有什么意义。以法人处罚为例,对法人施加刑法的意义在于,与自然人不同,对法人进行金钱处罚可以发挥刑罚的抑止效果。那么假如说对AI进行金钱处罚,可以得到某些抑止效果吗?如果说AI本身具有某些经济利益,而且具有以增大这些利益为目的而采取行动的特质,那么金钱处罚就可以看作一种“打击”手段。但通常来讲,经济利益是专属于那些制造、贩卖AI的自然人和企业(法人)的,对AI处以罚金是没有意义的。将与自然人相同的自由刑(惩役、监禁)施加到AI身上也是没有意义的,损坏AI或消除程序,这种相当于对AI处以“死刑”的刑罚,也很难被认为是有意义的。
所谓刑罚,必须要令被罚对象感受到一定的负担,而且国家要将一定的污名(stigma)附加给该对象,也就是说,让国家对AI传达法律上的指责24,说“你这家伙做出了某种坏的行为,是应该受到大家批判的AI”。我们必须思考这件事到底具有怎样的意义。便当人类幼儿做了什么违法行为的时候,国家并不会以传达法律上的指责的形式附加污名到该幼儿身上,这是因为,我们在社会中,只会对对等的成员做出法律上的指责。也就是说,这里需要探讨
的问题是,我们到底为什么需要将AI看作社会中对等的成员、人格的主体。
而且,如果要对AI施加能给它带来不利的处分,比如说破坏掉AI,删除其程序等,即便不采用刑罚的形式也可以做到。对人类可以施加不以其责任能力为前提的处分(治安处分),所以从理论上来讲,对于AI,即便不讨论它是否是人格主体,是否具有责任能力,单纯对其施加这样的处分也是可能的。从这个角度思考的话,我们就会质疑,讨论“AI是否可能成为适用刑罚的对象”这种问题到底有什么意义。因此,追究AI本身的刑事责任这一方向,就可以被否定掉了。
4.第4级以上自动驾驶汽车的死伤责任:设计者的责任
在无法追究AI本身刑事责任的情况下,接下来马上要处理的问题就是,设计、制造这些AI的人的责任。如果说AI的判断有瑕疵,那么设计出这些拥有瑕疵的AI的设计者和制造者的制造物刑事责任就成了问题的关键所在。另外,明明知道这些瑕疵的存在,却没有从市场上回收该AI(在本案中是该自动驾驶汽车)的情况下,还要另外追究其不作为的责任。
那针对这种情况,事例2中需要探讨的问题就是,到底能不能说汽车公司Y2,在该自动驾驶汽车的设计、制造过程中有一定的瑕疵呢?或者更确切地讲,催生本事故的自动驾驶系统的判断,是否有瑕疵?为了探讨这个问题,我们要在下一小节中对本案中的自动驾驶系统的程序设定展开讨论,即在无法避免一定的冲撞事故的情况下,则要将损害减少到最小限度,我们应该如何评价这种程序设定呢?
三 自动驾驶汽车与生命权之间的两难境况
1.生命权的两难境况
所谓生命权的两难境况,就是指最近很多人讨论的“电车难题”,在德国刑法学中也被称为“扳道工案例”。30其中最典型的就是这个事例。一辆失控的电车在轨道上行驶,如果让它继续在这个轨道上行驶的话,该线路上将有5个人来不及逃离,被电车碾死。看到这种情况的扳道工甲,为了挽救这5个人的生命,改变了列车运行的轨道,导致在第二条线路上的乙被电车碾死。甲认为,让乙一个人死亡这个结果是不得已而为之。
在这个事例中,可以认为由于甲改变轨道的行为,导致了乙的死亡,因此杀人罪是成立的。但是,在一定有某一条线路上的人无法避免死亡的状况之下,为了挽救5个人的生命而牺牲1个人的行为,是否应该按照杀人罪进行处罚呢?
像这种生命权的两难境况中,需要探讨的问题就是,紧急避险是否成立。所谓紧急避险是指,当发生某种不是由于任何人的过失而产生的危险的时候,在一定条件之下,允许将这种危险转嫁给他人。特别是在紧急避险的情况成立之时,为了保全更为重大的利益,而侵害某种小的利益,很多时候也会被认为是必要的。
那在“扳道工事例”这样的情况之下,能否将甲的行为看作紧急避险进而将其行为正当化呢?德国刑法学对这个问题展开了积极的探讨,在德国《刑法》中通常认为,对于这种与生命权相关的两难境况,要否定任何试图将其正当化的行为。从这个立场出发,将甲的行为定义为所谓正当化的紧急避险(阻止违法性的紧急避险)恐怕是不成立的。
但与之相对,日本《刑法》第37条所规定的紧急避险,却不一定会得出这种观点。这是因为,日本的紧急避险只要避难行为“导致的损害不超过所避免的损害”就可以成立,乙一个人死亡这种侵害结果,就可能被评定为,并不超过被避免了的5个人的生命被侵害这一结果。从这个观点出发,生命权的两难境况中,只要是有想要将损害限制到最小化的意图,就有可能被认定为紧急避险。
2.自动驾驶汽车在变成阶段的问题
在德国,对扳道工事例中任何行为的正当化都予以否定,这已经是公认的观点,但是对于自动驾驶汽车的程序设计,却有另外一种观点更为有力。根据这种观点,实际上产生生命侵害的时候是否可以从事后的观点出发对其进行正当化,和事前是否能够采取某种策略避免死亡事故,是两个不同的问题点。在前者,想要事后对生命侵害这一结果进行正当化是不被容许的,但是后者,事前就要有将损害最小化的理念则被规定为义务,为了使损害最小化而采取某种措施被认为是“可以允许的危险”。
即便是在日本,针对生命的两难境况,也并不是说只要有将损害最小化的理念,就可以将其行为正当化,但上述德国的观点也是值得参考的。可以理解为,对于第一种已经将事故发生的可能性降到最低的情况下仍然发生了的事故,第二种将损害减少到最小化的程序,被认定为可以允许的危险,其杀人罪与过失驾驶致死罪不成立。从这种理解出发,对于事例2中汽车公司Y2,出于可以允许的危险这一理由,将被判定为不予处罚。
四 结语
本文所述的内容中,关于自动驾驶汽车是否是通过信息网络与其他自动驾驶汽车联动运行这一问题是开放性的,没有进行具体的论述。但是今后随着AI网络化的进展,我们也当然可以设想,第3级以上自动驾驶汽车,会与其他自动驾驶汽车以及AI联结,追求更高效率和高性能的操作。但是,这样高效率高性能的AI网络系统,当然也依然存在着发生事故的可能性。本文主要对发生这种事故时的刑事责任的归属问题展开了讨论。
像这种广泛的网络化如果进一步得到发展,我们可以预想到,自动驾驶汽车发生死伤事故的情况下,应该被追究刑事责任的主体不仅仅包括驾驶人员,或者说并不是驾驶人员,而是变成了管理网络的“高级人员”。针对这种管理责任,今后也有必要进行更深入的探讨。
编著者简介
福田雅树
东京大学研究生院学际信息学博士。曾任总务省信息通信政策研究所调查研究部部长,现任大阪大学社会技术共创研究中心教授(副所长),兼任研究生院法学研究科教授。
林秀弥
京都大学研究生院法学研究科法学博士。现任名古屋大学研究生院法学研究科教授、总务省电波监理审议会委员、日本学术会议合作会员。
成原慧
东京大学研究生院学际信息学府博士课程结业。现任九州大学法学研究院副教授、理化学研究所革新智能综合研究中心客座研究员。
译者简介
宋爱
日本庆应义塾大学社会学研究科博士,庆应义塾大学媒体与传播研究所研究员。