首页 > 法学期刊 > 文章 > 正文阅览
下载 收藏 打印 分享
保留字段信息
保留本篇右侧的法宝联想
保留正文中的法宝联想
页面宽度(px):

页面宽度范围为200至2000

【法宝引证码】CLI.1.304262 【时效性】尚未生效

裁判人工智能化的实践需求及其中国式任务

【法宝引证码】CLI.A.1235921 

  • 期刊名称: 《东方法学》
  • 期刊年份: 2018
  • 摘要: 计算机科学在与法学结合的道路上,一直试图将司法流程中的裁判环节以计算机模型化的方式表述出来。只是已有的不成功模型说明了将法官的推理裁判过程降格为简单、可重复、固定、先验但同时又需包罗万象的逻辑模型,可能是个片面误导性的做法。因此,在司法裁判人工智能化的研发进程中,需要斟酌的不仅是技术上的障碍,还应考虑法官的接受度和实际效用。这虽是一个极其复杂而困难的问题,但却是裁判人工智能化应用研究的起点。
  • 作者: 吴习彧
  • 作者单位: 浙江工业大学法学院
  • 分类: 人工智能
  • 中文关键词: 人工智能 决策辅助 自由裁量 司法裁判
  • 期号: 2
  • 页码: 110

  
  近些年来,“人工智能”的话题持续发酵。尤其是在互联网、大数据、脑科学等新理论技术的驱动下,人工智能加速发展,呈现出深度学习、跨界融合、人机协同等新特征。相关学科发展、理论建模、技术创新正在引发链式突破,整体推动各领域从数字化、网络化向智能化加速跃升。在国务院办公厅印发的《国家信息化发展战略纲要》中,明确提出将“智慧法院”的建设列入国家信息化发展战略,过去的2016年中,“智慧法院”的相关工作部署已紧锣密鼓地推开,[1]2017年4月20日,最高人民法院印发《关于加快建设智慧法院的意见》,提出以信息化促进审判体系和审判能力现代化的总体要求。在最高人民法院的强力推动下,地方各级法院也纷纷启动了“智慧法院”的探索工作。不过一方面,虽然法院一直在试图将人工智能引入办案系统,但如何根据现有基础研究的成果,技术研发的不同特点,寻求智能系统切入司法领域的突破口,仍是司法实务界和法学研究领域尚在探索的前沿问题;另一方面,新闻舆论却又总喜欢用“机器参与司法审判”“机器人法官”[2]等字眼来概括和描述目前司法智能化工作,极易引发公众对司法裁判人工智能化这一问题的认知偏差。事实上,以现在人工智能处理司法过程问题的技术水平来看,讨论人工智能是否有取代法官裁判的可能性,并没有根据也没有必要。
  笔者认为有必要区分两个不同面向的问题,即裁判人工智能化的可能性,以及裁判人工智能化的必要性。这两个不同问题,其实是代表了两种不同取向的研究,即以学术研究为导向和以应用为导向的人工智能化路线。前者要证明的是人工智能可以或者可能实现法官的推理,甚至哪怕只是推理的一个片段。其目标似乎只是想看看智能技术在与法学结合的道路上能走多远,它可以是个人的、主观的;但如果我们的目标是创造出一个可操作的,具有实用价值的系统,那么仅以上述学术研究为导向的方法论可能就不够了。因为这并非纯粹是一个自由选择或是个人偏好的问题,而是需要决定哪一种技术方法可能会最大限度地贴合司法实践中的操作。法官在判案时是否真的需要人工智能的辅助?系统实际使用者的真实需求又是什么?这是一个极其复杂而困难的问题,但也应是裁判人工智能化应用研究的起点。在笔者的另一篇文章已集中讨论了机器在模拟司法裁判上的技术缺陷和问题,[3]笔者将会继续结合国家对于整个司法结构与功能的预设,来讨论人工智能切入司法裁判的需求背景以及可能出现的发展方向。
  一、裁判人工智能化的需求背景
  (一)“决策辅助”的先决条件
  司法裁判是一项高度复杂的工作,无数的法学家们在这个领域倾注着脑力竞赛。在司法领域的核心词汇一般如,“正义”“合理审慎”以及“犯罪意图”等,都来自于人们的日常生活。而且,在法律推理的过程中,还涵盖了多种认知技能,如评判事实、条文解读、类比推理以及辩证思考。除了复杂性以外,司法裁判的另一特点就是其社会影响力。个案中涉及的利益、情感以及最终的裁判结果,都会影响到整个社会对司法工作人员的整体印象,以及社会对司法系统的看法。
  司法活动的这些特点表明对它的研究和应用需采取谨慎的态度。虽然已有不少人工智能的研发目标定位在“决策辅助”,即由计算机自动组织和协调多个模型的运行和存取,处理数据库中的大量数据,提高数据加工深度,从而达到辅助使用者决策活动目的。但若仔细推敲,之所以使用决策辅助,除了该系统本身技术可靠外,还应产生“决策辅助”的需求,这包括以下两个条件:
  1.使用者清楚地意识到有寻求“决策辅助”的必要(又可以细分为以下两个方面)
  (1)决策环境复杂
  (2)因专业知识不足等多种原因难以形成决策。
  2.使用者有从该“决策辅助”系统获取信息支持的强烈动因
  其实日常生活中的多数情况下,我们都在不断地决策,但真正需要寻求决策辅助情形并不多见。例如,我们都有过因出门担心下雨而犹豫是否需要带伞的经历,在自己没有专业气象知识,无法通过观测天象来预测的前提下,便会寻求天气预报的帮助以辅助决策。但请注意,这只是“决策辅助”存在的必要条件(即前述的第一个条件)。因为假如我们选择开车出行,且上下车的过程都可以排除下雨的干扰(如在室内停车场完成),那么即使今天真的会下雨,我们也不太会关心天气预报中预测下雨概率的准确性,此为上述的动因条件(即条件二)。
  (二)法官判案是否需要“决策辅助”
  我们同样可以通过这两个条件来观察人工智能“辅助决策系统”在司法裁判领域的境地。对于第一个条件,司法裁判中的确会产生复杂的环境,而且作为解决社会纠纷主体的司法裁判,往往也不可避免地会成为社会舆论的焦点。不过需要思考的是,究竟是什么原因使法官难以形成决策,是因为专业知识的不足,还是其他的原因?如果以计算机系统取代或辅助法官决策,能否解决上述问题?
  一般说来,法官在形成决策前,大致会经历下列4个步骤的过程:(1)确定裁判的目标;(2)罗列可实现目标的裁判方法;(3)对可能采取的每一种裁判方法的后果加以评估;(4)作出最能实现目标的选择。其中第一和第三个步骤,往往是司法工作中的实践难题,也是法官最需要寻求决策支持的,但也恰是人工智能“决策辅助系统”最难介入的部分。很多案件之所以难以决策,并非仅仅是因为法律上的疑难,还可能包括社会影响大、公众关注度高、当事人请托关系、领导批示或者“胡搅蛮缠”以上访相威胁等,即案件的困难虽然并非源于法律本身的理解与适用,但仍然会成为实际办案法官眼中的“疑难案件”。
  以“泸州继承案”“许霆案”等民意案件为例,若从阿列克西关于“内部证成”的观点来看,法院的判决都具有充分的事实依据和法律依据,没有明显的迹象表明法院的审判过程和判决结果出现了差错。但在法院外部,人们质疑法院判决的理由明显超出了现行法律制度的约束范围:当人们需要对司法裁判评头论足的时候,往往会借助于一个“更高”的标准,这些标准经常会化身为一些“法理原理”,如“公序良俗”“公共利益”等。以“道德”的名义宣称判决违背法理,不符合法的道德品性等论调,突出显示阿列克西的“外部证成”的性质。这种话语体系在不断质疑和责问法院工作和司法制度的过程中展现出强大威力,使得人民群众对法院的信任度以及法院的满意度也随之降低,同时也使得法官越发难以形成决策。对于此类社会关注度大的案件,如何界定“社会效果”便是法官在形成裁判之前所要面对的一个难题。[4]“社会效果”的评价体系有着许多概念上的困难:“一是哪些是社会效果——范围不确定导致法律效力规则多极化。二是谁来评价社会效果——主体不确定导致司法四面招架。三是如何比较两个社会效果的轻重缓急——标准不确定导致人为操作裁判。四是社会效果和法律效果冲突时如何取舍——取舍原则不确定导致法律妥协。”[5]正因为评判案件的标准是一个相对开放(有时甚至是比较混乱)的领域,因此法官才不得不相当多地依赖其他非法律的材料和信息。
  当裁判目标不确定以及裁判结果评价标准模糊的情况下,法官面对的问题是裁判的成本和风险极大化困境:一方面,法官需要提前进行大量的思考,对信息进行筛选和评估;另一方面,在裁判作出后,所有的结果便转化为依附于法官个人身上的高强度压力。也就是说,法官决策前后负担都很高。而这种决策模式的特点就是极不稳定,除非决策成本的产生实际上是有意义的,并且决策最后会以很好的方式结尾,否则这种模式下的个体或机构就非常容易崩溃。[6]
  (三)寻求决策辅助的途径
  当法官意识到存在决策困难或风险之后,接下来问题便是如何寻求决策辅助。由于涉及决策责任的最终承担,故寻求决策辅助的方式和途径也是值得仔细考虑的。只有对法官裁判行为背后隐蔽的秩序力量保持足够敏锐,准确地理解法官“在A与B两种行为选择之间的偏好,了解这些偏好究竟植根于何处”,[7]才不至于在探讨人工智能究竟能为法官决策提供何种辅助的问题上毫无头绪。
  一份法院判决不仅是承办法官依据显性规则裁判的结果,同时也是其依据非正式隐性规则裁判的结果,而后者从来就不会明文写入判决的依据之中。[8]所以对于期望对裁判过程提供智能化辅助的研究来说,就有必要先辨识办案法官个人在某个具体案件情境中和法院系统层级中的能力范围,并试图理解该情境和系统会如何对其个人产生影响。社会心理学的大量资料能佐证,在特定情境下,来自外界的系统性力量会远远胜于法官个体本身的努力,并且这种系统所展现出来的情境力量,左右个体行为方式的能力远超出我们所想。很多时候,我们只是简单地把某些错案件中的法官追责定性为“失职”或“贪污、腐败”,却会忽略让这些法官办“错”案背后的更大动力,一种由更复杂、更强大的动力所创造出来的情境性力量。
  当法官意识到决策风险的存在时,便可能会开始转化到另一种特殊的思考方式:尽量避免犯错,努力使其作出选择时的负担以及犯错误的可能性最小化。“司法者和任何公职人员一样,乐于使用最方便的程序处理事务。在有法条或成例可循的情形下,故意另寻蹊径为其判决另找依据,不仅自找麻烦,而且可能导致上控,使自己受到责难。”[9]
  常见的处理决策负担方式便是委托,将该决定委托其他人去处理。例如日常生活中,人们可能会依靠配偶或朋友来代替他们决策,或挑选一个制度化的安排,通过该制度安排,其中的某些决定就可以由此前已经设立好的机构作出。委托是一种能够减轻委托人在作最后决策之前所承受负担的一种策略。当然这种减轻是通过将负担转移到委托人身上来达到目的。而对于委托人来说,或拥有特别的信息,或缺乏相关的偏见或动机方面的问题,又或者他们不介意(甚至有可能喜好)对拟议中的决策承担责任。
  但什么时候委托,以及委托给谁,是需要斟酌的问题。因为如果委托决策的对象是一个值得“信赖”的受托人或受托机构时,那么委托行为就几乎没有什么压力,甚至可以给最后的决策带来自信。但如果受托人和委托人存在某种牵连关系,甚至被证明是倾向于犯错误的,那么其他的策略化行为就会取而代之。
  实践中回避决策风险的一种典型方式便是“请示”。[10]“因为一个人在一个群体中争取获得承认的努力大部分是由该群体中高度受尊敬的成员的赞同而得以推动的。因为他们对于他的赞同意见影响了其他人的意见,因而具有一种增值作用。”[11]虽然在现行的宪法、人民法院组织法和三大诉讼法中,都只规定了上级法院对下级法院的监督权,但作为司法实践中“土生土长”的习惯工作方式却因此享有滋生的土壤。[12]法官遇到“拿不准”的问题时,就会向审判长以及合议庭其他法官汇报,包括向副庭长或庭长以及庭务会请示。当在业务庭一级不能“拿捏”时,案件就会向副院长或院长汇报,进而纳入到审判委员会集体讨论。[13]有些问题审判委员会也讨论不出结果,或者虽有结论,但为慎重起见,会向上级法院请示汇报。
  相应地,法官向“决策辅助系统”寻求信息支持的动力不大的关键原因也就在于,“决策辅助系统”其实并没有帮助法官脱离责任承担的主体范围,法官也不可能通过主张自己是使用了“决策辅助系统”而免除将来可能要承担的裁判风险。
  二、人工智能与司法裁量权
  司法裁判人工智能化另一个值得斟酌的主题是与司法裁判裁量权的对接。该主题的问题又可以细化为两个小问题:计算机程序要求简单化、明晰化的设计属性与法官的裁量权如何协调;使用计算机程序规范法官的裁量权是否合适。
  (一)计算机程序与法官裁量权的对接问题
  目前已有的研究正在考虑根据计算机模型对法院的某些程序进行标准化。[14]此类研究的主要目的是通过计算机设计

......

【注释】
© 北大法宝:(www.pkulaw.com)专业提供法律信息、法学知识和法律软件领域各类解决方案。北大法宝为您提供丰富的参考资料,正式引用法规条文时请与标准文本核对。
欢迎查看所有产品和服务。法宝快讯:如何快速找到您需要的检索结果? 法宝V6有何新特色?
© 北大法宝:(www.pkulaw.com)专业提供法律信息、法学知识和法律软件领域各类解决方案。北大法宝为您提供丰富的参考资料,正式引用法规条文时请与标准文本核对。
欢迎查看所有产品和服务。法宝快讯:如何快速找到您需要的检索结果? 法宝V6有何新特色?