评论文章
人工智能(AI)辅助仲裁裁决的实践与展望

作者:金茂律师事务所  韩正 律师

引言

2025年4月15日,上海国际仲裁中心AI辅助仲裁系统正式上线 。该AI辅助系统基于大模型,可用于整合案件流程数据,提供了案情梳理、仲裁文书生成等功能,标志着人工智能辅助已经从梦想进入了仲裁实践。笔者兹结合个人试用体验及研究,稍作分析及展望。

一、程序控制

1. 程序文书生成

笔者依据上国仲AI工具,生成了一份案件摘要(脱密处理,下图),其中包括了案件受理、规则适用、文件送达、仲裁庭组成、案件开庭、庭后安排等内容的抓取与文本生成(填充),随后该文本进入了一个线上可互动编辑的界面,供仲裁庭核对、补充及修订。这不仅为案件的动态管理提供了便利,也为嗣后裁决文书生成提供了有保障的程序根据,避免程序瑕疵和裁决风险。

在裁决文书的辅助生成中,上国仲AI工具生成了文档表单,其中数据抓取了当事人信息、案件程序、案情(争议合同、申请人理由、请求、答辩意见、证据、质证意见、代理意见)多个部分的既有数据并完成了自动填充,仲裁庭可直接在表单中修订。表单预留了仲裁庭意见(查明事实、法律适用、合同效力、争议焦点、请求处理等)、裁决结果部分的结构性填充框(见下图)。在仲裁庭在表单确认后同样可以生成裁决书文本,进入文档的进一步编辑,十分便利。

根据仲裁程序中多用户的需求,我们可以设想,通过受理后AI所识别的程序,系统还可以有如下功能:(1)节点事项的时效管理与提醒;(2)当事人根据程序发起程序性申请及文书生成;其他方当事人可以进行回应;(3)仲裁庭作出程序性决定及文本生成。

2. 争议焦点归纳

在仲裁制度中,许多机构和仲裁庭利用审理范围书、程序令、争议事实清单等工具来进行有效的程序管理。

基于现有技术,绝大多数大语言模型已经可以读取并整理双方的立场并对照列出争议事项及依据(如列出),结合富文本填充模块,协助仲裁庭来生成审理范围书、程序令等已经有相应的尝试 ,相信会很快普及。

3. 庭审智能辅助

庭审是仲裁庭构建事实的核心程序之一,其中的庭审演示、证人交叉盘问、笔录制作往往是重中之重。通过AI平台的辅助,同样有若干功能可以实现(见下图):(1)多方协同演示,用于展示证据材料、模型、多媒体等资料;(2)对于重点的演示及引用内容,AI进行捕捉标记,便于仲裁庭回溯;庭审的录音及文字转换、自动翻译,目前均有了成熟的技术;(3)对证人盘问的多视角录像及面部微表情、肢体动作记录,已有考虑引入分析及提示功能,帮助仲裁庭判断证言可靠性。

二、裁决生成的四种推理引擎

1. 逻辑构造(形式推理-三段论)

当我们运用法律三段论时,实际上是运用全称命题对属于该全称情形的命题得出一致性结论,故此保证该判断(判决)的有效性。
而在真实裁判过程中,对于大前提的适用(及解释)、从证据到事实的认定,都会伴随着当事方的争议,其为三段论的先决问题。故而又涉及到其他三种类型的推理。

2. 事实认定(似真推理-小前提)

似真推理是用来衡量事实或反事实确证度(可能性)的一种推理方式,即通过评估所采信证据的质(与事实或反事实的内在关系)与量(权重),做出盖然性(概率)的认定。

就证据形式(可采性)而言,通过对证据规则的解释标注与预训练,较容易实现对证据真实性、合法性的辅助认定。

就证据实质(证明目的)而言,利用多模态预训练,可以期待专用人工智能对于文书、证言、音像、物证等不同类别的证据,通过评价其产生的间距时间(以系争事实发生时为基准T0)长短,其是否为事务发生的关系远近(自然产物抑或人工加工)、内容的相关程度(全面覆盖、交叉、不相关)、内容的准确程度(清晰、含义模糊)等多个核心维度量化显示,以提供可解释的模拟心证。(见下图)

其难点在于,规范地把证据所蕴含的内容转化为某一争议事实是否得以证成的表述。这一困难可以在此前的程序中通过争点固定的方式得到一定的缓解。但如果脱离了人工介入(输入),是否能够由机器真正解读多类型的证据并进行精确的事实陈述,尚需要研究。

3. 法律解释(辩证推理-大前提)

当案件事实确定之后,仲裁庭要对双方所援引的法律依据(成文法或先例)进行解释,即:

我们可以注意到,在利用AI进行法律解释的时候,需要构建出知识图谱库,而大陆法和判例法的构造并不完全一致。比如,大陆法上对于法律解释还包括司法解释,及文义、历史、目的、体系等传统解释方式,而在具体的指导案例中有更进一步的延伸。因此,普通的预训练是难以把握其层次分别和权重的。又如,在普通法上某一法律问题总是沿着历史路径上不断发展出最新的leading cases,并在发展过程中产生出分叉情况和新的法律测试,其路径地图的模式和法律测试的应用,就需要另一种图谱结构和训练方式。

因此,当我们对某个法律问题形成了不同的解释方法,或者形成了新的判例,其本质上意味着在相互竞争的命题路径中,要选择判断并说明何者更优。这个过程就是辩证推理。

4. 结合适用(类比推理)

当案件事实(自然集合)得到认定后,其是否符合成文法所要求的要件事实集合(目标集合),或者符合先例所要求的事实集合(目标集合),则涉及到类比推理,即两个集合之间是否具有相同性或实质相似性。

这就要求处理两组关系:(1)集合中的数量是否一致,短缺时是否有推定事实递补;(2)集合中的元素是否一致,即每一个集合元素是否一致。在一致性判断问题上,我们清楚如果该事实是指向存在与否(即是非问题),则非常好解决。如果是程度问题,则涉及到何种程度时才满足要求,较容易出现模糊场景。因此,好的要件事实分解或好的法律测试,一定是将所要求的事实集合定义为若干个临界事实元素,即每个元素是指某项特定事实存在与否。

这样一来,AI仅需要简单的并行计算目标集合中的各个临界事实元素是否得到了满足,如均满足,则可以推理为一致,则该大前提可以适用于案件,进而逻辑链闭环。

三、局限与伦理

1. AI幻觉问题——高质量数据集的人工标注

AI模型并不直接储存原始语料信息,而是训练完成后将其当作概率参数进行储存。故此,当要求其输出具体的法律条文、案例信息时,其出现幻觉进行编造(实际为概率输出)是内生的特征。

因此,对于需要在裁判中精确援引法律条文、先例案号及内容的法律工作者,将真实且得到持续更新的法律数据开放给人工智能是必要的,且需要将真实数据作为硬标签(即AI读取和回答时,如进行文本自动填充时,了解其不可篡改该引用内容)予以标注。

同样的,假设法律数据库中还包括了法律解释、案例、文章、专著等多类型的文书,对于其进行分类及高质量标注,以使得AI能了解并提示其引用内容的时效、权重、统计概率是非常重要的,而这些显然还需要大量的人工工作参与。

2. 法律伦理

仲裁裁决的效力是根据法律所赋予的,其内在地要求由仲裁员作出事实认定和法律判断,而非由机器或委任他人(包括AI)作出。因此在AI辅助推理中,是否允许AI来自动生成含有实质法律判断的段落、文本(如果是提示法律解释和参考案例则安全的多),实际上是存在伦理挑战的。在CIArb前不久发布的报告中,提示了使用AI的多项伦理风险:公正性和算法偏见;独立性与认知惯性;正当程序与侵犯当事人陈述机会(隐含证据和论点);不可解释的黑箱机制等。

更深层次考虑,每一个法律条文背后,其实质是一项包含价值判断的公共政策选择,其本质是伦理判断(而非单纯逻辑判断)。伦理判断是基于一定社会条件下,共同体所作出的意志表述,其中既包括了对现实世界的认知,也包括了当时社会关系的理解,是社会核心价值观的具体法律表达。在当前的技术路径中,无论大语言模型进行了多少语料预训练,无论其回答多么接近人类表达(乃至切换不同语言风格),其基于文本语义的认知和反馈,都不能说是对伦理价值的认知和表述。

结语

当我们回看《仲裁法》第十三条提及“公道正派”的仲裁员要求时,这一种基于伦理文明的信任和法律授权。仲裁员来驾驭和应用AI工具显然是题中之义,而不是作为躺平神器。而当产业发展催生出新的法律问题需要仲裁员的专业智慧时,这个重大的责任也只能由作为共同体的仲裁员来光荣担当。