2016年,英国伦敦大学的科学家研制出一款人工智能程序,它能处理法律文件并对案件作出判决。科学家将600件欧洲人权法院诉讼案的案情资料输入这款软件中进行学习,交叉测试的结果显示其判案结果和人工判案结果的一致率达79%[1,2]。那么,AI真的能代替法官判案吗?
我们先看看AI判案的技术可行性。在前面的例子中,研究者利用的是自然语言处理技术,将案件文档转换成统计特征(如n元文法和主题分布),再利用SVM分类器对案件做出“违反”和“不违反”的二分判决。这种案件在案性描述上相对单一,判决任务比较简单。如果是复杂案件的话,上述方案就不够用了,不仅需要更强大的语义分析,还需要可靠的推理机制。然而,不论是语义分析还是推理,当前的研究还不成熟,这意味着系统很可能发生错判,特别是对新型案例和关系复杂的案例,出错的可能性更大。因此,AI判案在某些案件上可行,但整体来说在技术上还不够成熟[5]。
就算技术成熟了,AI判案也存在逻辑漏洞,因为没有人为审判结果担责。人类法官判错了案,可以撤职,可以追究刑事责任,AI法官出错了,把电脑砸了吗?把开发人员抓起来吗?显然都不是解决办法。AI 既然无法承担责任,那就无法行驶权力。
虽然当不了法官,AI作为助手还是非常靠谱的,甚至是极为得力的助手。随着人们法律意识的提高,法院处理的案子越来越多,很多法院都存在“案多人少”的现实困难[3],同时,法条和判例浩如烟海,而且持续增长,没有个智能的解决方法,法官很难吃得消。有了AI助手,可以帮法官快速搜索相关法条和案例,甚至给出判决建议,这不仅可以有效提高法官的工作效率,也可以纠正个人主观性带来的偏差,防止同案不同判现象的出现。
值得一提的是,随着AI系统在司法实践中的普及,要警惕司法中的AI依赖现象。很少有人会相信AI真的能独立判案,但AI依赖却可能真实存在。例如,有报道称:“近期,某法庭运用“智审”系统,短短半小时就成功审结了两起以往耗时长久的金融借款案”[4]。具体内容不得而知,但短短半小时就结案,恐怕对AI这个助手也太信任了。类似智能审判系统有不少,在倒逼法官规范司法的同时,也对法官判案形成了无形的引导甚至威慑,影响了自由裁量权的发挥。
至少在现阶段,我们还是要将AI当成很可能出错的助手,AI不应该凌驾于法官之上,同样也不是法官判错案的借口。
参考文献:
[1]Nikolaos Aletras et al., Predicting Judicial Decision of the European Court of Human Rights: A Natural Language Processing Perspective, (2016) PeerJ Computer Science 2:e93.
[2]机器人法官来袭!判案结果和人工判案结果一致率达79%, https://www.258.com/news/1444822.html
[3] 杨巧雨,人工智能介入司法审判的风险防范,艺术科技,2020.3
[4]人工智能司法运用的界限之辩,https://www.thepaper.cn/newsDetail_forward_9843770
[5]Artificial Intelligence and Legal Decision-Making: The Wide Open? Study on the Example of International Arbitration
[6]How AI is Changing the Legal Service,https://www.suss.edu.sg/blog/detail/how-ai-is-changing-the-legal-service
[7] How Artificial Intelligence and Machine Learning Are Transforming the Practice of Law, http://www.thelowdownblog.com/2018/05/how-artificial-intelligence-and-machine.html
By:清华大学 王东