算法决策司法风险及防范

时间:2022-04-10 10:37:07

导语:算法决策司法风险及防范一文来源于网友上传,不代表本站观点,若需要原创文章可咨询客服老师,欢迎参考。

算法决策司法风险及防范

摘要:随着算法和算力的突破式发展,人工智能技术几乎渗入到各个领域内,司法领域也不例外。“人工智能+法学”作为国家人工智能发展的新规划,为我国法律行业的发展带来了机遇;也为人工智能算法决策司法裁判的应用过程中带来了挑战。文章在对算法决策在司法领域中的风险进行分析,并提出了一些建议,以期对算法决策在司法领域更好地融合。

关键词:人工智能;算法决策;司法领域

国家在《新一代人工智能发展规划》中对人工智能在法律领域的应用做了前瞻性的布局设想,其中“人工智能+法学”的教育培养新模式,①为人工智能在法律各行业的应用充分展开,储备了基础。在美国,人工智能在司法领域的应用已久;尤其是在刑事诉讼程序,算法决策在法官的审理、量刑、假释等一系列辅助过程中,起着重要作用,主要是在预测是否再次犯罪的评估上;同时,这一点也带来了广泛的讨论。②究其原因,算法作为一种技术,被当作是公平、中立的应用在司法领域;算法决策在因主观任性和客观局限而导致的问题上,往往比人类表现的更具客观和公正;但是,算法技术在决策时就一定是公正的吗?答案是否定的。一方面,算法在人工智能中是以代码的形式,安排着机器在运算、处理问题时的顺序和步骤,在决策中具有大脑般的作用,体现着算法设计者的目的和思想,所以它本质上也不可能是完全客观、中立。另一方面,算法在汇编结束到完成仍需要不断地进行数据训练,以保证算法的不断完善;但若是采集的数据不具备客观性的话,人工智能在应用中就不免会出现偏差,产生偏见。

一、算法决策对司法的风险

在人工智能算法深度学习中,算法在决策过程中会产生“算法黑箱”这一特点,即使是算法设计者本人也不知道这一决策时如何产生的,想要找出问题根源亦是很难,那么这一特点就会出现这样一种情况,出现问题后,应当如何归责,技术上的难题直接导致法律责任无法归咎的风险。算法决策的偏见会削弱司法人员的主体地位。现在,各类司法辅助办案系统被普遍采纳应用,这一系统辅助过程会涉及到:自动对证据材料进行审核,类案的推送,量刑的数据参考等,人工智能逐步渗透到司法过程的各阶段;在高智能辅助系统中,辅助系统会自动根据案件的犯罪事实、相关法条、量刑情节、量刑幅度生成可供司法人员参考的文本,因为未参与案件的整个过程,只是对案件事实等进行数据化的选择、归类;该系统不会对本案件进行深刻而全面的了解;司法不是简单地对三段论的论断,亦不是机器对法律各要件的匹配,而是需要对人和社会生活情况的深刻理解;算法在运行中会进行比较,采用相似性做决策,具有差异性的就会被排除,往往看似不重要的细枝末节,却具有着关键性的作用,如若在司法过程中偏倚算法决策得出的参考文本,也就干扰了司法人员的独立判断,影响司法人员的主体地位。

二、算法决策风险之防范进路

无论从目的还是功能上来看,司法智能辅助系统都是对司法人员独立判断的辅助;智能辅助系统虽然在解决案多人少、司法腐败等问题上成效明显,但是司法人员作为司法责任主体,应当注意防止过度依赖辅助办案,在结案陈词、文书说理部分应该详细表达决策过程,这样既可以保证过程的公开透明,又可以防止出现流水线作业式的裁判文书。“算法黑箱”的存在,增加了算法决策的不透明性,带来了治理上的难度。借鉴国外的经验是:具有黑箱性质的算法系统不能被用到公共福利、公共教育、公共医疗等一系列核心公共机构领域中来;对能够被应用的司法智能系统,对其算法的设计和监管,要有法学各攸关方参与进来;对除涉密外的算法,向公众公开,方便接受公众的监督。③在算法数据训练可能受到“污染”的风险时,通过先对采用数据进行筛查,以确保算法训练所需要数据的质量。由于,数据训练算法时,数据样本越全面,数量越多,算法的结果精确度就越高;在众多的样本数据中,通常会混入社会中既有的一些歧视;因此,在采用数据之前,应当对数据做符合法律和道德伦理的价值检测,对可能影响算法的歧视数据进行校正。

三、余论

正如,苹果公司的CEO蒂姆•库克在麻省理工学院2017届毕业典礼演讲中指出,“我并不担心人工智能像人一样思考,我更关心的是人们像计算机一样思考,没有价值观,没有同情心,没有对结果的敬畏之心,这就是为什么我们需要像你们这样的毕业生,来帮助我们控制技术”。④我们不知道以后的人工智能是否会像人类那样有同情心和敬畏之心,但可以肯定地说,在人工智能时代,无论发展至如何,我们需要的是像人一样具备同情心和敬畏之心的“算法决策”。

作者:张帆 单位:广州大学法学院