图源: Electronic Frontier Foundation (EFF)
Image Source: Electronic Frontier Foundation (EFF)
人工智能(AI)正在全面性地渗透到社会的不同领域。随着科技的发展,智能技能也为包括公共安全在内的社会问题供应了越来越多的办理方案。特殊是在刑事法律中,人工智能具有多种用场,包括网络和剖析证据、预测和预防犯罪以及辅导法律决策和量刑。在中国,法院的数字化也已经起飞。最高公民法院首席法官兼最高法院院长周强表示,中国法院致力于将当代技能与法律程序相结合。我国的法律体系将在智能化中加倍依赖算法赞助,这也表明人工智能将能够更直接、更本色地参与法律决策。因此,必须充分理解算法工具的优点和潜在危险,以确保与刑事法律原则的兼容。
一、法律决策中的范例AI运用:美国风险评估系统(RAI)美国的监禁率比天下上任何其他国家都要高——截至2016年,每38个美国成年人中就有一个正在教养所。降落监禁率和改革刑事法律的压力匆匆使美国转向智能工具。风险评估系统(RAI)利用被告人的个人资料来预估累犯评分。该分数将助力于法官决定能否开释被告以及该罪名。例如,在肯塔基州,早在1976年就利用了风险评分,以出庭的概率来分配评分。次风险框架将每个被告标记为低,中或高风险,从而使法官能够做出更加透明和客不雅观的决定。
从理论上讲,RAI旨在为刑事法律带来浩瀚好处。一方面,如上所述,该算法工具在风险评分中采取了清晰的清单式标准。肯塔基州在2011年通过了HB 463立法,哀求审前利用风险评分,以降落监禁率。如果法官能够更科学地判断在审判前将哪些被告送进监狱,监狱人口过多的经济包袱就可以得到减轻。此外,研究表明,与人类决策比较,RAI的统计模型表现更为同等。由于算法的评估标准具有透明性,法院能够更好地阐明决策背后的情由。因此,越来越多的州,包括处于刑事法律改革前沿的加利福尼亚,已经转向了RAI来知足其刑事法律的需求。
但是,RAI的遍及也带来了激烈的辩论。个中, RAI紧张有三个令人担忧的缘故原由。
首先,与机器学习的核心一样,RAI能够找到数据中的趋势。但是,算法是通过利用历史犯罪数据进行演习的,而历史犯罪数据常日会因带有偏见的警务和不完全的数据网络(“dark figures”)而歪曲。正如美国数学家Cathy O'Neil在她书中所说道,当机器学习算法利用有偏见的统计数据时,就会进一步对穷苦和有色人种造成侵害,产生一个恶性循环。因此,利用RAI可能会复制和放大偏见,从而毁坏公正公道的法律体系的原则。
第二,RAI的机制提出了一个群体和个人之分的问题。正如在2016年威斯康星州最高法院的著名案件Loomis v Wisconsin中提到,RAI并未供应了准确的个人风险评分。相反,风险预测基于与集体数据的相似性及其历史趋势比较。梅利莎·汉密尔顿(Melissa Hamilton)指出,将基于群体的数据转换为个人评估很随意马虎“漏洞百出”。当不清楚算法输出会如何被利用者理解时,RAI的风险评分很随意马虎被缺点理解。因此,找到与法律体系职员精确沟透风险的形式至关主要。
末了,只管RAI能够识别出再犯可能性,这种识别仍旧只是一个未证明的干系性。RAI无法证明干系性是否对应真实的因果关系。例如,如果低收入人群与高累犯干系,这种干系性并不能作为确定低收入会引起犯罪的证据。RAI并非旨在识别犯罪的社会经济成分,但如果不仔细的阐明,其输出很可能会导致因果关系存在的假象。同样,干系性也必须由人类利用者来理解并给予意义,但人类可能会带入个人政治取向和代价不雅观并施加认知偏见。为了使RAI评估更具参考代价,可以利用贝叶斯优化(Bayesian Optimization)来指示风险评分的确定性。然而,确定性成分在RAI评估结果中的主要性仍旧是一个模糊点。
二、中国法律系统中的AI只管RAI远非刑事法律的灵丹灵药,此类工具确实为AI对法律体系的影响供应了主要见地。虽然我国目前还未利用像RAI一样的风险评估系统,AI已经运用于许多公共安全干系领域,包括面部识别、DNA剖析和档案数字化。自2017年以来,贵阳市通过大数据办案系统处理了419起刑事案件和480人。同时,与去年比较,办案韶光减少了30%,因证据不敷的不批捕率也低落了28.8%。显然,大数据和人工智能为法律体系做出了一定的贡献。但是,我国法律智能化仍在起步阶段并存在着不敷。例如,一线办案职员指出了“大略单纯案件不须要,繁芜案件不敢用”的问题。
正如最高公民法院院长周强所说,智能化法律体系的年夜志可以表示出我国刑事法律的未来方案。参考第十八届四中全会的旨意,人工智能可以助力于“统一证据标准”和 “戒备冤假错案”的目标。而在预测性AI提高客不雅观性和效率的同时,算法偏见,数据差错和不明确的干系性都可能造成负面影响。因此,须要找到缓解算法工具毛病的策略。这些策略可以辅导所有法律体系和政策制订者找到适当的路子更好的在刑事法律领域利用AI。在这方面,RAI的已有履历可以供应干系洞见。
三、如何应对算法工具带来的隐患首先,须要建立一个在法官,算法程序和研发职员之间分配任务的框架。AI任务一贯是各个领域长期存在的疑问。如今,随着AI对法律决策影响的增大,明确地界定审判任务变得尤为主要。在Loomis v Wisconsin一案中,COMPAS 评估系统利用了被视为商业秘密的算法,因此无法表露。这将加剧为评估缺点或技能漏洞分配任务的难度。为了法律领域公正公道的原则,任何法律体系都必须能够对缺点的案件讯断有明确的任务承担,在研发职员和利用者之间有清晰的任务划分。此外,随着人工智能在未来得到法律实体的可能性,还必须对智能系统建立适当的惩罚方法,以确保人工智能在刑事法律中的任务性。
第二,根据自然公道(natural justice)的核心原则,任何一个案件都须要能用充分的情由解答其决策逻辑。因此,RAI和类似的工具必须具有一定的透明度,以确保所有干系方充分理解风险评估的前因后果。这也意味着须要对演习RAI的数据进行评估,以确定演习数据和当前案件的兼容性,以及算法输出是否会不公正地对待一些社会群体。而这样的全面评估也将须要数据科学家与特定领域的专家互助来更好的阐明RAI的输出。
此外,除了减轻RAI算法偏见的方法外,人类的认知偏见也可能会带来负面影响。Alex Albright对肯塔基州RAI数据的研究揭示了令人担忧的趋势——法官更方向于反对建议免除黑人被告担保金的算法输出。因此,有必要理解不同的法律职员如何理解RAI的输出。如果要负任务地将AI工具支配到刑事法律中,不仅须要战胜算法偏见,而且还必须肃清隐性的人为偏见。法官可能须要进行更好的培训,以理解如何最好地理解RAI的意义。同时,可以哀求法官为反对RAI建议供应详细的阐明。结合肃清算法偏见的方法,识别人为偏见对付AI在法律体系中的运用也至关主要。
末了,政策制订者应持续监控智能工具的利用结果,评估其性能并将结果公开拓布。不同的法律体系和参与者对人工智能在法律决策中的运用可能会显出不一致而且出乎猜想的反应。为了预测和管理这些可能性,决策者该当与研究机构和市场职员互助,以更好地理解法律行为因AI而产生的变革以及算法对刑事法律的长期影响。
四、余论与总结只管RAI等工具供应了各种好处,但其缺陷也表明人类决策仍不可或缺。特殊是在主要及繁芜的案件中,应仔细评估智能工具所利用的数据,识别是否存在算法或人为偏见,并保留每个案件不同的干系要素。AI可以会在未来更本色性地影响法律决策并乃至代替人类决策,但法律制度的演进性,例如不断变革的法律和社会规范,将始终须要人类的深度参与。因此,算法赞助决策的目的,不应过于集中于一劳永逸的办理方案。相反,重点该当是通过有效的人类与人工智能的协作来最大幅度地发挥人工智能的正面功能性,从而创建一个更高效、更公正的刑事法律体系。
参考文献
[1]. Završnik, A. (2019). Algorithmic justice: Algorithms and big data in criminal justice settings. European Journal of Criminology, 147737081987676. https://doi.org/10.1177/1477370819876762.
[2]. 谢澍:《人工智能如何“无偏见”地助力刑事法律 ———由“证据指引”转向“证明赞助” 》,载《西北政法大学学报》2020年第5期。
[3]. Hao, K. (2020, April 2). AI is sending people to jail-and getting it wrong. https://www.technologyreview.com/2019/01/21/137783/algorithms-criminal-justice-ai/.
[4]. Chohlas-Wood, A. (2020, June 17). Understanding risk assessment instruments in criminal justice. Brookings. https://www.brookings.edu/research/understanding-risk-assessment-instruments-in-criminal-justice/.
[5]. Simonite, T. (2019, September 5). Algorithms Should've Made Courts More Fair. What Went Wrong? Wired. https://www.wired.com/story/algorithms-shouldve-made-courts-more-fair-what-went-wrong/.
[6]. O'Neil, C. (2017). Weapons of Math Destruction: How Big Data Increases Inequality and Threatens Democracy. Penguin Books.
[7]. Oswald, M. (2018). Algorithm-assisted decision-making in the public sector: framing the issues using administrative law rules governing discretionary power. Philosophical Transactions of the Royal Society A: Mathematical, Physical and Engineering Sciences, 376(2128), 20170359. https://doi.org/10.1098/rsta.2017.0359.
[8]. Marchant, R (2018) Bayesian techniques for modelling and decision-making in criminology and social sciences. Presentation at the conference ‘Automated Justice: Algorithms, Big Data and Criminal Justice Systems’, Collegium Helveticum, Zürich, 20 April. https://collegium.ethz.ch/wp-content/uploads/2018/01/180420_automated_justice.pdf.
[9]. 周济、牛站奎:《人工智能在城市公共安全领域的运用及发展研究》,载《城市蓝皮书:中国城市发展报告No.13大国管理之城市安全》2020年11月, http://www.gzpeace.gov.cn/info/1515/22360.htm。
[10]. 周尚君,伍茜:《人工智能法律决策的可能与限度》,载《华东政法大学学报》2019年第1期,http://www.iolaw.org.cn/showNews.aspx?id=69983。
[11]. 刘宪权、林雨佳:《人工智能时期技能风险的刑法应对》,载《华东政法大学学报》2018年第5期,http://www.iolaw.org.cn/showNews.aspx?id=68399。
[12]. Gillula, J., & Lacambra, S. (2018, December 22). Recidivism Risk Assessments Won't Fix the Criminal Justice System. Electronic Frontier Foundation. https://www.eff.org/deeplinks/2018/12/recidivism-risk-assessments-wont-fix-criminal-justice-system.
本文作者:吴世樱
本文摘自《人工智能资讯周报》第111期,转载请注明出处
《人工智能资讯周报》磋商人工智能对公共政策、管理和政策建议的影响,探索人工智能对商业、政治和社会的影响,以确定潜在的研究领域,磋商可能的互助研究和机构伙伴关系。本刊着重供应中国人工智能发展动态和对人工智能的思考,同时关注环球范围内人工智能干系研究动态。本刊旨在通过可靠的研究,来帮助企业、研究机构和公民预测温柔应技能引领的变革。
获取更多精彩内容,欢迎关注海国图智研究院