人工智能或许没有人们想象中的那么完美
扫描二维码
随时随地手机看文章
近日,有人工智能领域的知名专家说,预测性的监管工具不仅“毫无用处”,而且容易大大夸大暴力犯罪的可能性。在本月早些时候发表的一封信中,来自麻省理工学院、哈佛大学、普林斯顿大学、纽约大学、加州大学伯克利分校和哥伦比亚大学的专家们就这一问题发表了看法,他们对这项技术的怀疑态度达到了前所未有的程度。
人工智能专家切尔西巴拉巴斯(Chelsea Barabas)、卡蒂克迪纳卡尔(Karthik Dinakar)和科林多伊尔(Colin Doyle)在《纽约时报》(New York Times)的一篇专栏文章中写道:“在预测暴力时,风险评估提供的是更神奇的思维,而不是有用的预测。”
预测性警务工具,或风险评估工具,是用来预测某人未来犯罪可能性的算法。根据美国国家司法研究所(NaTIonal InsTItute of JusTIce)的数据,预测性警务是:“(利用)信息、地理空间技术和基于证据的干预模式的力量,以减少犯罪和改善公共安全。”
随着人工智能的迅速发展,这些工具已经开始进入法官和警察部门的日常程序,法官利用它们来决定该如何判决,警察部门则利用它们来分配资源等等。它也被用来评估面临审判的人再次犯罪的可能性,以及他们是否应该被拘留。其中,法官最常用的工具之一被称为公共安全评估(PSA),它和其他许多工具一样,根据犯罪历史和个人特征来计算。
根据计算结果,该工具可能会将一个人标记为“新的暴力犯罪活动”的候选者。尽管该技术被定位为先发制人打击犯罪的一种方式,但专家表示,它的能力被大大夸大了。研究人员写道,在预测未来的暴力事件时,算法风险评估被吹捧为比法官更客观、更准确。
“从政治角度看,这些工具已经成为保释改革的宠儿。但他们的成功建立在这样的希望之上:风险评估可以成为纠正法官错误直觉的宝贵途径。”专家们反对这种预测犯罪算法的理由之一是对其准确性的疑虑。专家表示,这些工具往往高估了被指控者的暴力风险,而事实上,审判期间犯罪的可能性很小。
据报道,华盛顿特区94%的犯罪嫌疑人被释放,其中只有2%的人随后因暴力犯罪被捕。然而研究人员指出,在各州,有30%等待审判的人被拘留的情况并不罕见,这种比例的悬殊显然揭示了一个“过度监禁”的问题。研究人员写道,(这些工具)给法官提供的建议让未来的暴力事件看起来比实际情况更可预测、更确定。但在这个过程中,使用这种AI风险评估工具可能会持续性地导致大规模监禁情况的出现,并让人们产生误解和恐惧。
专家们说:“如果这项技术真正准确,它应该能预测出几乎所有人都处于零风险状态,因为统计上的可能性很低。相反,PSA牺牲了准确性,只是为了在暴力可能性低、不确定或无法计算的人群中区分出有问题的人。”而以此前提到的意在辨别恐怖分子的TIA系统为例,假设这个预言系统的准确性能达到99%,那么它理论上就能预言出恐怖分子群体中99%的未来罪犯,同时也会在无辜群众中错误将1%的人判定为未来恐怖分子。
假设在全美国3亿人口中有1000人是真正的“未来恐怖分子”,而剩下的299999000人都是清白的,那么理论上会有2999990人被错误地列入恐怖分子的行列。也就是说,这个系统将会逮捕将近300万无辜的人——几乎是那些真正罪犯人数的3000倍。
人工智能究竟如何预测犯罪?其实,其判断依据跟人类警察也大致相同。富有多年工作经验的警察们往往能总结出自己的一套辨别犯罪分子的依据,而破案时警察们也经常需要一些基本经验判断,如什么区域、时间容易犯罪率高发,什么人物更有可能犯罪等。
这些归纳性的判断有其意义,但对于某个特定个体而言,用类似分析去判定其“有罪”显然对其不公平。此外,算法的设计者也可能在算法中无意加入了自己的偏见,而机器学习算法的黑盒子属性让其设计者也不能肯定其判定逻辑是什么。
1980年代,美国军方使用机器学习算法训练机器分辨美苏两国的坦克,但后来却发现计算机并未真正认出两国坦克的设计不同,而是把像素更高的图片当作“美国坦克”,因为训练使用的资料中俄罗斯坦克的照片更模糊。“新技术有为善和作恶的潜在力量。如果你的假设没有被仔细考证,那么机器学习技术只会带来更多的不公平和加速现有的不平等。”普林斯顿大学法学系教授 Alexander T. Todorov 表示。
为了更好地预防犯罪,在近日对人工智能学家的采访中,研究人员建议减少对算法的依赖,将资源投入到更全面的措施中。