人工智能工具正在影响生活和自由
扫描二维码
随时随地手机看文章
警察部队和法院使用新一代人工智能工具来确定要巡逻的社区、构成重大威胁的个人,并帮助法官准予保释和宣判。
在过去的几年里,人工智能、神经网络和机器学习的进步几乎触及了人类生活的方方面面。许多行业、政府和研究机构都加入了人工智能的行列,以提高性能、提供新的更好的服务以及设计新的产品和应用。
在工业领域,人工智能和机器学习正在推动生产、产品开发、物流、维护和企业效率其他方面的新方法。
在医疗保健领域,人工智能和机器学习正在帮助诊断、发现药物与不同条件之间的关系,并加快新药开发。没有它,我们可能仍在等待 Covid-19 疫苗。
虽然上述改进主要是积极的,但在其他社会方面使用人工智能会产生许多无法预料的后果。例如,人工智能目前用于筛选工作申请,确定谁应该和谁不应该接受面试;金融机构越来越多地使用机器学习来提供算法来评估信用度,保险公司使用人工智能来调整保费。
虽然这些方法可以提高性能和更好的投资回报,但相同的算法直接影响数百万人的生活,人工智能将其视为数据库中的数字和个人资料。
监视和执法
不幸的是,这种使用人工智能影响人类生活的趋势并不止于此。近年来,执法部门和法院正在使用人工智能和机器学习来确定如何在不同地区分配警察部队、哪些人更有可能犯罪、谁应该被拘留或保释,以及刑罚的轻重。
许多警察部队和其他政府机构一直乐于使用新技术来加强监视、改善警务并帮助调查。诸如假蜂窝发射器、无人机、面部识别、GPS 位置跟踪器等技术在全球数千家机构的武器库中。
除此之外,许多城市还为警察单位提供基于人工智能的系统来预测犯罪活动。这些算法旨在持续监控数据库,并将热点标签分配给大多数犯罪报告和逮捕发生的地方。
预测性警务技术使用历史和实时数据来预测犯罪最有可能发生的时间和地点,或者谁最有可能参与或成为犯罪活动的受害者。
问题在于,用于增加/减少某些地区警察存在的算法是自我实现的:更多的警察存在转化为更多的逮捕,算法将其解释为同一地点的更多麻烦。相反,在其他地方,尤其是在逮捕事件较少的高收入地区,算法会确定那些是安全社区。
人工智能工具越来越多地被用作风险评估的一种手段,尽管它缺乏透明度和公平性,但它也无济于事。算法设计缺乏透明度使得几乎不可能检测到可能嵌入偏见的问题。
“在美国,黑人比白人更有可能因犯罪被捕,即使他们的犯罪率相似。” 人工智能研究员 Janelle Shane 在她的畅销书“你看起来像一件事,我爱你”中说。她补充说:“机器学习算法不仅会从他们的训练数据中获取偏见,而且它们往往比他们的训练数据更有偏见。从他们的角度来看,他们只是发现了一个有用的捷径规则,可以帮助他们更频繁地匹配训练数据中的人类。[...] 他们不知道模仿偏见是错误的。他们只知道这是一种帮助他们实现目标的模式。由程序员来提供道德和常识。”
法官、陪审团和刽子手
虽然使用人工智能来帮助优化执法资源和他们应该更多地监管的社区,但近年来出现了一种更麻烦的算法使用:刑事法庭法官使用人工智能和机器学习进行量刑。前联邦法官 Katherine B. Forrest 认为,当前用于自由决策的人工智能工具是基于“功利主义”的正义框架和不符合美国宪法和独立宣言中体现的个人公平。
“人工智能工具正被积极用于做出影响任何人拥有的最神圣的个人权利的决定:生命和自由。影响生命和自由的决定必须基于道德和正义的公平和保护个人宪法权利的框架。” 福雷斯特说,并得出结论。