2016年人工智能搞砸了这十件事件
扫描二维码
随时随地手机看文章
过去一年,人工智能技术正在复兴。无人驾驶、语音识别,以及成为围棋大师的AlphaGo都反映了人工智能的快速发展。然而我们也要注意到,人工智能可能会出现问题。我们需要从中吸取经验,避免未来更多的错误。
近期,路易斯维尔大学信息安全实验室主任罗曼·雅博尔斯基(Roman Yampolskiy)在一篇论文中总结了人工智能遭遇的失败,这些问题与“人工智能系统设计带来的问题直接相关”。
雅博尔斯基表示,这些问题可以归因于人工智能系统学习或应用阶段的失误。
根据雅博尔斯基和其他多名专家的介绍,TechRepulice网站总结了2016年人工智能的10大败笔。
1、用于预测犯罪的人工智能变成种族主义者
Northpointe开发了一款人工智能系统,能预测有案底的罪犯再次犯罪的可能性。这被认为存在种族歧视倾向:系统一般认为,黑人罪犯再次犯罪的风险更高。
另一家名为ProPublica的媒体评论称,无论罪犯是什么种族,Northpointe的软件“通常都不能实现有效的预测”。
2、电子游戏中的NPC制造出突破原计划的武器
今年6月,一款名为《Elite: Dangerous》的电子游戏发生了出乎意料的事件。人工智能在游戏中开发出了超级武器,突破了游戏设计。根据一家游戏网站的报道,“玩家被拉进战斗中,而对方的舰船配备了可笑的武器,会将玩家撕成碎片”。游戏开发者随后将这些武器下线。
3、机器人误伤幼童
今年7月,Knightscope平台开发的“打击犯罪机器人”在硅谷一家购物中心撞上了一名16个月大的幼童。
根据《洛杉矶时报》的报道,该公司表示,这是一起“奇怪的事故”。