当自动驾驶汽车遇上道德抉择
扫描二维码
随时随地手机看文章
笔者最近阅读了一篇《MIT Technology Review 》的精彩文章,题为“为何自动驾驶车一定得被编程为杀人工具(Why Self-Driving Cars Must Be Programmed to Kill)”。
该文锁定一个棘手的问题:“当遭遇无可避免的事故,自动驾驶汽车的反应该如何被编程?自动驾驶车辆是否该将人命的损失减到最小,甚至意味着得牺牲车上乘员?或者是它应该要不计代价保护所有的乘客?它该在这两个极端中随机做选择吗?”
在文章里还举了一个假想的危机为例:有十个人突然出现在大马路上,驾驶人以高速行驶而且看来无法及时煞车;这时驾驶人是该为了救自己的命而撞向其中一个或所有行人,还是冒着生命危险在高速中转向?
问题的关键是,在未来的某个时间点,汽车工程师需要协助自动驾驶汽车做出道德决策;如果是这样,谁能选出最有“道德”的做法?在琢磨这一点时,我突然灵光一闪:“为何我们坚持一辆自动驾驶汽车得做出关乎生死的选择?”
当然,我想要尽可能挽救最多无辜行人的生命,但我也不想伤害到我车上的乘客,而且我肯定也不想死。我们自己假设了一个没有单一正确解答的极端情况,有鉴于该种不确定性,为何我们不让车子来做这种不讨好的道德抉择?在那之后,当幸存者调查那场事故时就能说:“好吧… 车子只是跟着它的程式走。”
根据自动驾驶技术的数位逻辑,现在唯一的选择只有“不计代价拯救所有乘客”,但是人命以及大部分道德抉择都比那复杂得多;根据调查,大多数驾驶人都表示会在紧要关头冒着生命危险拯救他人(可惜该调查都是问路人,而不是自动驾驶车辆的主人)。
可编程汽车
随着自动驾驶汽车越来越朝软体密集发展,有一个解决方案是能期望该类车辆更具弹性与个性化──根据车主的个人倾向来预先编程(pre-programmed)汽车的行为表现。
表面上看,让自动驾驶车辆能读车主的心思并扮演上帝的角色,是令人不安的;但以目前科技变化的速率,某些版本的这种方案看来是不可避免的。自动驾驶车辆的可编程性已经让驾驶座上的人,在尽管没有驾驶车辆实质动作的情况下也能做决策;而现在的问题在于如何让决策过程更人性化。
在与人命较不相关的情境下,我现在认为那种“可编程性”能让自动驾驶车辆“更具驾驶乐趣”;当我进入我自己的自动驾驶新车,我难道不应该可以选择我那天想怎么开我的车吗?就如同我的朋友Brian Santo说的:“你可能会有一个排列整齐的下拉式选单,就像是Word应用程式那样。”
那些“驾驶模式”选项,从“老太太模式(也就是相当谨慎)”,到“不要命的波士顿小黄司机”,中间可以有很多变化…是的,因为买了一辆自动驾驶汽车,我可能在大多数时间不需要再自己去操作方向盘与煞车;但我仍能把车子“导向”我个人喜好的风格,或是心情。