以人类道德标准来要求机器人,行吗?
扫描二维码
随时随地手机看文章
Gary Marcus与Robin Young均提及Isaac Asimov所建构的机器人三大 法则,以这些法则在一个无人驾驶的汽车世界中意味着什么。例如,如果你的汽车在行经一座桥梁时,刚好遇上一辆校车在你的面 前突然回转。那么,您的无人驾驶汽车该救你还是校车上的一群学童?
以技术面来看,这些问题中有许多情况(并非全部)应该是发生故障了。因为,在未来的世界里,公共汽车并不会突然回转到你的车道上,因为公车车队将成为首先配备主动式安全电子系统的对象;或许不见得是无人驾驶公车,但也绝不容许驾驶人员突然改变车道。无人驾驶汽车在面对这种关键时刻的反应速度比你个人更快得多了。
不过,如果真的为所谓的“机器人道德”而感到伤脑筋其实也很可笑:因为它先认定了人类的道德准则最优越且具普世价值,而事实上,他们和人类几乎完全不相同,在文化上也各异其趣。
就算是每个人的价值观也不尽相同。你曾经和孩子或朋友们玩过道德游戏吗?例如你提出了一个问题:“你会去偷食物来喂饱饥饿的家人吗?”我想,并不是每个人都的答案都一样。
从未来10年后的技术发展趋势来看,我想届时机器人的决策行为对于社会的影响可能比起今日的情况更好,对于道德伦理的考虑也会更不一样。这一切可能会从自动侦测到驾驶人喝太多酒而使车子无法发动开始。
随着机器人技术变得更智能化、更“人性化”且更普及,还会出现更多我们无法想象的种种挑战。未来针对机器人道德规则的制定将是不可避免的。
特别是Asimov在“机器人三大 法则”中的第一条规则更形重要:机器人不得伤害人类,或坐视人类受伤害。其次,机器人必须服从人类的命令。第三,在不违背第一法则及第二法则的情况下,机器人必须保护自己。
为什么呢?因为在某些情况下,机器人可能决定在必要时必须牺牲你,而拯救一群人,才是对社会最好的决定。
对于必须作出攸关生死决定的人而言,要建立或编写这些规则是十分艰难的。也许我们应该委托机器人来进行。
你认为呢?
编译:Susan Hong