人类最大的难题:如何保证机器人的伦理道德
扫描二维码
随时随地手机看文章
机器人正在全速朝着智能化发展,但是智能化机器人可能会遇到一个大麻烦,也是人类在遭遇的大麻烦。如机器人要不要和人类一样遵守法律法规?机器人究竟要遵守什么样的规矩?要受怎么样的约束?问号一连串,但谁能回答?
就拿“助行机器人”来说,这是由上海交通大学机器人研究所最近研发成功的,这种像一部“智能小车”的机器人,能自己识别道路,自行确定行驶路线……带着行动困难或视力有障碍的人出行。但这款机器人真要实际应用,甚至推向市场,障碍还很多:它应该遵守什么交通规则?是针对行人的交通规则,还是机动车行驶规则?如果它造成了交通事故,该如何处理?这些问号目前还无人能回答。
曾经在上海世博会露过面的另一些机器人,比如伴侣机器人、餐厅机器人、医疗机器人,一样让人纠结:如果它们在工作中出了差错造成事故,该由谁负责?特别是,这些机器人都是“高智能”的,有学习功能、能“自学成才”,也就是说,一段时间之后,它不再是出生时的它了;它会像人一样,根据自己的所“见”所“想”自作主张——要是想法走偏瞎搞一气怎么办?人类创造了机器人,但机器人一旦拥有智能,需要的就不仅仅是维护和修理,更得做规矩约束,要让它的想法和行为合乎人类世界的伦理道德。
其实国外很早就有人在关注机器人道德问题,提出了著名的“机器人三原则”:机器人不能伤害人类,也不能眼看人类将要遇到伤害而袖手旁观;机器人必须服从人的命令,除非这些命令与第一条原则相违背;机器人应该能保护自己,但与前两条原则相违背的情况除外。对于机器人用于医疗领域和研发医疗机器人,目前美国未加限制,欧洲定了一些规矩,而日本根据“机器人三原则”,明确禁止。但更多人认为“伦理道德还不完善”的机器人,不适合用在敏感领域。比如机器人具备人工智能,可以自主学习并独立手术,但如果“学艺不精”出了事故,那是不是意味着没有遵守“三原则”?或者,机器人在手术时发现患者病入膏肓、已没有继续手术的必要,因此不做了,那又如何评判这种行为的对错?因此,机器人的伦理道德还不完善,随着智能机器人研发的不断进展,当机器人也会有想法时,这个问题就更复杂了。
目前,国内研究机器人伦理道德的学者寥寥无几。现在学界很看好第三代机器人技术,这种被称为“泛在机器人”即“无所不在的机器人”的有智能的家伙,可以识别人的声音指示,甚至能学会对主人察言观色,满足主人的需求……可是,如何保证机器人的判断和行为符合人类伦理道德,包括保证它不为了满足主人的要求而违背人类伦理道德呢?在机器人越来越智能化,越来越普及的时候,这些问题将会成为人类面对的最大难题。