英国科学家呼吁出台机器人道德规范
扫描二维码
随时随地手机看文章
“机器人”越来越能干,并已进入人们的生活。法新社18日说,2008年,全球共出售550万台机器人,估计今后两年销量将翻一番,达到1150万台。
19日,英国谢菲尔德大学教授、人工智能专家诺埃尔·夏基在美国《科学》杂志上发表《机器人的道德前沿》一文,呼吁各国政府应该尽快联手出台机器人道德规范。
-机器人保姆
给你贴心服务的保姆
如今,机器人在家政、护理、医疗等方面的作用越来越大。
英国《每日电讯报》10日报道,33岁的加拿大人勒忠,设计制造了一个叫“爱子”的“机器人女友”,可以照顾家庭、24小时不休息地干家务,照料主人生活的各方面,还能与主人的朋友交流。
在日本、韩国等一些国家和地区,机器人被用于充当人类日常生活的帮手,至少有14家公司已经可以提供“机器人保姆”服务。这些机器人,会认人,会和孩童玩耍,替老人解闷,甚至会“娴熟”地给老年人或残疾人喂饭。
在中国香港中文大学医学院,有机器人会给人做微创技术的手术。韩国政府的一份最新报告预测,机器人在2018年将可以为病人施行普通手术。
这些保姆是有危险的
目前机器人的价格,比1990年已下降了近80%。韩国科学家预测,到2015年至2020年,每个韩国家庭将拥有一个机器人。有专家估计,到2020年日本将有25%的人口年龄超过65岁,护理型机器人将供不应求。
但诺埃尔·夏基认为这些“保姆”会威胁到主人。
他在《机器人的道德前沿》一文中说,机器人进入人类家庭,给一些“较虚弱的群体”带来很大的威胁,如老人和孩童。这很危险,可能会出现道德危机。
很多父母因为忙,可能选择“机器人保姆”来照顾孩子。问题是,如果一个孩子长期与机器人接触,缺乏父母的情感呵护和悉心照顾,可能会变得“冷漠、麻木,与社会接触少,有被隔离的感觉”。
夏基在猴子身上做过实验。结果发现,被机器人照顾长大的幼猴,“无法与其他同类交流或交配”。
夏基的担心是多方面的。比如,人类对机器人的长时间使用;机器人出现问题时可能出现对它的“殴打”,或者破坏零件;对机器人产生情感依赖时对它的软件改写与破坏等等。
有这种担心的不仅夏基一个人。韩国信息通讯部机器人研发小组负责人说:“一些人可能对与机器人交谈感兴趣,甚至还会上瘾,就像很多人对上网上瘾一样。”
-机器人道德规范
担心的伦理道德问题
夏基针对的实际上是制造和使用机器人的人。他认为,像影片《我是机器人》和《终结者》中出现人类与机器人对峙的局面,现实生活中不一定会发生。
他说:“我不认为机器人会控制人类。它们只是电脑零件组装的机器而已,并没有思维。只有科幻电影才会这么写。”
夏基担心的是人类在使用机器人时遇到的伦理道德问题。他强烈建议,各国政府联手制定一套道德规范,而不是“各自为阵,互不通气”。
他说,如果各国政府不尽快出台机器人道德规范,那么老人和孩童的安全得不到保证,他们的生活,可能只能由机器人制造商和忙碌的父母掌握。
“不能等到机器人已经开始大规模使用,才后悔,这应该在机器人批量生产前,就出台规范机器人的行为,给他们规范道德守则。”
机器人三原则
其实人们早就提出过机器人道德规范问题。
1940年,美国科幻作家伊萨克·阿西莫夫提出著名的“机器人三原则”:
一、“机器人不得危害人类”;
二、“必须服从人类的命令”;
三、“在不违反第一条和第二条的情况下必须保护自己”。
日本为了保护人类在使用机器人过程中不被伤害,起草过一份60多页的文件,名为《下一代机器人安全问题指导方针(草案)》,起草的是包括企业界人士、科学家、政府官员以及律师在内的一个专业团队。
文件说:“生产厂家必须在机器人身上装上足够多的传感器,防止失足撞上人类;机器人应该使用更软、更轻的材料,从而减少对人类的可能伤害;在机器人身上装按钮,一旦机器人发狂,人类可以通过触按这些按钮及时将它们驯服,各种与机器人有关的法规已经出现。”
韩国也起草过《机器人道德宪章》,主要内容是:确保人类对机器人的控制、保护机器人获得的数据,并防止违法使用机器人,并准备将道德标准装入计算机程序,以防止人类虐待机器人。
这些文件,从某种意义上来说,是对阿西莫夫“机器人三原则”的细化。
打造有道德的军事机器人?
鉴于军事机器人的特殊性,韩国起草文件时,将军事机器人排除在外。
上月底英国《每日电讯报》报道,美国国防部斥巨资开发战争机器人时,雇用了道德规范领域的英国专家,协助研制不会违反《日内瓦公约》的新型战争机器人。这种机器人能够自主辨别何时、向谁开枪,能够识别救护车和平民。
不过夏基教授说:“听到这个设想我不禁打了个寒战。我已经在人工智能领域工作多年,但让机器人来决定人类的终结,这种想法太可怕了。”