人工智能的道德标准:机器人应该被允许投票吗?
扫描二维码
随时随地手机看文章
机器人达到奇点并变得比我们聪明时,那么它们就会超出我们的控制。如果他们的程序中没有被编入道德准则,那么他们很可能会终结我们。这就造成了各种各样的问题。如何为道德编程?程序员眼中的道德是什么?如果机器人需要一个道德规范,谁来决定这个道德规范是什么?
当你在2018年与一名数字客户助理交谈时,你可能会觉得自己和一个人在说话。到2029年,机器人可能会比我们聪明。虽然人工智能的想法令人兴奋,但我们仍然不清楚人工智能在日常生活中会产生多大的影响。与人们谈到人工智能时,有人表示他们非常向往悠闲的生活,因为机器人会替他们完成所有繁重的工作。而另外一些人则暗暗地告诉你,机器人注定要奴役我们。
对许多人来说,我们之所以减缓对能独立思考的机器人的追求,很可能源于我们对未知的恐惧(以及所有那些终结者电影)。但如果你曾经用过自助付账,和Siri说过话,或者看过Netflix的视频,那么你就已经在和人工智能互动了。自动驾驶汽车、无人驾驶飞机和护理机器人很快将成为生活中正常的一部分。
奇点来临
当机器的智能超越人类的智力的时,则被称为奇点。但是如果机器人决定不需要人类的控制时会发生什么呢?
在《Futurescape with James Woods》的第二集中,首先出现的是一个机器人走向投票站。在抗议者的簇拥下,她的眼睛扫视着一个戴着徽章的男人,上面写着:“没有灵魂就没有投票权!”
Woods说道:“人们认为机器人投票很荒谬。正如我们所知道的,人们对1870年的黑人和20世纪初的妇女也有同样的看法。我们目前还不会给程控机器人公民权利。因为他们不能像我们一样思考。但是现在,这些界限已经模糊了。每天我们都越来越接近人类和机器真正融合并重新定义人类的意义的那一天。”
人类和机器的区别是什么呢?机器是可编程的,其修理也是机械的。我们也相信人类有思想,有灵魂,有自由意志。但是,一些科学家认为,总有一天,我们会发现大脑如何真正工作的线路,并最终消除人类和机器人之间最后的屏障。
加州大学洛杉矶分校已经开始做这方面的研究。Arthur Toga博士正在绘制人脑中神经元之间的联系,这将给我们呈现出大脑的全貌。这不仅帮我们识别人类的错误布线,而且也能解密那些使我们人类独一无二的特殊事物。
获得意识
为了感受情感,机器人必须能够具有意识。
未来学家Ray Kurzweil认为,机器人将在2029年获得意识,他指出,目前对人类大脑的研究表明,神经元之间的联系是实时的。尽管科学家可以看到我们的大脑创造出的想法,但是想要在机器人中复制这种想法并不是合理的。由于这个原因,“机器人道德”的概念正吸引着来自神学、法律、心理学、伦理学,人权和哲学的学者们。
超人工智能
Stephen Hawking也谈到人工智能,他警告称,“超人工智能”可能与人类的末日一样,而且持有类似观点的专家也越来越多。Steve Wozniak和Bill Gates警告说,机器人可能会威胁到我们的生存。当机器人达到奇点并变得比我们聪明时,那么它们就会超出我们的控制。如果他们的程序中没有被编入道德准则,那么他们很可能会终结我们。这就造成了各种各样的问题。如何为道德编程?程序员眼中的道德是什么?如果机器人需要一个道德规范,谁来决定这个道德规范是什么?
其中一个答案是直接将行为规则编程到机器人的软件中。可以是具体的规则(如《十诫》),也可以是理论如功利主义。重要的是,这些机器人一旦被赋予硬编码指南,那么这些指南就可以作为机器人所有决策的基础。这在理论上听起来不错,但让机器人在现实中做出快速的决策可能非常困难。
另一种想法是自下而上的方法,机器从经验中学习,而不是填鸭式似的被输入各种必要的规则。这就减少了机器人电脑的压力,因为它不需要考虑每个动作的影响,而且可以简单地使用习惯性的反应,促进伦理和道德行为的有机发展。
质疑人类
如果我们能开发出有意识的机器人,那么他们会成为人类吗?在这种情况下,难道他们不应该享有和其他人一样的权利吗?
斯坦福大学的科学家们目前正致力于研发神经网格,这是一种能够实时模拟大脑活动的硬件。这台超级计算机的大小相当于一台iPad,有朝一日可能成为一台能独立思考的机器。
神经网格甚至可以复制人脑的线路。人类和机器人之间的唯一区别,是人类有更多的神经通路,这意味着机器人能够独立思考只是时间问题。
但是,如果机器人变得有自我意识,它们和我们的区别又会是什么呢?
Nao时代
Nao是一个身高为58厘米的人形机器人,它已经可以讲故事、走路以及做决定。但它所能做的远不止这些。Nao也有道德规范,在选择行动之前,它可以在任何情况下权衡所有的选择。Nao使用一系列真实或虚假的陈述来识别伤害、利益以及每个选项的利弊。其创造者通过列举生物伦理学家在自主性、利益和对病人的伤害方面已经解决的冲突,来教授Nao图和解决这些类型的问题。
Nao的学习算法允许它对这些病例进行分类,找出一些模式来帮助它在新的情况下做出决定。例如,Nao会根据患者病情的实际情况来提醒患者什么时候吃药。当一个患有轻微病情的患者不想现在吃药时,Nao也会同意她当前的做法,但是过一段时间还是会提醒她吃药。
机器人会有感觉吗?
人类的生存依赖人类彼此之间建立的紧密联系,也依赖彼此的情感。我们从一出生就开始表达自己的情感,也从其他人那里了解人类的情绪。
Nao能够下载新行为,进行眼神交流,识别人脸,并对用户作出反应。这对患有自闭症、受过过度刺激或语言沟通有障碍的儿童来说是非常宝贵的,而且机器人可以帮助他们学会识别情绪。研究表明,实际上计算机比我们更擅长阅读与表达,这意味着我们对机器人说谎越来越困难。
去年,Nao的创造者Aldebaran发布了一款新的机器人Pepper。这款机器人是第一个与人类生活在一起的机器人,它能够反映出用户的情绪状态——这是人类在婴儿时期开始做的事情。这是双向的,当机器人反映我们的情绪时,我们本能地反映他们的情绪,感受与他们的联系,并帮助他们完成任务。
虽然机器人还不能感知情感,但它们已经能够表现得像它们能够做到一样。2014年,一个名为Eugene的机器人通过了图灵测试。这个测试的命名是为了纪念一位名为Alan Turing的计算机先行者。这个测试用于测试计算机是否能“智能化”,而且基本上是模拟游戏。一名人类法官坐在电脑屏幕的一边,与其他人类交谈,而且还有一个聊天机器人也在其中,该机器人被用来诱导法官,让他认为这也是人类。
图灵测试已经存在了20多年,而且Eugene(被编程作为一名13岁男孩)让33%的法官认为它是人类,这表明即使机器人已经能够足够智能且有效地欺骗与它们所交流的三分之一的人类,但它仍然还有很长的路要走。
理解人格
欧洲议会投票赞成起草一项法规来管理人工智能和机器人的创造与使用,包括“电子人格”,这将赋予机器人权利和责任。
在美国现行法律下,公司是法人。那么为什么机器人或电子人不能成为人呢?这将对制造机器人的公司产生巨大影响。如果他们创造出一个机器人,而那个机器人创造出一个可以申请专利的产品,那么谁会拥有专利呢?机器人?还是公司?
更重要的是,作为“人”很重要的权利就是投票权。很多人认为,如果机器人对自己的行为负责,那么他们应该有权投票或担任陪审员。但是要想投票,机器人需要对正确和错误有一个非常综合的理解。
人类拥有的另一项关键的权利是繁衍后代。因为机器人能够实现无限的自我复制,因此允许他们投票就必须能够有效地控制他们。正是出于这个原因,许多伦理学家认为,机器人应该有繁殖的权利,或者投票的权利,但不是两者兼具。
Ryan Calo是华盛顿大学专攻网络法律和机器人技术的法学教授。他供职于CITRIS,这是一个关于人和机器人的咨询委员会。他把这种困境称为“复制与投票悖论”。
如果有一天人工智能机器声称它已经具有了人格,有知觉,能感知痛苦与快乐,有尊严,而且我们又无法反驳的时候,我们可能无法否认它将和我们享受的一样的人权。如果那台机器声称它应该能够繁殖和投票,然后无限地复制自己,那么民主就会完全被破坏。
所以,机器人应该有投票权吗?
机器人应该投票吗?
一旦机器人变成了“人”,享受与人类同样的权利,他们也必须承担同样的责任。这就意味着机器人将会由于造成伤害或犯错误而被控告,并且在法律体系下也会受到惩罚。
同时还存在另外一个问题。虽然欧盟可能准备授予机器人人格,而且美国正鼓励使用伦理,但谁能说其他国家也会这么做呢?随着世界各国开始利用人工智能,自主机器人制造生命或死亡的决定可能很快成为战争的共同特征。中国和俄罗斯政府已经在努力争取超越其他国家的优势,从而发起一场新的军备竞赛。
来自澳大利亚新南威尔士大学的Toby Walsh教授已经多次向联合国提出建议,倡导成立一个国际机构来预防“机器人成为另一种战争武器”。
毫无疑问,人工智能的伦理意义将是人类未来50年面临的最大挑战之一。理想情况下,我们最终将能够利用机器人和人类的力量,并在道德方面对它们进行整合,未来之路必将荆棘丛生。