人工智能挑衅法律?
扫描二维码
随时随地手机看文章
人工智能是计算机学科的一个分支,二十世纪七十年代以来被称为世界三大尖端技术之一(空间技术、能源技术、人工智能)。也被认为是二十一世纪三大尖端技术(基因工程、纳米科学、人工智能)之一。这是因为近三十年来它获得了迅速的发展,在很多学科领域都获得了广泛应用,并取得了丰硕的成果,人工智能已逐步成为一个独立的分支,无论在理论和实践上都已自成一个系统。
今年5月,人工智能围棋程序“阿尔法狗”与世界围棋第一人柯洁之间展开一场“人机大战”,结果人工智能以3:0的成绩完胜人类棋手,引发关于未来人工智能取代人类的讨论。如今,人工智能炙手可热,今年3月,“人工智能”首次进入《政府工作报告》。人工智能变得“拟人”和“超人”,人们越是对其依赖和赞叹,越是恐慌不安。现实中,人工智能对现行法律制度的挑战已初露端倪,而未来如果人工智能具有自主性和情感,其法律地位及与人的法律关系定位将成为难题。近日由亚太网络法律研究中心主办、在北京师范大学举办的“网络与法律对话”学术沙龙上,来自法学界、网络安全界的专家学者围绕人工智能发展带来的法律挑战等问题展开了探讨,为应对未来挑战提供了对策与建议。
人工智能被列入各国战略
人工智能(artificial intelli-gence)近年来大热。联合国国际电信联盟刚刚在日内瓦召开了主题为“人工智能造福人类”的全球峰会,这是一个非常恢弘的题目。峰会有两个目的,一是加速人工智能的研发和应用,以应对贫困、饥饿、健康、教育和环境保护等全球性挑战;二是探讨如何确保人工智能的安全性并符合伦理规范,防止其带来意想不到的后果。
联合国层面对于人工智能是非常重视的,此前,联合国也有专门的报告。例如,联合国教科文组织与世界科学知识与技术伦理委员会2016年的报告就主要讨论了机器人的制造和使用促进了人工智能的进步,以及这些进步所带来的社会与伦理道德问题。
美国而言,特别是奥巴马时代,美国发布了若干关于人工智能的文件。立法方面,仅在今年,美国国会就提出了三部含有“人工智能”的法案,包括《2017创新团法案》、《2017全民计算机科学法案》及《2017在科学技术工程及数学领域中的计算机科学法案》。上述三部法案分别关注了人工智能技术对美国人生活质量的改善价值及可能对部分工作的替代作用,并要求商务、教育等部门加强有关职业培训或者中学生的计算机科学教育,其中就特别包括了人工智能的内容。
欧盟在数年前就开始了有关机器人计划及人脑计划,力争使欧盟在这两个关键领域处于全球领先位置,并充分认识到标准、规范和立法的保障措施将是有关工程的重要组成部分。去年,欧洲议会提出一项草案,建议赋予机器人基本的“劳工权利”,让这些为人类服务的“电子人”今后也能享有薪酬、版权保护和社会保险。虽然争议很多,但非常值得关注。又如,欧盟2012年开始做了一个“R oboLaw”(机器人法律)的项目,已于2014年结束。该项目主要研究对欧盟机器技术规制与伦理、法律及经济的影响。
今年3月,中国首次将“人工智能”写入《政府工作报告》。李克强总理2017年3月5日在第十二届全国人民代表大会第五次会议上指出:加快培育壮大新兴产业。全面实施战略性新兴产业发展规划,加快新材料、新能源、人工智能、集成电路、生物制药、第五代移动通信等技术研发和转化,做大做强产业集群。人工智能在中国同样是一件炙手可热的事情,聚集了众多的眼球、人才和资金。
虽然人工智能这个概念提出来已经有六十年了,时间很长,但是它现在这种自我学习能力,特别是机器学习能力的发展到了以前完全不可比拟的阶段。中国目前对人工智能的政策法律分析已经有了良好的开端,这方面我们要做的事情还有很多。
人工智能尚未改变现有法律关系
人工智能是当前的热点和焦点议题,一个重要的原因是在应用上有了较大的突破,比如在自动驾驶、无人机、精准医疗等方面,都取得了实质性的进展。我了解到工信部在牵头制定一个人工智能的国家战略,绘制人工智能产业生态地图,并发布人工智能白皮书。目前,关于人工智能的产业联盟也在筹建之中。在人工智能领域,中美两国目前走在前列。美国已经出台了人工智能研发战略,而且其发布的其他战略比如大数据发展战略也与人工智能紧密相关。可以说人工智能已经成为两国产业发展的制高点,未来的竞争态势也会趋于激烈,这将有助于人工智能的进一步快速发展。
当前人工智能发展很快,有几个主要原因:首先,大数据的发展。数据是人工智能发展的前提,越来越多的应用场景产生了海量的数据,为人工智能的应用落地提供了宝贵的素材。其次,新的算法技术进一步提升了人工智能的发展。人工智能不是新事物,但由于算法技术的发展,包括与神经学科、生物医学学科等的交叉融合,人工智能越来越具备人的特征。第三是计算能力的快速发展。
人工智能的飞速发展,带来了应用的快速落地。但正如硬币具有正反两面,人工智能也是如此。一方面它降低了风险,另一方面也带来了新的风险。以自动驾驶为例,一方面可以显著降低由于人工驾驶产生的疲劳驾驶、误操作带来的交通致死率,另一方面也可能因为网络侵入造成惨烈的交通事故。这时候就需要不断地进行场景测试验证,并赋予人工智能最为合理的选择方案来取得最佳平衡。
人工智能的发展,将会对社会治理、法律制度、监管乃至社会伦理等产生影响。比如,随着人工智能的高度智能化,机器越来越具有人的属性,可能对婚姻制度、家庭伦理等产生大的影响。对于社会治理、法制制度、政府监管等,也会有越来越多的挑战。目前还是处于前期阶段,我们还不能对这些问题有系统性的认识,但可以做一些前瞻性的研究,并作出预判。
人工智能会给法律造成影响。我们不会去制定一部人工智能法,而是在不同领域、不同产业,探究人工智能的发展对该领域、产业的影响。哪些可以适用现有法律规则,哪些需要对现有制度进行修正,甚至制定新的法律规则。
人工智能会给法律制度带来挑战,但现阶段无需过于担心。其实,它没有从根本上改变现有的法律关系。法律关系是在社会活动中人与人之间产生的权利义务的分配关系。人工智能迄今还是一个辅助工具,其产生的问题,比如自动驾驶的侵权问题,归根结底还是可以在自动驾驶方案提供者、汽车厂商或者使用者之间进行归责而解决。未来也许人工智能通过不断学习会产生新的法律关系主体,但是这会是一个过于遥远的话题。总之,人工智能的法律挑战是一个既有现实性也具有前瞻性的话题,现在希望给出系统的法律解决方案、监管框架乃至监管模式都还为时过早。
“时空压缩”叠加人工智能的风险
讨论需要一个前瞻性,也需要一个限制性。对于将来发生的事情我们可以做一个探讨,但也不必遥远到科幻甚至玄幻的程度,这是我的一个基本判断。从法律角度看,考虑到自主意识,我认为人工智能发展要分为三个阶段:
第一阶段,AI处于增强辅助人类的阶段。这个阶段不管是siri也好其他也好,还是纯粹工具的阶段,对它的使用是为了增强人类本身;
第二阶段,AI与人类共生共存。这个阶段比起上个阶段,人类离不开它了,人类对人工智能产生深刻的依赖;
第三阶段,AI可能会控制人类。这个就到了我所说的科幻玄幻阶段了,电影里面也有所呈现。而这个场景是否会发生,也是我们人类在思考的一个问题。
目前我们处于第一阶段,机器还属于工具,当前的法律属于基于自己的自主行为,我们讨论的问题都属于第一阶段。如今中国的发展处于一个时空压缩的阶段,其特点在于我们需要在短时间内走过一些国家很长时间里走过的很多路,并且还要面对一系列新问题,比如技术应用、法律问题、社会问题的叠加。我国要关注的几个最主要的问题是:
第一,人口问题:机器人的使用和人工智能的使用对我们人口老龄化或者人口未来结构调整有什么影响;
第二,法律问题:在我们目前处于的第一阶段,人工智能仍然是人类的工具,就像侵权责任法中的物件责任,物体伤害了别人,还是需要你负责。法律只需做细微的调整就可以适应人工智能带来的法律问题,特殊产品责任、知识产权、大数据等都是常见问题;
第三,财务分配问题:随着机器生产能力的提升,生产力得到了较大的解放,我们会对马克思经济学产生新的理解,对未来财务分配产生新的思考,比如人类是否还为了生存而工作将成为值得思考的问题。
由第一阶段迈向第二阶段的时候,程序员的作用十分关键,人类可能只有一次机会设定程序,这个初始设定是很重要的。我们给机器人设定的红线是什么?人类的价值观能不能教给机器?机器会不会严格执行?计算机成为一个严格的执法者会不会对人类造成伤害?这些都是我们要讨论的问题。
刘德良(北京师范大学法学院教授、亚太网络法律研究中心主任)
控制引导人工智能的发展
从当前技术的发展和人工智能概念的界定等方面来看,人类已经迈入人工智能时代了。从技术上来讲,人工智能原本是作为人类的工具被开发设计出来的,但是在未来有没有一种可能,人工智能会超越工具的范畴,站在人类的对立面?
国际竞争层面,中国、美国和欧洲等在国家战略和产业发展方面存在博弈,比如当前美国对人工智能的态度是扶植这个产业的发展。如果放在整个人类层面,人工智能会不会被一些别有用心的人开发设计出来,最后致使人类无法控制?既然人工智能的开发与利用在未来有这种不可控的可能性,那么人工智能作为一个策略,国家产业发展政策或者整个人类社会该怎样去引导?显然当我们所站在的利益层面不一样,从不同的格局来看待,人工智能确实会带来一些问题,特别是当人工智能有情感、有意识并有自我学习能力的时候。将来一些婚姻伦理问题、情感问题,诸如人类和机器人结婚,在立法上可以不承认,但是当这些确实又存在,就会成为一个问题。
从现阶段来看,人工智能仍然属于一种工具层面的东西。如果从法律层面如民法层面上讲,我们可以把它作为一种工具,一种物。但是对于其中一些有特殊情感的人工智能,在立法上我们将其作为一种特殊物来对待。当我们站在未来发展的角度来讲,我们现在对A I产业发展的规制,就是要保障未来人工智能能朝着一个健康的、可预测的方向发展,所以人工智能发展一定需要国家政策的监管和引导。
人工智能最关键的东西,实际上就是它的算法。未来,我国乃至整个人类社会如何实现对这个算法的监管,让它朝着一个安全可控的方向去发展?当然在研究这个算法的时候不仅需要相关领域的技术专家,还需要社会学等专家学者的共同参与,从而保障它的安全可控。宏观上,我认为整个国际社会都应该朝着这个方向努力。
从民法层面来讲,人工智能不仅会产生人工智能致人损害的问题,还包括人工智能被损害的问题。其被损害的不仅是硬件,可能还有软件,比如非法入侵对人工智能造成损害的,未来还有人与人工智能共同生活时,人工智能遭受侵害的。按照我的理解,人工智能实际上就是民法上的特殊物,那么他人造成人工智能损害的,不仅要给予其物质损害的赔偿,还应当给予其精神损害赔偿。
在人工智能产业的发展中,不仅会发生人工智能被侵入、人工智能的程序被修改等人工智能遭受他人侵害的问题,还包括第三人介入的损害。这就需要在人工智能产业发展的时候注重信息安全,防止非法侵入。人机接口、人机混合体其实是我最担忧的。人机混合体在未来的发展要不要受到控制,要不要受到引导?要的话,我们怎样去控制、怎么样去引导?
当前的很多问题都可以用我们原有的法律框架来解决。但是人工智能也确实引发了一些新的问题,尤其是在政策引导、国家层面的、国际战略上的新问题。我们国家将来在这些方面要能够起到一些引导作用,而非跟着别人走。