关于人工智能的法律权益,你怎么看?
扫描二维码
随时随地手机看文章
人工智能可以对人的意识、思维的信息过程的模拟。人工智能不是人的智能,但能像人那样思考、也可能超过人的智能。人工智能是一门极富挑战性的科学,从事这项工作的人必须懂得计算机知识,心理学和哲学。人工智能是包括十分广泛的科学,它由不同的领域组成,如机器学习,计算机视觉等等,总的说来,人工智能研究的一个主要目标是使机器能够胜任一些通常需要人类智能才能完成的复杂工作。但不同的时代、不同的人对这种“复杂工作”的理解是不同的。我们现在是否也需要思考AI的权利了呢?
你必须争取的AI权利
大家都已经清楚地知道,人工智能机器在复制人脑的道路上走得越来越远。从某种程度上讲,我们目前的人工神经网络所拥有的神经元比蜜蜂和蟑螂等生物还要多,而且数量在不断增加。
而最大型的项目旨在创造更多的生物合成算法,目的是复制人类大脑的运作方式,而不只是简单地模仿我们的记忆方式。此外,还有一些项目旨在将人类意识转化为机器形态,或者类似于所谓的“OpenWorm”项目,这一项目旨在为微小的雌雄双性线虫构造出人类的神经连接体(即中枢神经系统的连接图),而这是人类迄今所能完成的唯一一幅完整的神经连接体。
在2016年进行的一项调查中,175名行业专家中有90%的人认为,到2075年,人工智能可以达到与人类对等的水平。
在我们达到这个水平之前,随着人工智能逐渐超越动物智能,我们将不得不开始思考,人工智能的权利与我们给动物定义的“权利”之间有什么关系。想象一下,强迫智能电梯上下移动的行为可能是很残忍的。几年前,英国科技作家比尔·汤普森曾写道,人们在开发AI产品时总是倾向于不伤害到自己,“这反映出人们总是认为人工智能是为人类服务的,而不具有独立的思维。”
然而,我们现在所面临的最紧迫的问题关乎到人工智能是否具有合法权利。简单地说,我们是否应该考虑授予它们某种形式的法律人格呢?这并不像听起来那么荒谬,也不代表在我们的社会中AI已经“上升到了”某种特定的地位。但是这反映了目前AI在我们的生活中扮演的并且将继续发挥作用的角色。
非智能律师时代的智能工具
目前,我们的法律体系在很大程度上假定我们面对的是一个充斥着非智能工具的世界。我们可能会谈论枪支管制的重要性,但我们仍然会判定持枪伤人的那个人有罪,而不是枪支本身。如果这把枪本身是有缺陷的,那么我们就会追究制造枪支的公司的责任。
到目前为止,这种思维模式在很大程度上被直接运用到了人工智能和机器人的世界。1984年,一家名为AthloneIndustries的美国公司的所有者被告上了法庭,因为人们认为他们的击球训练机器太过残暴。该案之所以值得提起,是因为法官宣布诉讼是针对Athlone公司,而非击球机器人,因为“机器人不能被起诉”。
2009年,一名英国司机在他的GPS系统指示下沿着一条狭窄的悬崖边行驶,结果导致他被困,不得不被警察拖回主路。尽管他将问题归咎于技术,但法院认定他犯有疏忽大意的错误。
然而,今天(当然也包括未来)的人工智能技术和昨日的科学技术之间存在着太多差异。像自动驾驶汽车或机器人这样的智能设备不仅会被人类使用,而且会被支配——当然,之后它们会独立完成指令。智能设备能够运用机器学习算法,自行收集和分析信息,然后做出决定。这也不能完全责怪技术的创造者。
正如华盛顿乔治城大学的法学教授大卫·维拉德克所指出的,在这一领域少数的深入案例研究中,有大量的个人和公司参与了人工资能组件的设计、修改和整合,因此很难确定谁来负最终的责任。当谈论人工智能的“黑匣子”时,这个系统是非常难以捉摸的。
大卫·维拉德克曾写道:“一些组件可能是在人工智能项目还没被构思出来之前就已经被设计出来了,而组件的设计者们可能从来没有想过,他们的设计会被纳入任何人工智能系统,更不用说那些造成伤害的人工智能系统了。”在这种情况下,如果把责任归咎于一个并没有参与到人工智能系统的完成和操作过程中的组件设计者,听起来并不公平。法院可能难以判定,这样一个组件的设计者是否预见到了所发生的危害。
公司所扮演的角色
赋予人工智能一个法律上的实体地位并不是完全没有先例的。公司长期以来扮演着这样的角色,这就是为什么公司可以拥有资产,或者被起诉,而这些事情不必须以首席执行官或执行董事的名义来完成。
佛罗里达州立大学的法学教授肖恩·拜恩指出,尽管还没有经过检验,但人工智能可能已经拥有了这种地位,因为AI可以管理有限责任公司,所以可以拥有法律上的独立地位。如果像比尔·盖茨的“机器人税”这样的提案在法律层面上被认真对待,那么税收层面的因素也需要被考虑进来。
然而,争议仍然存在。如果人工智能能以某种方式执行一些责任不明晰的行为,那么它的创造者可能就会借此摆脱责任。而且,这也可能会使AI工具的研发人员消极怠工——因为AI表现不符合预期时,他们就有理由不再进行进一步开发。
目前也没有办法惩罚人工智能,因为像监禁或死刑这样的惩罚对人工智能来说毫无意义。
爱尔兰国立大学的法学教授约翰·丹纳赫关于人工智能法律人格的看法是:“我不认为这是一件正确的事,至少现在不是。”“我的猜测是,在可预见的未来,这种做法主要是为了推卸人类的责任,来掩盖一些反社会活动。”
然而,这个领域并不依赖于任何以主观意识为目标的基准。
《人类简史》和《未来简史》的作者尤瓦尔·赫拉利说,“在今天,公司拥有合法的权利而且被视为法人,但大多数动物都没有。”“尽管企业显然没有意识,没有人格,没有体验幸福和痛苦的能力。而动物则是有意识的实体。不管人工智能是否发展出了意识,都可以有经济、政治和法律上的理由赋予它人格和权利,就像企业可以获得法律人格和权利一样。事实上,人工智能将来可能会主导某些公司、组织甚至国家。科幻小说中很少提及到这种情况,但我认为它比《西部世界》和《苹果核战记》中的故事更有可能发生。”
不再是科幻小说
目前,这些话题仍然是科幻小说的主题,但正如尤瓦尔·赫拉利指出的那样,这种状态可能不会长期保持下去。基于AI在现实世界的使用以及它们与人类的关系,像“人工智能导致有人死亡时亡谁来负责”,或者“一个人能否跟他的人工智能助手结婚”这样的问题就需要在将来的生活中被解决。
约翰·丹纳赫说,“给任何实体赋予法律人格的决定,基本上都可以简单地分为两个子问题。这个实体是否应该被当作道德主体来对待,它应该对自己的行为负责吗?另一个问题是,这个实体是否应该被当作一个道德客体来对待,从而受到保护,免受某些干扰和以及对其完整性的侵害呢?我的观点是,AI不应该被当作道德主体,至少暂时不会。但我认为,在某些情况下,它们应该被视为道德客体。我认为,人们可以在很大程度上依赖人工智能伴侣,因此,在很多情况下,改编或破坏这些实体是错误的行为。这意味着我们可能要对AI负责,而不能破坏或者侵犯它们的完整性。”
换句话说,当涉及到人工智能工具时,我们不应该允许企业逃避责任。随着人工智能系统从自动驾驶汽车、金融交易员、无人驾驶飞机和机器人等各种领域进入现实世界,至关重要的一点是,有人要为他们所做的事情负责。
同样,将人工智能和人类的关系与先前的非智能技术视为同等性质也是错误的。
这关乎一个学习曲线。而且即便我们在技术上还没有达到担心AI主权的阶段,这并不意味着这是一个错误的问题。所以当Siri没有听清楚你的问题并询问是否搜索网页时,不要再对它大喊大叫了,好吗?