人工智能也不是十全十美的,也会有不足!
扫描二维码
随时随地手机看文章
识别人和物品的各种智能程序,在互联网上有着免费的巨大数据库上在运行。但是网络上的很多数据,这些数据一方面是过时的,另一方面是带有偏见的。在这些数据上“学习”的人工智能也就有了缺陷。如果它在没有人为控制的情况下执行操作,会带来可怕的结果。
研究人员查看机器人选择不同性别和种族的照片的次数比例。事实证明,它是有偏见地行事。它选了更多地男性,其中包括白人和亚洲人。它最不容易识别的是黑人女性。它更有可能将女性视为“管家”,将黑人男性视为“罪犯”,将西班牙裔视为“看门人”。
什么是人工智能?
用于描述在模拟人类思维能力和我们认为是智能的行为的程序。这些程序通常执行被认为非常困难以至于只有人类才能完成的任务。人工智能(AI)成功地玩了国际象棋和围棋等逻辑游戏,还能协助医生诊断病人。人工智能系统还有更多的运用,它们可以使用的领域也会越来越多。
在决策角度,尽管从法律角度惩罚行为不惩罚思想,但只是针对自然人。而现行人工智能的“思想”是可以通过数据的方式表达出来的,故从决策层面来看,人工智能仍存在管控需要。人工智能的“思想”存在错误,究其原因是训练算法的数据存在问题,即人工智能学习了社会存在的问题并加以运用。如美国的电商品牌亚马逊在进行员工录取时运用人工智能算法对候选人的简历进行初步筛选,结果更加倾向于男性,因为工程师在对该算法进行训练时,用的是之前亚马逊已经被录用员工的简历进行训练的,而亚马逊男性员工偏多。结果就是这样的算法使得亚马逊的简历筛选算法更加倾向于男性,造成了算法的“性别歧视”。记者认为,如果是因为算法和训练数据的原因造成的法律结果,则结果应当对负责算法设计或训练的责任主体进行追责。
在行为角度,即便是人工智能在行为执行度上已经能媲美甚至超越人类,在法律层面,人工智能仍被视为物而并非权利能力的主体。这也就意味着现在的法律否认人工智能能独立承担法律责任,本质上是因为人工智能不能对其所实施的行为负责,设立“负责人”制度类似于法人组织的法定代表人制度,由具体的自然人承担由行为而产生的责任。而将“思维”和“行动”区别开,则可以在归责方面更加细化,在保障有效承担责任的同时不至于影响人工智能行业发展的积极性。在现行民事领域,人工智能产品侵权适用产品责任,强调对研发者、生产者和销售者的责任。
人工智能是并不是单纯的科技产品,而是社会分工的需要所衍生的。它的出现和进步,会极大地解放人力,让人可以从事更加有价值的劳动,可以有分配更多时间享受生活。所以,从分工的角度,可以毫不夸张的说,人类需要全方位利用人工智能。
人工智能可能以任何形态存在。科技进入量子时代,无论是固体、液体还是气体,只要能进行粒子层面的利用,都有可能嫁接人工智能。这让科技进一步爆炸性发展成为可能,它将深刻影响人类的文明,甚至人类自身的演化进程。
但人类从来对科技就没有能够进行有效控制,这是人性,仅仅依靠道德、法律来约束是远远不够的。比如,美国人人可以持枪,所以一定有人要被枪杀;第一次工业革命让英国称霸全球。以这种逻辑,无论人工智能是否出现国家间的优劣态势,也无法摆脱人性的罪恶操弄。它将使人与人之间的相害变得非常容易,更会大大提高全球战争风险。
在能源控制领域,需要建立独立于人工智能之外的控制体系,并且凌驾于人工智能之上,使得在必要的时候,可以进行人工干预。
在执法层面,需要组建一支专门的安全部队,负责监控和调查人工智能领域的违法犯罪行为,它将隶属于安全防务部门。