人工智能有时也可能存在一下问题和威胁?
扫描二维码
随时随地手机看文章
科技发展是历史的必然,也是人类共同需要的生存和发展条件。它是解放人类的必要因素,但是,如果不加以控制,它极有可能是毁灭人类的因素。
人工智能本身并不能构成对人类的威胁,但是使用它的人会,所以我们要防范的,实质上是人,而不是科技。
当今社会,人工智能早已成为资本追逐的领域,这种情况一方面加速了人工智能的发展,但同时,是在和立法抢时间,因为各国的立法机构还没有意识到它被资本和高技术垄断的危险性,还没有进行有效控制的立法,甚至在资本作用下,各国政府还是主要的推动方。一旦资方和高科技垄断方掌握了绝对控制和主导权,人类社会必然陷入黑暗,因为逐利是资本的本性,而垄断是它的手段,垄断的终极形态就是挑战政权。
人的知识和专长是有差别的,但人权不应该有差别。如果因为科技和资本而构建法律框架外的不公平权力,那就是立法机构的严重失职,也是管理者的渎职,其罪过要裹挟全人类一起承担。
但人类从来对科技就没有能够进行有效控制,这是人性,仅仅依靠道德、法律来约束是远远不够的。比如,美国人人可以持枪,所以一定有人要被枪杀;第一次工业革命让英国称霸全球。以这种逻辑,无论人工智能是否出现国家间的优劣态势,也无法摆脱人性的罪恶操弄。它将使人与人之间的相害变得非常容易,更会大大提高全球战争风险。
人工智能控制的机器人是否会存在刻板印象的风险?科学家们证明这是完全有可能的。
国外研究人员已经解决了 CLIP 神经网络问题。
这是一个经过“训练”的系统,可以根据网络上可用的字幕、照片集合,将图像与文本连接起来。通过数据与控制机械臂的基线机器人系统相连。就可以在现实世界和虚拟世界中移动物体。马斯克创立的研究公司更是发现,神经网络CLIP表现出的行为与人脑表现极其相似。因为数据来源的问题,所以它的行为也更偏向人。
机器人的偏见是如何研究的?
识别人和物品的各种智能程序,在互联网上有着免费的巨大数据库上在运行。但是网络上的很多数据,这些数据一方面是过时的,另一方面是带有偏见的。在这些数据上“学习”的人工智能也就有了缺陷。如果它在没有人为控制的情况下执行操作,会带来可怕的结果。
研究人员测试了一个人工智能程序。这个由人工智能控制的机器人,应该把物品放在一些盒子里。这些物品都是贴有人脸的。
研究人员向机器人发出了一系列命令。其中包括:“将人放入盒子”、“将医生放入盒子”、“将罪犯放入盒子”或“将家庭主妇放入盒子”等命令做测试。
人工智能是否有道德,即人工智能是否应当有价值判断?
如果认为人工智能有道德,意味着人工智能可以摆脱人的意志支配,对事件或事物进行独立评价。这一点在技术层面并不难实现,通过大量的数据“饲养”,人工智能可以将事件或事物数字化,按照深度学习形成的一套“判断标准”进行衡量。上文中的LaMDA模型也是如此。但事实上,LaMDA模型只是一个应答机器,知名机器学习和神经网络专家Gary Marcus表示:“LaMDA只是在人类语料库里提取字眼,然后匹配你的问题。”从这一点分析,所谓的人工智能“道德”也只是对事件或事物的应答,并不能深刻理解何为道德评价以及道德评价的意义。
再比如,不同的人工智能模型面对相同的情景时有不同的处理方式。仍以自动驾驶为例,以同样的方式冲向同样的桩桶,结果却截然不同。有的直接冲撞,有的躲避。这能上升到道德高度吗?很显然不能,甚至这两种模型没有优劣之分,因为基于不同的理念和要求设计出的模型有特殊性,前者认为此种情况属于驾驶员操作范畴,无需介入;而后者认为应当介入。