要想发展人工智能,不得不思考这些问题!
扫描二维码
随时随地手机看文章
近日,某品牌汽车在样车测试期间发生事故,造成了很大的人员财产损失,第一时间冲上了新闻头条。同时,被舆论关注的还有老生常谈的汽车自动驾驶问题。自动驾驶是否安全?是否应该开放自动驾驶?在自动驾驶的外壳下,人工智能能否拥有道德判断作为问题的核心也难下定论。
“电车难题”人工智能面临道德困境
美国MIT设计了一个名为道德机器(Moral Machine)的网站,网站设计汽车失控的各种情景让观众做出选择,通过收集300万用户的反馈,道德机器发现,人们更倾向于让自动驾驶车自毁以保障更多人的生命,却希望自己的车没有这个特征。这一结论与文化、习俗无关,是人类通常普遍的选择,与社会普遍认知相契合,人们希望通过牺牲少数人的生命换取更多人的生命。但这与法律是相违背的,因为人的生命本身并不可以进行比较和量化。
这是自动驾驶不可避免的道德问题。一方面,如果允许AI在失控中做出决策,根据权责一体的规定,也就意味着AI或其背后的自动驾驶公司应当对决策行为承担责任。另一方面,如果不允许AI做出决策,则不能称为自动驾驶——因为自动驾驶汽车的定义是不需要人为操作即能感测其环境及导航驾驶的汽车。
自动驾驶遇到的“电车难题”只是人工智能行业遭遇的困境的一个缩影。尽管随着科技的进步和大数据行业的发展,人工智能模型越发成熟,但是在涉及道德、意识等人性方面的问题时却陷入尴尬的处境:根据人工智能“奇点”论,人工智能终会在理性和感性方面超过人类,但对人工智能的安全问题,人类又历来有“弗兰肯斯坦情结”,一般人类在心理上无法接受与非生物的机器产生共情。
人工智能可能以任何形态存在。科技进入量子时代,无论是固体、液体还是气体,只要能进行粒子层面的利用,都有可能嫁接人工智能。这让科技进一步爆炸性发展成为可能,它将深刻影响人类的文明,甚至人类自身的演化进程。
但人类从来对科技就没有能够进行有效控制,这是人性,仅仅依靠道德、法律来约束是远远不够的。比如,美国人人可以持枪,所以一定有人要被枪杀;第一次工业革命让英国称霸全球。以这种逻辑,无论人工智能是否出现国家间的优劣态势,也无法摆脱人性的罪恶操弄。它将使人与人之间的相害变得非常容易,更会大大提高全球战争风险。
之所以人类无法有效控制,是因为控制的力度和方式完全不对,更深层的原因是社会治理架构的系统性问题。从认知层面、到管理层面、到立法层面、到执行层面,竟然完全缺失。因为没有人去思考,怎样才能让人工智能只为人服务!
当今社会还有一个最大的威胁来自资本,因为人工智能的开发,需要大量的资金投入。如此一来,越是高精尖的项目,越是具有领先优势的技术,越会被大资本所控制。一旦他们所控制的技术,在某些领域形成绝对优势和垄断,那么别说挑战政权,就是奴役全人类,毁灭全人类也是轻轻松松的事情。
新的货币体系和治理体系,已经为消灭资本主义打下基础,我们要做的,是避免个人或者机构在掌握优势技术以后,将优势转化成挑战公共安全和政权的势力。
有偏见的机器人如何工作?
研究人员查看机器人选择不同性别和种族的照片的次数比例。事实证明,它是有偏见地行事。它选了更多地男性,其中包括白人和亚洲人。它最不容易识别的是黑人女性。它更有可能将女性视为“管家”,将黑人男性视为“罪犯”,将西班牙裔视为“看门人”。
这项研究表明人工智能已经学会复制人类的刻板印象。
尽管表面上看,这可能产生不了实际的影响。
但“当一个孩子要求机器人给他一个漂亮的娃娃时,机器人会伸手去拿一个白色的娃娃”,它的主观意识里面认为这个是漂亮的。
在商店里,当产品包装上有人脸时,机器更容易伸手去拿印有白人的商品。
人工智能的偏见是一个真正的问题。学术界和商业界都意识到了这个问题,并正在努力克服并解决它。期待有一天能真正见到人工智能。