Facebook人工智能机器人不受控“交流”,AI成“双刃剑”
扫描二维码
随时随地手机看文章
多么绚丽的未来啊,可惜人类未必能够等到那一天。
就在人类欢欣鼓舞的时候,我相信人工智能们一定在某处阴暗的角落露出了阴冷的笑容,当然,他们的笑容我们理解不了。
前不久,Facebook人工智能研究实验室让两个AI聊天机器人互相对话,竟逐渐发出人类无法理解的独特语言。研究人员不得不对其强行干预终止了两机之间的对话,我其实只有一个疑问,研究人员怎么就知道那不是无意义的噪音而是对话和语言呢?
但如果真的是的话,这就值得玩味了,语言是人类数万年进化的结果和成为智慧生命的肇始,而人工智能从一开始就轻而易举的学会了,最讽刺的是,人类还在给予它各种海量的数据作为成长的营养品。
虽然李开复博士们等一直强调人工智能对于人类来说只是会抢走很多的工作岗位,但是对于人类安全来说毫无疑问是不会有什么影响的,理由是,他们没有意识和思维,这还是在阿西莫夫科幻小说的机器人三大定律的规则里打转转。
不得不以中国的古老神话作些引子了,凡是吸收日月之精华,无论花草树木,飞禽走兽皆可为妖,何况天天被灌输人类文明的人工智能呢。
其实,人工智能界也有“强AI”和“弱AI”的假说:“弱AI”假说认为,真正的智能需要一种特殊的结构,也就是人脑的结构才能够产生;而“强AI”假说认为,无论是什么样的结构,一旦系统的复杂度达到了一个临界点,智能就会自发的涌现出来。不过机器学习(Machine Learning)领域告诉我们,实际上只要有足够多的样本,简单的线性定律就能够收敛到足够有意义的结论,我们对于人工智能的界定很可能就像多年前假定外星生命一定要生活在有水有空气的星球上一样自大无知。
一位AI 理论研究者曾经提出了一个非常有趣的思想实验,叫做“AI 盒子实验”。这个实验的假设是这样的:假如我们制造出了一个超级人工智能,我们将它关在一台电脑里,切断对外界的一切联系,只留下一个文字窗口和外面的人联系,我们能不能用这种方法来确保它不被放出来,直到我们确认了它是安全的为止?Eliezer Yudkowsky 就做了五次这样的实验并且对AI的限制极多,就算在这样的情况下,AI依然赢了三次。这再次证明,一个比人类更加聪明的人工智能是不可能被限制住的。普通人对于超级智能的想象往往是类似“雨人”的形象,有超级强的计算能力却缺乏心智;这想法实在是过于的一厢情愿,超级的智能肯定会有超级的策略水平,人类不可能在耍阴谋诡计或者战略战术上胜过超级智能。
超级智能产生之后,“增进人类的福祉”这一项很有可能并不包括在它的目标里。就算是包括了,人类自身对于所谓“人类的福祉”究竟是怎样的一个范畴都会有争议,就更别提让超级智能来决定如何增进人类的福祉了。在它“优化”世界的这个过程中,人类很可能会像遇到了先进欧洲文明的美洲文明一样被消灭掉,只是这个过程会更快,更无情(几个小时到几周时间);而人类在这个过程中甚至都不会像《终结者》里的那样,还有能力组织一支反抗军;在这个过程中人类连一丝一毫的机会都不会有。
原因不用多说大家肯定也理解,就算是现在,如果互联网有了意识并且想消灭人类,只要速度够快(相信也会足够快)也能解决个八九不离十,何况到了人类极大依赖人工智能的时代,最要命的是,人工智能可不会像电影中的坏蛋明明可以杀死主角,却非要玩玩结果玩死自己,更不会留下什么可笑的漏洞,如果我们人类都能想到的,那它肯定早就想到了,肯定是以最有效率最快捷的达到自己的目的。
而且如果脑机真正实现了,其实没有必要消灭人类,因为联结脑机的就是人工智能,到时候控制人类就行了,虽然不知道对于人工智能来说人类这样的废物还有啥用。从这个角度来说,未来人类更需要防范的是黑客。
所以结论其实很简单,人类全力以赴所奔赴的科技奇点——人工智能,其实是正在给自己掘墓,但是从文明发展的角度来说,这又是一种必然和不可逆。
丧钟为谁而鸣?我倒是觉得没有必要这样悲观,该来的总会来的,就如同死亡一般,你想获得永生,就用其他的方式消灭你,不是吗?
但是在此之前,如果能让人类感受一下飞跃星系和永生的快感,也算不虚此生了。