马斯克与扎克伯格对人工智能看法迥异,但都没错
扫描二维码
随时随地手机看文章
硅谷科技产业的执行官,特斯拉的马斯克(Elon Musk)与脸书的扎克伯格(Mark Zuckerberg)由于对于人工智能的看法迥异,竟然隔空开火。但是深究人工智能定义之后,其实他们两个讲得都没有错。
马斯克与扎克伯格对人工智能看法迥异
一般大众或者媒体文字工作者其实对于人工智能的了解都很浅。其实,人工智能分成狭义人工智能、广义人工智能以及超级人工智能。
近年来人工智能的发展都停留在狭义人工智能。因为其大部分都是能够处理单一功能,就如同亚马逊的Alexa、谷歌助理、或者苹果的Siri大概都属于这个范畴。这就是扎克伯格认为人工智能可以帮助人类大幅度改善生活的思考核心。
至于广义人工智能,则将于未来几年会逐步出现。因为这时候的人工智能,拥有理解、解决问题甚至抽象问题的能力,那么人类社会会进入第四次工业革命时代,因为许多工作逐步会被人工智能取代。这时候,人类依旧是控制人工智能的主人,只不过人类必须重新学习工作内容,因为一些技能会被人工智能的机器人或全面自动驾驶车所取代。
最后的超级人工智能,则是人工智能全面超越人类智能,这就是马斯克最为担心的阶段。因为一旦失控,则人类将面临科幻电影中的情节一样,被人工智能奴役的附属品。
近年来,由于科技大厂投入大笔资金研发人工智能,期望在人工智能与深度学习时代的来临,能够主导科技的发展。可是现在随着许多国家将人工智能当成未来策略的核心,这样的竞争情况就很可能产生失控的情况。
例如:中国决定以2030年为目标,将中国建设成全球人工智能的创新中心。为了达到这个目的中国政府决定在未来几年将投注1,500亿美元资金。这种以国家级的对抗,如果愈来愈多大国都加入的话,则何时会产生失控,就很难说了。这很可能产生比核弹更为危险的人类生存之战。
从企业的角度来看,谷歌想利用人工智能增强其服务;特斯拉想利用人工智能让其电动车走入无人驾驶时代;脸书想利用人工智能改善其公司竞争力;苹果想利用人工智能强化iPhone的可塑性。这些其实都极为正面的人工智能应用。
但是人类不应该忘记,马斯克、盖兹与物理学家史蒂芬·霍金的警告,超级人工智能真的有机会终结人类的文明,所以从现在起建立一个全球遵守规范,的确是必须的。