我们如何应对人工智能的到来
扫描二维码
随时随地手机看文章
第一原则--可控原则。可控原则是指,我们所发明出的人工智能产品,无论是弱人工智能、强人工智能或是超人工智能,都必须是可控制,必须能够完能全被人类所控制,如果做不到这一点,我们就不能把它制造出来,这一点是至关重要的,事实上,人类的其它任何发明也都应该遵循这一则,比如,飞机、汽车、电灯、原子弹等各种产品都是可控的,如果汽车开出后无法控制,不能停止下来,那将是非常危险的,这样的产品不能投入使用的。
为了避免人工智能的危害,可控原则是一个必须尊守的原则,目前的计算机软、硬件都是可控的,控制它们的方法可以是按下终止按钮或切掉电源等,将来的人工智能也要有类似的方法加以控制,以便随时发起、调整或终止其运行。
第二个原则--分工原则,又叫分而治之原则。这一原则是指,对于弱人工智能、强人工智能和超人工智能,这三者一定要分开使用,避免三者合为一体。弱人工智能是指智能水平低于人脑的人工智能,如现在的机器人、无人机以及各种智能硬件等,强人工智能是指智能水平和人类相当的人工智能,也就是和人类一样聪明的人工智能,这种人工智能目前还没有出现,我估计将来也不会出现,因为人工智能事实上只会出现两个状态,要么不如人脑,要么远超人脑,因为计算机和人脑相比,人脑的特点是全面而复杂,计算机则是单纯而卓越,人脑既有认知,又有情感和欲望、动机等心理要素,非常复杂,而计算机呢?无论它的软件还是硬件都属于非生命物质。
因此,它永远也不会具备情感和欲望、动机这些生命物质特有的要素,因此,计算机和人工智能永远也不会全面超越人脑,但由于计算机的信息存储量和运行算速度远快于人脑,所以,它在某些智力活动和思维方面可以远超人脑,表现得非常卓越,比如,在数字计算和记忆方面(搜索引擎),今天的计算机都已达到了人脑的数亿倍。
另外,在简单逻辑判断方面,计算机也已远远超过了人脑,因为它的逻辑判断速度远快于人脑,可见,计算机有这样一个特点:在智力能力方面,人类教会它们哪一方面的能力,它们就能在哪项能力方面远超人脑,将来如果我们能教会