人工智能真正的风险在哪里
扫描二维码
随时随地手机看文章
人工智能亦可称机器智能,通常是指由普通计算机程序来呈现人类智能的技术,其核心问题包括建构能够跟人类比肩甚至超越人类的推理、知识、规划、学习、交流、使用工具和操控机械等能力。随着人工智能技术的不断发展,在大众对这项技术刷新认识的同时,也产生了诸多的疑问及质疑。
作为中国人工智能的从业者,希望中国的人工智能发展成什么样?就此相关问题,记者对中科院自动化研究所研究员、智源人工智能伦理与安全研究中心主任曾毅进行了专访。
大众对人工智能的认识存在偏差
有人曾说,一个不再像人类一样思维的机器,会引起大家的恐慌。在人工智能发展的过程当中,有很多人在疑问:人工智能实现通用智能、超级智能,是不是最大的风险?对此,曾毅回答道,在实现通用人工智能的途径中一定会存在风险,但真正的风险,现在看来并不是通用智能或者超级智能,而是在于人工智能发展的道路过程当中已经涌现出来的风险以及安全、伦理问题。
对于人工智能这样由算法专家构建的服务,极可能存在算法歧视、偏见等潜在问题,这些就足以使人工智能对我们的社会产生巨大的负面的影响。比如在人工智能的应用中,数据隐私泄露的问题非常广泛,用户可以把数据库当中的用户数据删除,这样看似用户数据就被消除掉了,但其实数据库已经使用了它的数据,数据特征已经被模型学到了,这个时候用户数据是不可能完全拿回的。曾毅谈道,虽然类似欧盟在极力推动的“GDPR欧洲通用数据保护条例”有相关规定,但目前几乎没有一家企业真正完全符合GDPR,而大众极度却缺乏个人数据隐私保护意识。
曾毅表示,公众很关注人工智能的社会影响,但是碍于大众对于人工智能的风险不是太了解,所以人工智能技术的科普比任何时候都重要。
面对当前人工智能实际应用的安全问题需建立监管平台
面对人工智能的风险,当下存在严重两极化:比如美国加州就决定禁用人脸识别技术,但也有更多企业对风险持视而不见的态度。总体而言,人工智能发展是主旋律,但是人工智能的健康发展,一定是治理和发展双轮驱动。“智源人工智能研究院安全伦理研究中心布局的重要项目就是从技术的角度来解决人工智能模型当中存在的风险问题,而不仅仅是停留在伦理原则上的讨论。”曾毅说。
此外,曾毅还提出两点建议:一方面,不管是企业、科研机构、还是政府,在指导人工智能发展的时候,应该建立不同层级的人工智能伦理和治理委员会。另外一方面,应该号召国家建立人工智能服务和产品的监管平台。“如今的发展模式是企业做完产品上线,一旦出了问题,有关部门再去约谈,像前一段时间的换脸软件就是这样的。如果有监管平台,企业将用户知情同意书传上来,立刻就能发现其中的哪些原则违反了国家的法律或者是人工智能发展的原则,就可以在产生社会负面影响之前,规避掉存在的风险。”
保持对人工智能发展的敬畏和理性,是非常关键的。曾毅呼吁提升人工智能的技术人员对于风险和伦理问题的重视,使得他们真正在开发人工智能的时候,心中有红线;在发展的方向上保证他们创造的人工智能产品向着对人类有益的方向发展。