网络安全产业规模将超600亿 人工智能需要更多安全基因
扫描二维码
随时随地手机看文章
大数据杀熟、技术黑箱、算法偏见等专业名词,正在随着人工智能的普及引来人们的关注。随着人工智能技术的快速发展和广泛应用,技术伦理问题开始从幕后走到台前,成为人工智能研究发展的重要议题。
这段时间,一款AI换脸软件持续刷屏。该软件通过获取人脸信息,利用人工智能的深度学习技术,将影视剧、综艺节目片段中明星脸换成用户的。然而,在满足了用户短暂的娱乐心理后,软件中所设置的灰色条款引发了用户对于自身肖像权和信息安全的担忧。同时,软件的换脸行为是否对影视剧、综艺节目构成知识产权侵权仍有待商榷。这场讨论,进一步促进人们对人工智能技术未来的反思。
放眼当下,借助人工智能,企业赋予每个用户的偏好和行为以大量数据标签,摸透用户甚至超过用户对自己的了解;在社交媒体中,人工智能将观点相近的内容反复推荐给用户,逐步加剧偏见强化;通过对海量数据的挖掘,不同的消费者购买同一件商品的价格不同,有被“杀熟”之嫌……人工智能技术的商业化,带来了技术滥用、信息安全等问题。可以说,随着人工智能技术的飞跃,“智慧大爆发”带来的工具伦理性问题一直未被解决,进而造成个人隐私泄露、法律伦理困境。如何确保安全、合理地使用人工智能,亟待整个社会求解。
日前发布的《人工智能安全与法治导则(2019)》,从算法安全、数据安全、知识产权、社会就业和法律责任等五大方面,对人工智能发展的风险提出安全与法治应对策略。这是人工智能行业对于社会诉求的一种积极回应,也是行业对于自身技术发展安全性的一次深刻思考。也许,技术的不断革新可以破解现存的“技术黑箱”,但人工智能的发展必须始终坚持的是,把安全性作为其技术发展的考量标准,把握商业价值和人文价值的统一,把握市场伦理和技术伦理的统一。
实现技术可用、可靠、可知、可控,首先要在人工智能的商业考量中注入更多的人文关怀。必须明确的是,利用技术的主体和收益方应是人本身。发挥技术优势去弥补行业短板,理应明确人的主体地位,让人工智能在商业价值与人文价值中求得平衡。同时,更要让人工智能处在一个公平、安全的市场伦理下发展。技术应当存在伦理边界,技术发展和市场伦理的底线就是公平和安全。一方面,新的产品和技术应当经过严格的测试和验证,确保其性能达到合理预期;另一方面新技术的发展应确保数字网络、人身财产以及社会发展的安全。
智能时代的大幕正在拉开,“人工智能 教育”“人工智能 医疗”“人工智能 媒体”……不断打破着各个行业的发展瓶颈,重塑着不同产业的生产模式,更是给人类社会的发展拓展了更多的智慧空间。为人工智能注入更多的人文与安全基因,才能推动人工智能向安全、可靠、可控的方向发展。
今年中国网络安全产业规模将超600亿元
日前,在第六届国家网络安全宣传周上,中国信息通信研究院(以下简称“信通院”)副院长王志勤表示,根据信通院的测算,2018年我国网络安全产业规模达到510.92亿元,较2017年增长19.2%,预计2019年将达到631.29亿元。
王志勤指出,近年来,我国网络安全政策环境的持续优化,为产业发展提供了良好的制度环境,企业发展态势总体良好,从业企业有近2900家。
信通院同时发布的《中国网络安全产业白皮书(2019年)》(以下简称“白皮书”)披露,全球网络安全产业规模平稳增长,2018年达到1119.88亿美元,增速为11.3%,创下自2016年以来的新高;网络安全服务与网络安全产品市场占比趋向五五分,云访问安全代理、数据安全、应用安全等类别增速领先;网络安全融资并购活动持续活跃,融资、并购活动分别达到408起、184起,涉及金额分别为64亿美元、157亿美元。
人工智能和5G技术也正在与网络安全领域发挥作用。白皮书显示,人工智能赋能网络安全效用日益显现,机器学习技术在网络安全领域探索将进一步深化,自动化编排和响应应用前景可期;5G网络安全研发布局密集展开,虚拟化、云边协同等方向期待变革突破。