人工智能面临哪一些风险
扫描二维码
随时随地手机看文章
10月31日,全国信息安全标准化技术委员会(简称全国信安标委)网站发布《人工智能安全标准化白皮书(2019版)》(简称“白皮书”)。
如今的人工智能基于深度计算技术、依赖于大数据的“喂养”,白皮书指出,在数据采集环节,人工智能存在过度采集数据、个人敏感信息采集合规等问题,需开展隐私保护要求及技术类标准研究工作。
人工智能面临合规、滥用、数据泄露等安全风险
近年来,人工智能在算法、算力、和大数据因素的影响下,迎来第三次发展浪潮。它在改变人类生产生活方式的同时,也给社会带来不可忽视的风险挑战。
如今的人工智能依赖于大数据的“喂养”。白皮书指出,人工智能在数据采集环节,存在过度采集数据、数据采集与用户授权不一致、个人敏感采集信息合规问题等;还易遭受数据投毒、模仿攻击等。
在数据使用环节,数据标注带来安全隐患和合规问题。如外包公司的标准人员可直接接触原始数据,如果管理不规范,可能存在内部人员盗取数据、数据泄露等风险。
在应用方面,利用人工智能技术模仿人类,如换脸、手写伪造、人声伪造等,除引发伦理道德风险外,还可能加速技术在黑灰色地带的应用,模糊技术应用的合理边界,加剧人工智能滥用风险。
其他方面,人工智能系统还存在数据存储安全隐患、共享安全隐患、数据传输安全隐患等。
我国尚未有正式立项的人工智能自身安全的标准
面对人工智能带来的各种安全风险,各国制定了相关的法律法规和政策。比如美国总统签署行政令,启动“美国人工智能倡议”;英国建立数据伦理与创新中心为政府提供咨询;日本成立人工智能委员会,开展人工智能伦理道德研究 。
我国亦发布了一系列相关政策,如《新一代人工智能发展规划》 、《国家新一代人工智能创新发展试验区建设工作指引》等,在特定领域如无人机、自动驾驶等领域出台相应规范性文件。此外,特定行业和领域颁布或立项相应标准,如生物识别领域的《信息安全技术 虹膜识别系统技术要求》等。
不过,我国尚未有正式立项的人工智能自身安全或基础共性的安全标准。
人工智能在个人信息保护等方面存在标准化需求
结合安全分析结果和当前标准化现状等因素,白皮书指出,人工智能在算法模型、数据安全和个人信息保护、基础设施安全、产品和应用安全等方面存在标准化需求。
针对突出的数据安全与隐私保护风险 ,白皮书建议平衡隐私保护和人工智能分析效果,防范逆向工程、隐私滥用等安全风险,开展人工智能隐私保护要求及技术类标准研究工作。
按照“充分研究,急用先行,安全事件推动”的思路,白皮书建议 优先立项《人工智能安全参考框架》、《人工智能数据集安全》、《人工智能数据标注安全》、《机器学习算法模型可信赖》、《人工智能应用安全指南》、《人工智能安全服务能力要求》等标准。