可信可用的人工智能是怎样的
扫描二维码
随时随地手机看文章
在进博会期间,安永1大中华区数字化咨询服务合伙人吴显光于安永展台上以“可信可用的人工智能”为主题为来宾进行了分享,现场观众反响热烈。
我们也在进博会前夕针对这个话题对他进行了专访,请点击下方视频和我们一起看看他分享的独到观察。
通过本文。您可以详细了解到底什么是可信可用的人工智能以及它可以为我们带来的好处又有哪些?
什么是人工智能?
人工智能(AI)不是一种单一的技术,而是多种方法和工具的集合,它有很多子领域,可被应用于丰富的场景。我们通常会说“实施”技术和“建造”机器人,但是对于人工智能,我们会说,“应用”。
一般来说,人工智能产业有三个层次,由下至上分别是提供算力的基础层、提供算法模型的技术层和应用层,其中,数据是AI发展的必备条件。具体来说,基础层提供的是包含人工智能芯片、传感器等的计算能力,它决定着完成效率;技术层是依托算法和数据开发出面向不同领域的技术,包括计算机视觉、自然语言处理等;应用层则最贴近我们的日常生活,例如无人机、机器人、自动驾驶等都是常见的应用层用例,是具体的产品、服务或整体解决方案。
可用人工智能
在这场AI竞赛中,企业面临着挑战和机遇,同时,多数人都对AI表达出了较乐观的态度。安永在今年三月开展的一项针对美国的CEO和企业领导者的调研表明,85%的受访者对AI持积极态度,87%的受访者表示在今年投资了AI项目,
尽管人工智能可以实现的一些目标还有待观察,但许多企业正经历其带来的变革性结果。例如在安永,我们的团队创建了一个名为EY Document Intelligence的工具,它可以提高读取海量合同的速度和准确度,使审计团队能够更专注于其他价值创造的活动。
由此我们可以窥见一个不争的事实,人工智能技术正在帮助企业实现更好的工作方式——技术增强人类创造力,人类能够腾出时间进行创新——这是一种良好的正向循环。
同时,根据最新的IDC Spending Guide,全球人工智能系统支出将在2019年增长至近358亿美元,相较于2018年增长44%,随着各行业积极投资利用AI软件能力的项目,这个数字将在2022年增加至一倍以上。为了在全球范围内展开竞争,创新和充分利用人工智能应该成为全球各行业几乎所有企业的优先事项。
可信人工智能
AI是具有颠覆性的技术,其改变世界的潜力是无限的。AI可以改善复杂的决策制订流程,这使其成为了各个行业转型的催化剂。除了可以更有效、更高效地完成繁重且费时的任务外,AI还可以赋予管理团队前所未有的深刻洞察。但与此同时,AI技术也会催生一系列道德、法律和技术风险,需要企业妥善处理。
33%的受访者认为员工信任是AI实施的最大障碍之一,即使受访者完全或一定程度上信任AI。除此之外,我们发现,技术、风险、人员能力和意识等都成为了人们信任AI实施的主要限制因素,尤其在技术方面,技术的可靠性和性能、技术的安全性和坚固性、技术治理与监督、AI应用相关的伦理道德问题都成为了关键因素。
现有的外部监管机构对AI的控制力度远远跟不上AI技术的发展速度。企业在没有强有力的治理下使用AI,会面临严重的风险。这些风险和威胁不仅复杂,还会随着AI技术的发展不断演变。为了确保AI的使用安全,我们提倡在最初的AI设计中就将信任原则嵌入。面对不断演变的威胁,越早将信任原则嵌入AI中,越能未雨绸缪,在确保AI隐私和安全的前提下收获最大的回报,使AI技术成为推动企业未来发展的强大动力。
对企业来说,AI既是管理风险的工具,也是产生新风险的来源,需要妥善管理。这些风险不仅会损害对这些系统的信任,还会损害对产品、品誉的信任。因此无论何时采用AI技术,企业都应该识别各项AI技术应用的风险。
安永的可信的人工智能框架,帮助企业了解新的和不断扩大的风险,企业可以根据他们在AI产业链中的角色和职责开展治理活动。安永的可信AI框架从性能、无偏、透明、韧性、可解释五个方面强调了维持信任所必备的属性。
要被用户接受,AI必须是可以被理解的,这意味着AI的决策框架需要可解释和验证。它还必须按预期运行,无偏见以及安全。
性能是指,AI的结果与利益相关者的期望一致,且其性能达到期望的精确度和一致性水平。
无偏是指,通过AI设计识别并解决由开发团队组成、数据和训练方法产生的固有偏见。AI系统的设计考虑所有受影响的利益相关者的需求,并对社会产生积极影响。
透明是指,给予与AI交互的最终用户适当的通知,以及选择交互程度的机会。根据采集和使用数据的要求,获取用户同意。
韧性是指,AI系统组件和算法本身使用的数据受到安全防护,避免未经授权的访问、损坏和/或对抗性攻击。
可解释是指,AI的训练方法和决策标准可以被理解和记录,并且可供人类操作者随时挑战和验证。
实际上,AI不是被实施,而是被应用,并且当AI应用在三步创新法中时,将可实现可信AI。所谓“三步创新法”为:有目的的设计、谨慎监督和敏捷治理。
有目的的设计是指,在设计和构建系统时有目的地整合并适当平衡自动的、智能的和自主的能力,以促进明确的定义业务目标的发展,并考虑环境、约束、准备程度和风险等。
谨慎监督是指,持续调整优化、关注和监控系统,以提高性能的可靠性,降低识别和纠正偏差,加强透明度和包容性。
敏捷治理是指,跟踪社会、监管、声誉和伦理领域暴露的问题,并报告给以下内容的流程负责人:系统完整性、系统使用、架构和内嵌组件、数据采购和管理、模型训练、监控。
安永与华为今年一起合作撰写了AI治理、安全与隐私白皮书,在这个过程中,我们做了大量的调研,虽然目前业界有AI治理原则、框架和指南,但一个企业具体应该怎么做并没有明确的指引。我们提出了企业应从责任的角度出发来思考自身的AI治理,这对行业是非常有积极意义的。
AI的产品和应用涉及广泛的生态系统,涉及的市场参与者众多,治理难度大、复杂度高。AI的每项产品/服务需要生态系统中不同市场参与者提供不同层次的支持,因此对AI的安全隐私治理也需要全行业共同合作,从自身责任的角度出发,根据企业自己的AI战略和业务范畴确定自己的治理目标和框架。我们根据业界现有的一些报告和研究,认为AI生态系统中共有6种市场参与者,即消费者/客户、部署者、应用开发者、解决方案提供者、数据收集者和立法者,让我们从下往上看看每个角色应当承担的责任。
立法者需要完善AI相关的法律和标准,明确利益相关方的责任。
数据收集者需要保障数据采集的合法合规,以及数据的质量和安全等。
全栈解决方案提供者对方案的安全可控承担主要责任,技术层主要包括预置模型的可解释和可追溯、隐私保护特性、安全与健壮。基础层主要实现可信解决方案。
应用开发者需要保障商业目标实施,在开发定制模型时需要基于应用目的选择算法和定制模型,并持续调整更新。
部署者需要保障部署目的,并对部署过程中的安全隐私风险进行管控。
消费者/客户需要遵循产品/服务说明书安全地使用产品和服务,并需要进行一些授权,例如同意隐私条款、签署授权合同等。
数据治理、隐私保护和胜任能力需要各方共同担责。
可信而可用的人工智能
AI产品应用的广泛性导致了AI相关的利益方无法单独对整个生态系统承担所有责任,AI全生态的安全和隐私需要所有利益相关方都能够重视,把安全和隐私融入AI整个产品生命周期,将安全和隐私纳入首要工作标准。
同时,我们也希望AI生态中的所有企业都能从责任角度出发,开展自己的工作,并提供宝贵的建议和方案,互相了解、互相借鉴。只有AI产业链上的每个环节都做到安全和隐私保护,AI整体才能够更加可靠可信。
在这里,我们呼吁AI产业链的所有利益相关者能积极为AI治理献计献策,共同努力,持续提升,共享AI裨益!
长按并识别左侧二维码,访问安永进博会微站,掌握安永进博会最新动态。
本材料是为提供一般信息的用途编制,并非旨在成为可依赖的会计、税务或其他专业意见。请向您的顾问获取具体意见。