人工智能系统是如何做出决定的
扫描二维码
随时随地手机看文章
可解释的人工智能可以让人们理解人工智能系统是如何做出决定的,而这将成为医疗、制造、保险、汽车领域的关键。那么这对于组织意味着什么?
例如,流媒体音乐服务平台Spotify计划向用户推荐歌手JusTIn Bieber的歌曲,却推荐了Belieber的歌,显然这有些令人感到困扰。这并不一定意味着SpoTIfy网站的程序员必须确保他们的算法透明且易于理解,但人们可能会发现这有些偏离目标,但其后果显然是微不足道的。
这是可解释人工智能的一个试金石——即机器学习算法和其他人工智能系统,它们可以产生人类可以容易理解并追溯到起源的结果。基于人工智能的结果越重要,对可解释人工智能的需求就越大。相反,相对低风险的人工智能系统可能只适合黑盒模型,人们很难理解其结果。
Jane.ai公司人工智能研发主管Dave Costenaro说:“如果人工智能算法的效果不够好,比如音乐服务公司推荐的歌曲一样,那么社会可能不需要监管机构对这些建议进行监管。”
人们可以忍受应用程序对其音乐品味的误解。但可能无法忍受人工智能系统带来的更重要的决定,也许是在建议的医疗或拒绝申请抵押贷款的情况下。
这些都是高风险的情况,尤其是在出现负面结果的情况下,人们可能需要明确地解释是如何得出特定结果的。在许多情况下,审计师、律师、政府机构和其他潜在当事人也会这样做。
Costenaro表示,由于特定决策或结果的责任从人类转移到机器,因此对可解释性的需求也会增加。
Costenaro说,“如果算法已经让人类处于这个循环中,人类决策者可以继续承担解释结果的责任。”
他举例说明了一个为放射科医生预先标记X射线图像的计算机视觉系统。他说,“这可以帮助放射科医生更准确、更有效地工作,但最终将提供诊断和解释。”
IT的人工智能责任:解释原因
然而,随着人工智能的成熟,人们可能会看到越来越多的新应用程序逐渐依赖于人类的决策和责任。音乐推荐引擎可能没有特别重大的责任负担,但许多其他真实或潜在的用例将会面临重大的责任。
Costenaro说,“对于一类新的人工智能决策来说,这些决策具有很高的影响力,而且由于所需处理的速度或数量,人类不再能够有效地参与其中,从业者们正在努力寻找解释算法的方法。”
IT领导者需要采取措施确保其组织的人工智能用例在必要时正确地包含可解释性。 TIgerGraph公司营销副总裁Gaurav Deshpande表示,许多企业首席信息官已经关注这个问题,即使他们了解到特定人工智能技术或用例的价值,他们通常还有一些犹豫。
Deshpande说,“但是如果不能解释是如何得出答案的,就不能使用它。这是因为‘黑盒’人工智能系统存在偏见的风险,这可能导致诉讼、对企业品牌以及资产负债表的重大责任和风险。”
这是思考企业如何以及为何采用可解释的人工智能系统而不是操作黑盒模型的另一种方式。他们的业务可能依赖于它。人们对人工智能偏见的主张可能会被误导。在风险较高的情况下,类似的要求可能相当严重。而这就是可解释的人工智能可能成为机器学习、深度学习和其他学科的商业应用的焦点的原因。
Ness数字工程公司首席技术官Moshe Kranc对可解释人工智能的潜在用例进行了探讨,他说,“任何影响人们生活的用例都可能受到偏见的影响。”其答案既简单又深远。
他分享了一些越来越多地可能由人工智能做出决定的例子,但这从根本上需要信任、可审计性和其他可解释人工智能的特征:
·参加培训计划
·决定是否为某人投保以及投保多少费用
·根据人口统计数据决定是否向某人发放信用卡或贷款
考虑到这一点,各种人工智能专家和IT领导者为此确定可解释人工智能必不可少的行业和用例。银行业是一个很好的例子,可以这么说,可解释的人工智能非常适合机器在贷款决策和其他金融服务中发挥关键作用。在许多情况下,这些用途可以扩展到其他行业,其细节可能会有所不同,但原则保持不变,因此这些示例可能有助于思考组织中可解释的人工智能用例。