亚马逊将联合美国国家科学基金会为AI公平性研究拨款1000万美元
扫描二维码
随时随地手机看文章
3月26日消息,据美国科技媒体VentureBeat报道,亚马逊希望将系统偏见最小化,并解决人工智能(AI)的透明度和问责制问题。为此,这家位于西雅图的公司于当地时间周一宣布,它将与美国国家科学基金会(National Science Foundation,简称NSF)合作,在未来三年内至多投入1000万美元的研究资金,用于开发专注于人工智能(AI)和机器学习公平性的系统。
亚马逊将为该项目提供部分资金,美国国家科学基金会将根据其绩效审查程序独立做出奖励决定。该项目预计将在2020年和2021年继续推出其他的呼吁内容。
亚马逊与美国国家科学基金会(NSF)的合作,将特别针对可解释性、潜在的不利偏见和影响、缓解策略、公平性验证和包容性考虑等,目标是使人工智能系统能够“得到更广泛的接受”,并使美国能够“进一步利用”人工智能技术的潜力。
从当地时间周一(3月25日)直至5月10日,这两个组织希望获得相关建议,这些建议将能产生新的开源工具、公开可用的数据集和出版物。
亚马逊Alexa AI部门负责自然理解的副总裁普瑞姆·纳塔拉詹(Prem Natarajan)在一篇博客中写道:“随着人工智能(AI)在日常生活中的应用越来越多,人工智能的公平性在学术界、政府和行业中成为一个越来越重要的话题。在亚马逊,我们为支持业务而构建的机器学习系统的公平性,对于建立和维护客户的信任至关重要。”
美国国家科学基金会(NSF)计算机与信息科学工程主管吉姆?库罗斯(Jim Kurose)表示:“我们很高兴宣布与亚马逊的这项新合作,为专注于人工智能公平性的研究提供资金。这个项目将支持与开发和实现可信的人工智能系统相关的研究,这些系统从一开始就将透明度、公平性和问责制融入到设计中。”
通过与美国国家科学基金会的合作,亚马逊加入了越来越多的公司、学术机构和行业联盟中,从事伦理人工智能(AI)的研究。他们的共同努力已经产生了算法上的偏见缓解工具,有望加速向更公正的模式迈进。
亚马逊并不是唯一一个致力于减少算法偏见的平台。在去年5月举行的F8开发者大会上,Facebook宣布了Fairness Flow,这是一项针对数据科学家的自动化偏向捕获服务。
埃森哲也发布了类似的工具,该工具可以自动检测人工智能算法中的偏差,并帮助数据科学家减轻这种偏差。
去年9月,谷歌发布What-If工具,这是开源TensorBoard Web应用程序的一项新功能,它允许用户在不编写代码的情况下分析ML模型。
IBM也不甘落后,该公司去年秋天发布了AI Fairness 360开源工具包,这是一个基于云计算的全自动套件,旨在消除人工智能中的偏见。
IBM沃森和云平台团队最近的研究重点是,减轻人工智能模式中的偏见,尤其是在人脸识别方面。