首页 > 动态 > > 正文
2021-08-20 14:06:30

亚马逊和国家科学基金会拨款1000万美元用于AI公平性研究

导读 亚马逊希望尽量减少偏见并解决人工智能中的透明度和问责制问题。为此,西雅图公司今天宣布将与国家科学基金会(NSF)合作,在未来三年内投入1

亚马逊希望尽量减少偏见并解决人工智能中的透明度和问责制问题。为此,西雅图公司今天宣布将与国家科学基金会(NSF)合作,在未来三年内投入1000万美元的研究经费,开发专注于人工智能和机器学习公平性的系统。

“随着人工智能在日常生活中的使用越来越多,人工智能的公平性在学术界,政府和行业中越来越重要,”Alexa AI小组自然理解副总裁Prem Natarajan写道。“在亚马逊,我们为支持我们的业务而建立的机器学习系统的公平性对于建立和维护客户的信任至关重要。”

亚马逊与NSF的合作伙伴关系将专门针对可解释性,潜在的不利偏见和影响,缓解策略,公平性验证以及包容性考虑,旨在实现人工智能系统的“更广泛接受”,并允许美国“进一步利用资本”人工智能技术的潜力。这两个组织希望从今天到5月10日接受的提案将产生新的开源工具,公开数据集和出版物。

亚马逊将为该计划提供部分资金,NSF根据其绩效评估流程独立地做出奖励决定。该计划预计将在2020年和2021年继续进行,并附加征集意向书。

“我们很高兴宣布与亚马逊的新合作,为人工智能的公平性进行研究,”美国国家科学基金会计算机与信息科学与工程负责人吉姆·库斯特说。“该计划将支持与可信赖的人工智能系统的开发和实施相关的研究,这些系统从一开始就将透明度,公平性和责任性纳入设计中。”

随着今天的宣布,亚马逊加入了越来越多从事道德AI研究的公司,学术机构和行业联盟。他们的集体工作已经产生了算法偏差缓解工具,这些工具有望加速向更公正的模型迈进。

5月,Facebook 宣布公平流量,如果算法根据种族,性别或年龄对某人做出不公平的判断,它会自动发出警告。埃森哲发布了一个工具包 ,可以自动检测AI算法中的偏差,并帮助数据科学家减轻这种偏差。微软在5月份推出了自己的 解决方案,并于9月份推出了What-If Tool,这是TensorBo机器学习框架的TensorBoard网络仪表板的偏置检测功能。

IBM不甘示弱,去年秋天发布了AI Fairness 360,这是一个基于云的全自动套件,“不断提供[见解]”AI系统如何做出决策并建议调整 - 例如算法调整或平衡数据 - 可能会减轻偏见的影响。而最近的研究从IBM的沃森和云平台事业部专注于人工智能模型减轻偏见,特别是对面部识别。

值得一提的是,今天的消息是经过研究人员在麻省理工学院发表的一项研究发现Rekognition -亚马逊网络服务公司(AWS)的物体检测API -无法可靠地确定在某些情况下女性和深肤色面孔的性别。该研究的共同作者声称,在2018年进行的实验中,Rekognition的面部分析功能错误地将女性作为男性和肤色较深的女性的照片分别确定为19%和31%的男性。

亚马逊对这些调查结果提出异议 - 并且仍然存在争议。它在内部表示,在Rekognition更新版本的测试中,它发现所有种族的性别分类准确性“无差异”。并且它说有问题的论文未能明确实验中使用的置信度阈值。