观察偏见对机器学习模型的影响,并探索消除这种偏见的方法。
偏见是指对一个人、一个群体或一个事物的不公平偏见。 随着机器学习成为我们日常生活中不可或缺的一部分,问题来了,机器学习是否也存在偏见? 在本文中,我将深入探讨这个问题及其影响,以及消除机器学习模型中偏见的多种方法。
机器学习的潜力令人印象深刻,它可以为自动驾驶汽车提供动力,在X射线中准确识别癌症**,以及基于我们过去行为的兴趣。 然而,虽然机器学习带来了许多优势,但它也带来了许多挑战。 其中一个挑战是机器学习的分类和**存在偏见。 这些偏差不是仁慈的。 根据机器学习模型生成的决策,这些偏见可能会导致各种各样的后果。 因此,重要的是要了解如何在机器学习模型中引入偏见,如何测试偏见以及如何消除偏见。
用于评估被定罪罪犯的量刑和假释的工具(compas)是机器学习中偏见的一个例子。 由于许多监狱人满为患,希望通过评估来确定不太可能再次犯罪的囚犯。 然后对囚犯进行审查,看看是否可以先释放他们,以便为新的监禁者腾出空间。 风险评分由大量关于囚犯的问题来定义,包括囚犯的父母是否入狱或他们的朋友或熟人是否入狱(但不包括种族)等问题。
已经发现,这个工具在被定罪的罪犯成为累犯的可能性方面是成功的,但是当种族被引入判断公式时,就出现了一个错误。 值得指出的是,陪审团仍未做出裁决,因为compas开发公司随后提供了数据来支持其算法的结果,但它也指出了是否存在偏见的问题。 这些方法将受到挑战,随后需要提供数据以证明其公平性。
机器学习被视为人力资源中各种用例的关键工具,从提供培训建议到招聘和其他战术活动。 2014 年,亚马逊开始开发一个筛选候选人的系统,以根据简历上的文字自动识别要寻找的关键候选人。 但亚马逊后来发现,在为工程职位选择人才时,该算法似乎更偏向于男性而不是女性。 在发现该算法缺乏公平性并多次尝试为其注入公平性后,亚马逊最终放弃了该系统。
Google 相册应用可以通过识别对象来对对象进行分类。 但是当人们使用该程序时,他们发现这里存在某种种族偏见。 亚马逊的Rekognition是一个商业面部分析系统,也被发现存在性别和种族偏见。
最后一个例子是Microsoft的 Tay Twitter 机器人。 Tay 是一个对话式 AI(聊天机器人),它通过在 Twitter 上与人互动来学习。 该算法挖掘公共数据以构建对话模型,同时还不断从 Twitter 上的互动中学习。 不幸的是,并不是所有的Tay的互动都是积极的,Tay已经学会了现代社会的偏见,甚至在机器模型中,这被称为“播种和得到瓜,播种豆子和得到豆子”。
无论偏见如何,机器学习算法的建议都会对个人和群体产生真正的影响。 包含偏见的机器学习模型可以帮助以自我实现的方式延续偏见。 因此,当务之急是检测这些模型中的偏差并尽可能消除它们。
关于偏差的出现,可以简单地归因于生成的数据的结果,但其来源难以捉摸,通常与数据**、数据的内容有关(是否包含模型应该忽略的元素? )和模型本身的训练(例如,如何在模型的分类上下文中定义好坏)。
如果机器学习算法仅针对白天驾驶进行训练**,则允许模型在夜间驾驶可能会导致悲惨的结果。 这与人类偏见不同,但也证明手头的问题缺乏代表性的数据集。
也可能发生我们没有预料到的偏差。 例如,亚马逊的招聘工具会惩罚一些候选人使用的词语,并为其他人使用的词语加分。 在此示例中,受惩罚的术语是女性常用的性别词,女性同样不能充分代表此数据集中的数据。 亚马逊的工具主要在10年内对男性简历进行训练,这导致了基于男性使用的语言偏向于男性简历。
即使是人类也可能无意中放大机器学习模型中的偏见。 人类偏见可能是无意识的(也称为隐性偏见),这意味着人类甚至可能在自己不知情的情况下引入偏见。
让我们看看如何检测机器学习模型中的偏差以及如何消除它们。
在机器学习开发领域的许多领导者提供的工具中,机器学习数据集和模型中的偏见也很常见。
检测偏差从数据集开始。 数据集可能无法表示问题空间(例如,仅使用白天驾驶数据训练自动驾驶汽车)。 数据集还可能包含可能未被考虑的数据(例如,个人的种族或性别)。 这些分别称为样本偏倚和偏倚。
由于数据通常在用于训练或测试机器学习模型之前进行清理,因此也存在排除偏差。 当我们删除个人认为不相关的功能时,就是这种情况。 当收集的训练数据与生产过程中收集的数据不同时,就会发生测量偏差。 当使用特定类型的相机收集数据集,但生产数据来自具有不同特性的相机时,就会发生这种情况。
最后,还有算法偏差,它不是来自用于训练模型的数据,而是来自机器学习模型本身。 这包括如何开发或训练导致不公平结果的模型。
现在,我已经为您提供了偏差示例,让我们看看如何检测和防止机器学习模型中的偏差。 我们将**来自Google,Microsoft,IBM和其他开源解决方案的一些解决方案。
谷歌的假设工具(WIT)是一种交互式工具,允许用户以可视化的方式研究机器学习模型。 WIT 现在是开源 TensorBoard Web 应用程序的一部分,它提供了分析数据集和经过训练的 TensorFlow 模型的能力。 WIT 能够手动编辑数据集中的样本,并通过关联模型来查看更改的效果。 它还会生成一个部分依赖关系图,该图显示更改功能时结果如何变化。 WIT 可以应用各种公平性条件来分析模型性能(针对群体无意识或公平机会进行优化)。 WIT 易于使用,并包含各种演示,可帮助用户快速入门。
IBM 的 AI Fairness 360 是用于检测和消除机器学习模型中偏差的最全面的工具集之一。 AI Fairness 360 是一个开源工具集,具有 70 多个公平性指标和 10 多种偏差校正算法,可帮助您检测和消除偏差。 偏差校正算法包括优化预处理、权重调整、偏差去除、正则化项等。 指标包括欧几里得距离和曼哈顿距离、统计奇偶差等。 AI Fairness 360 包含大量教程和文档。 您还可以使用涵盖三个数据集(包括 Compas 累犯数据集)的交互式演示来探索偏差指标,然后应用偏差校正算法来查看结果与原始模型的比较情况。 该工具集专为开源而设计,允许研究人员添加自己的公平性指标和偏差校正算法。
IBM的研究人员也在努力实现“人工智能服务的可组合偏差评级”。该文提出一种用于机器学习模型的偏差评分系统。 此处设想的第三方评分系统用于验证机器学习模型的偏差。 与Microsoft在自然界中的学习经验类似,数据集也可能包含偏见。 马里兰大学和Microsoft Research最近发表了一份题为“我的单词嵌入中的偏见是什么?”的报告。建立了一种利用众包识别文本编码(自然语言)偏差的方法。 词嵌入可以通过特征向量表示高维空间中的文本。 随后,这些特征向量支持向量算术运算。 这允许与智力游戏进行类比,例如“男人是国王,女人是x”。 计算x的结果是女王,这是一个合理的答案。 但从其他类比来看,在某些方面可能存在偏见。 例如,“男人是计算机程序员,女人是家庭主妇”反映了性别偏见。 而“父亲是医生,母亲是**”也有同样的问题。 Microsoft已经展示了使用关联测试自动检测文本编码偏差的能力。 这是受到内隐关联测试(IAT)的启发,该测试被广泛用于衡量人类偏见。 这一发现随后通过使用众包来确认偏见得到了验证。
通过这个过程,你可以帮助词嵌入用户减少这个数据集的偏差。
在过去几年中,偏见已成为机器学习研究最热门的领域之一,用于检测和纠正模型偏见的框架正在出现。
局部可解释的与模型无关的解释 (lime) 可用于理解模型为什么提供特定的 **。 Lime 适用于任何模型,并为给定的**提供人类可理解的解释。
FairML 是一个工具箱,它通过量化模型输入的相对重要性来审核模型。 随后,这种相对重要性可用于评估模型的公平性。 FairML 也适用于任何黑盒模型。
在许多情况下,机器学习模型是一个黑匣子。 您可以为其提供输入并观察其输出,但这些模型将输入映射到输出的方式隐藏在经过训练的模型中。 可解释的模型可以帮助揭示机器学习模型得出结论的方式,但在这些模型被普遍应用之前,另一种选择是人机循环。
人机交互是一种混合模型,它将传统机器学习与监控机器学习模型结果的人类连接起来。 这允许人们观察何时采用算法或何时存在数据集偏差。 回想一下 Microsoft 如何使用众包来验证其单词嵌入偏见发现,这表明人机交互是一种可以采用的实用混合模型。 公平是一把双刃剑,对公平的数学定义仍然没有达成共识。 我们可以采用五分之四规则或其他平等措施,但缺点很快就会随之而来。
在我们能够构建完全透明和可解释的模型之前,我们仍然需要依靠各种工具集来衡量和纠正机器学习模型中的偏差。 值得庆幸的是,这些工具集功能丰富,具有大量的公平性指标和偏差校正算法。