机器学习和偏见

小夏 科技 更新 2024-03-02

观察偏见对机器学习模型的影响,并探索消除这种偏见的方法。

偏见是指对一个人、一个群体或一个事物的不公平偏见。 随着机器学习成为我们日常生活中不可或缺的一部分,问题来了,机器学习是否也存在偏见? 在本文中,我将深入探讨这个问题及其影响,以及消除机器学习模型中偏见的多种方法。

机器学习的潜力令人印象深刻,它可以为自动驾驶汽车提供动力,在X射线中准确识别癌症**,以及基于我们过去行为的兴趣。 然而,虽然机器学习带来了许多优势,但它也带来了许多挑战。 其中一个挑战是机器学习的分类和**存在偏见。 这些偏差不是仁慈的。 根据机器学习模型生成的决策,这些偏见可能会导致各种各样的后果。 因此,重要的是要了解如何在机器学习模型中引入偏见,如何测试偏见以及如何消除偏见。

用于评估被定罪罪犯的量刑和假释的工具(compas)是机器学习中偏见的一个例子。 由于许多监狱人满为患,希望通过评估来确定不太可能再次犯罪的囚犯。 然后对囚犯进行审查,看看是否可以先释放他们,以便为新的监禁者腾出空间。 风险评分由大量关于囚犯的问题来定义,包括囚犯的父母是否入狱或他们的朋友或熟人是否入狱(但不包括种族)等问题。

已经发现,这个工具在被定罪的罪犯成为累犯的可能性方面是成功的,但是当种族被引入判断公式时,就出现了一个错误。 值得指出的是,陪审团仍未做出裁决,因为compas开发公司随后提供了数据来支持其算法的结果,但它也指出了是否存在偏见的问题。 这些方法将受到挑战,随后需要提供数据以证明其公平性。

机器学习被视为人力资源中各种用例的关键工具,从提供培训建议到招聘和其他战术活动。 2014 年,亚马逊开始开发一个筛选候选人的系统,以根据简历上的文字自动识别要寻找的关键候选人。 但亚马逊后来发现,在为工程职位选择人才时,该算法似乎更偏向于男性而不是女性。 在发现该算法缺乏公平性并多次尝试为其注入公平性后,亚马逊最终放弃了该系统。

Google 相册应用可以通过识别对象来对对象进行分类。 但是当人们使用该程序时,他们发现这里存在某种种族偏见。 亚马逊的Rekognition是一个商业面部分析系统,也被发现存在性别和种族偏见。

最后一个例子是Microsoft的 Tay Twitter 机器人。 Tay 是一个对话式 AI(聊天机器人),它通过在 Twitter 上与人互动来学习。 该算法挖掘公共数据以构建对话模型,同时还不断从 Twitter 上的互动中学习。 不幸的是,并不是所有的Tay的互动都是积极的,Tay已经学会了现代社会的偏见,甚至在机器模型中,这被称为“播种和得到瓜,播种豆子和得到豆子”。

无论偏见如何,机器学习算法的建议都会对个人和群体产生真正的影响。 包含偏见的机器学习模型可以帮助以自我实现的方式延续偏见。 因此,当务之急是检测这些模型中的偏差并尽可能消除它们。

关于偏差的出现,可以简单地归因于生成的数据的结果,但其来源难以捉摸,通常与数据**、数据的内容有关(是否包含模型应该忽略的元素? )和模型本身的训练(例如,如何在模型的分类上下文中定义好坏)。

如果机器学习算法仅针对白天驾驶进行训练**,则允许模型在夜间驾驶可能会导致悲惨的结果。 这与人类偏见不同,但也证明手头的问题缺乏代表性的数据集。

也可能发生我们没有预料到的偏差。 例如,亚马逊的招聘工具会惩罚一些候选人使用的词语,并为其他人使用的词语加分。 在此示例中,受惩罚的术语是女性常用的性别词,女性同样不能充分代表此数据集中的数据。 亚马逊的工具主要在10年内对男性简历进行训练,这导致了基于男性使用的语言偏向于男性简历。

即使是人类也可能无意中放大机器学习模型中的偏见。 人类偏见可能是无意识的(也称为隐性偏见),这意味着人类甚至可能在自己不知情的情况下引入偏见。

让我们看看如何检测机器学习模型中的偏差以及如何消除它们。

在机器学习开发领域的许多领导者提供的工具中,机器学习数据集和模型中的偏见也很常见。

检测偏差从数据集开始。 数据集可能无法表示问题空间(例如,仅使用白天驾驶数据训练自动驾驶汽车)。 数据集还可能包含可能未被考虑的数据(例如,个人的种族或性别)。 这些分别称为样本偏倚和偏倚。

由于数据通常在用于训练或测试机器学习模型之前进行清理,因此也存在排除偏差。 当我们删除个人认为不相关的功能时,就是这种情况。 当收集的训练数据与生产过程中收集的数据不同时,就会发生测量偏差。 当使用特定类型的相机收集数据集,但生产数据来自具有不同特性的相机时,就会发生这种情况。

最后,还有算法偏差,它不是来自用于训练模型的数据,而是来自机器学习模型本身。 这包括如何开发或训练导致不公平结果的模型。

现在,我已经为您提供了偏差示例,让我们看看如何检测和防止机器学习模型中的偏差。 我们将**来自Google,Microsoft,IBM和其他开源解决方案的一些解决方案。

谷歌的假设工具(WIT)是一种交互式工具,允许用户以可视化的方式研究机器学习模型。 WIT 现在是开源 TensorBoard Web 应用程序的一部分,它提供了分析数据集和经过训练的 TensorFlow 模型的能力。 WIT 能够手动编辑数据集中的样本,并通过关联模型来查看更改的效果。 它还会生成一个部分依赖关系图,该图显示更改功能时结果如何变化。 WIT 可以应用各种公平性条件来分析模型性能(针对群体无意识或公平机会进行优化)。 WIT 易于使用,并包含各种演示,可帮助用户快速入门。

IBM 的 AI Fairness 360 是用于检测和消除机器学习模型中偏差的最全面的工具集之一。 AI Fairness 360 是一个开源工具集,具有 70 多个公平性指标和 10 多种偏差校正算法,可帮助您检测和消除偏差。 偏差校正算法包括优化预处理、权重调整、偏差去除、正则化项等。 指标包括欧几里得距离和曼哈顿距离、统计奇偶差等。 AI Fairness 360 包含大量教程和文档。 您还可以使用涵盖三个数据集(包括 Compas 累犯数据集)的交互式演示来探索偏差指标,然后应用偏差校正算法来查看结果与原始模型的比较情况。 该工具集专为开源而设计,允许研究人员添加自己的公平性指标和偏差校正算法。

IBM的研究人员也在努力实现“人工智能服务的可组合偏差评级”。该文提出一种用于机器学习模型的偏差评分系统。 此处设想的第三方评分系统用于验证机器学习模型的偏差。 与Microsoft在自然界中的学习经验类似,数据集也可能包含偏见。 马里兰大学和Microsoft Research最近发表了一份题为“我的单词嵌入中的偏见是什么?”的报告。建立了一种利用众包识别文本编码(自然语言)偏差的方法。 词嵌入可以通过特征向量表示高维空间中的文本。 随后,这些特征向量支持向量算术运算。 这允许与智力游戏进行类比,例如“男人是国王,女人是x”。 计算x的结果是女王,这是一个合理的答案。 但从其他类比来看,在某些方面可能存在偏见。 例如,“男人是计算机程序员,女人是家庭主妇”反映了性别偏见。 而“父亲是医生,母亲是**”也有同样的问题。 Microsoft已经展示了使用关联测试自动检测文本编码偏差的能力。 这是受到内隐关联测试(IAT)的启发,该测试被广泛用于衡量人类偏见。 这一发现随后通过使用众包来确认偏见得到了验证。

通过这个过程,你可以帮助词嵌入用户减少这个数据集的偏差。

在过去几年中,偏见已成为机器学习研究最热门的领域之一,用于检测和纠正模型偏见的框架正在出现。

局部可解释的与模型无关的解释 (lime) 可用于理解模型为什么提供特定的 **。 Lime 适用于任何模型,并为给定的**提供人类可理解的解释。

FairML 是一个工具箱,它通过量化模型输入的相对重要性来审核模型。 随后,这种相对重要性可用于评估模型的公平性。 FairML 也适用于任何黑盒模型。

在许多情况下,机器学习模型是一个黑匣子。 您可以为其提供输入并观察其输出,但这些模型将输入映射到输出的方式隐藏在经过训练的模型中。 可解释的模型可以帮助揭示机器学习模型得出结论的方式,但在这些模型被普遍应用之前,另一种选择是人机循环。

人机交互是一种混合模型,它将传统机器学习与监控机器学习模型结果的人类连接起来。 这允许人们观察何时采用算法或何时存在数据集偏差。 回想一下 Microsoft 如何使用众包来验证其单词嵌入偏见发现,这表明人机交互是一种可以采用的实用混合模型。 公平是一把双刃剑,对公平的数学定义仍然没有达成共识。 我们可以采用五分之四规则或其他平等措施,但缺点很快就会随之而来。

在我们能够构建完全透明和可解释的模型之前,我们仍然需要依靠各种工具集来衡量和纠正机器学习模型中的偏差。 值得庆幸的是,这些工具集功能丰富,具有大量的公平性指标和偏差校正算法。

相似文章

    数学建模与机器学习习的关系

    数学建模的习和实践可以自然地过渡到当前流行的机器习和数据挖掘。它们本质上是数学建模,即使用模型和计算机来解决实际问题。人工智能是通过机器展示的人类智能,可以说人工智能还只是处于想象阶段,能够实现的有限人工智能就是机器习机器习是一种允许计算机利用现有数据 经验 推导出某种模型的方法,并将在未来使用该模...

    PCA 和 tSNE 在机器学习中的局限性 习

    PCA 主成分分析 和TSNE T分布随机邻域嵌入 是数据分析和机器习中用于降低数据维数的两种流行技术。尽管它们很有用,但它们也有一些局限性,如下所述 线性 PCA是一种线性方法,这意味着它只能捕获变量之间的线性关系。它可能不适合具有非线性关系的数据,因为 PCA 可能无法捕获数据中的基础模式。另一...

    商用无人机行业的人工智能和机器学习

    随着商用无人机系统 UAS 行业的进步,人工智能和机器学习的使用变得越来越普遍,一些行业专家声称,如果没有它,它就不会成功。根据布鲁金斯学会的一份报告,人工智能通常是指以类似于传统人类反应的方式对模拟做出反应的机器。人工智能使用从数据创建的算法来创建这些响应。机器学习寻找 AI 数据的趋势。这两种技...

    机器学习 习 中的数据预处理和降维

    机器习和数据结构算法首先要解决的是降维。降维在机器习中是必要的,原因如下 降维提高了计算效率。降维有助于通过减少特征数量来避免过度拟合,从而限制模型的复杂性。处理维度灾难 随着维度数量的增加,训练模型所需的数据量实际上呈指数级增长。这被称为 维度灾难 降维有助于降低数据的维数,从而更容易训练模型并避...

    人工智能和机器学习领域确实为女性提供了许多机会

    人工智能和机器学习领域确实为女性提供了许多机会这些领域需要多方面的知识和技能,如数据科学 统计学和计算机科学,这对女性来说非常有价值。女性在分析 逻辑思维 专心和耐心方面具有独特的优势,这在人工智能和机器学习领域非常重要。在数据科学方面,女性可以从事数据清理 数据挖掘 数据可视化和其他工作,这些工作...