人工智能可以帮助消除偏见吗?

我们不会看到事物的本质,我们只是以自己的方式在看待它 。”她相当简洁地描述了伴随我们的大脑而来的各种不幸的偏见

人工智能可以帮助消除偏见吗?

在商业环境中,亲和力偏差、确认偏差、归因偏差和光环效应,这些推理错误中的一些更为人所知的,实际上只是表面上的。总的来说,他们会留下一连串的冒犯和错误。

当然,人类最有害的偏见是那些基于年龄、种族、性别、宗教或外貌而对我们的人类同胞产生偏见或反对我们的偏见。尽管我们努力净化我们自己、我们的工作环境和我们的社会,使其不受这些扭曲的影响,但它们仍然在我们的思想和行为中渗透,甚至包括现代技术,比如人工智能

批评人士表示,人工智能让偏见变得更糟

自从人工智能首次被部署在招聘、贷款审批、保险费建模、面部识别、执法和一系列其他应用中以来,批评人士(有相当多的理由)指出了该技术的偏见倾向。

例如,谷歌的新版语言模型BERT(Bidirectional Encoder Representations from Transformers)是一个领先的自然语言处理(NLP)模型,开发人员可以使用它来构建他们自己的AI。BERT最初是使用维基百科文本作为其主要来源构建的。这有什么问题吗?维基百科的贡献者绝大多数是 来自欧洲和北美的白人男性 。因此,基于语言的人工智能最重要的来源之一在其诞生之初就带有偏见的观点。

在人工智能开发的另一个关键领域计算机视觉中也发现了类似的问题。面部识别数据集包含数十万张标注的人脸,这对于开发用于网络安全、执法甚至客户服务的面部识别应用程序至关重要。然而,事实证明,开发人员(可能大部分是白人中年男性)在为像他们这样的人实现准确性方面不知不觉地做得更好。女性、儿童、老年人和有色人种的错误率远高于中年白人男性。因此,IBM、亚马逊和微软在2020年被迫停止向执法部门销售其面部识别技术,因为担心这些偏见会导致对嫌疑人的错误识别。

要了解更多信息,可以观看重要且有时令人不寒而栗的纪录片《编码偏见》Coded Bias。

如果AI实际上是偏见解决方案的一部分呢?

然而,对人工智能偏见现象的更好理解表明,人工智能只是暴露和放大了已经存在但被忽视或误解的隐性偏见。人工智能本身不受颜色、性别、年龄和其他偏见的影响。它不易受到困扰人类的逻辑谬误和认知偏见的影响。我们看到人工智能存在偏见的唯一原因是人类有时会用启发式错误和有偏见的数据来训练它。

自从发现上述偏见以来,所有主要的技术公司都在努力改进数据集并消除偏见。消除人工智能偏见的一种方法?——通过使用人工智能!如果这似乎不太可能,我们继续探讨。

使用人工智能消除招聘中的偏见

经典的例子可以在工作机会中找到。在最令人垂涎的就业机会范围内,众所周知,女性和有色人种的代表性不足。这种现象是自我延续的,因为新员工成为高级领导者,他们开始负责招聘。亲和偏见确保“像我这样的人”继续被录用,而归因偏见则根据过去员工的表现证明这些选择是正确的。

但当人工智能在招聘中发挥更大作用时,这种情况可能会改变。像Textio、Gender Decoder和Ongig这样的工具使用人工智能来仔细检查关于性别和其他特征的隐藏偏见。Knockri、Ceridian和Gapjumpers使用人工智能删除或忽略识别性别、国籍、肤色和年龄的特征,这样招聘经理就可以只关注求职者的资格和经验。其中一些解决方案还通过客观评估候选人的软技能或改变候选人的电话声音来掩盖他们的性别,从而减少了面试过程中的近因偏见、亲和力偏见和性别偏见。

用人工智能消除风险投资决策中的偏见

在风险投资界也可以采取类似的做法。在风险投资界,男性 占合伙人的 80% ,而女性只获得2.2%的投资,尽管她们是40%新创业公司的创始人。例如,英国创业加速器Founders Factory编写了一款软件,根据可识别的创业成功特征对 项目候选人进行筛选。同样,由女性运营的非盈利机构F4capital开发了一套“ 创业公司 FICO 评分 ”(FICO score for Startups),用来评估初创公司的成熟度、机会和风险,以消除风险决策过程中的偏见。这种方法应该被广泛采用,不仅因为它是一件合乎道德的事情,还因为它带来了更好的回报——比没有人工智能帮助的投资高出 184% 。

差减少人工智能在医学领域的认知偏差

人工智能还可以帮助在医疗保健方面做出更好的决策。例如,医疗诊断公司 Flow Health 致力于使用人工智能来克服医生经常用来诊断病人的认知偏见。例如,“ 可获得性启发 ”鼓励医生做出常见但有时不正确的诊断,而“锚定启发式”导致他们坚持不正确的初始诊断,即使新信息与他们相矛盾。我相信人工智能将成为快速发展的数据驱动的个性化医疗世界的重要组成部分。

人工智能可以减少常见偏见的其他领域

人工智能甚至可以帮助减少不那么恶性、但仍然非常强大的偏见,这些偏见经常会蒙蔽我们的商业判断。想想(在英语国家)对用英语发布的信息的偏见,创业公司对年纪较大的人的偏见,尽管他们的知识和经验更丰富;制造业倾向于使用相同的供应商和方法,而不是尝试新的、可能更好的方法。别忘了,在经济困难时期,供应链管理的高管和华尔街的投资者会出于情感因素做出短期决策。

让人工智能在所有这些领域发挥作用,可以有效地检查决策过程中未被识别的偏见。

人工智能甚至可以用来减少人工智能的偏见

如果犯错是人的本性,人工智能可能是我们所需的解决方案,以避免我们隐藏的偏见带来的代价高昂和不道德的后果。但这些偏见对人工智能本身的干扰又如何呢?如果人工智能误读了有偏见的数据,并放大了有偏见的人类启发式,它怎么可能是一个有用的解决方案?

现在有一些工具旨在消除隐含的人类和数据偏见,这些偏见悄悄地进入人工智能。What-If 工具由 Google 的 People and AI Research 团队 (PAIR) 开发,允许开发人员使用广泛的“公平指标”库来探索 AI 的性能,而 PWC 的Bias Analyzer 工具、IBM Research 的AI Fairness 360工具和 O’ Reilly 的每个LIME 工具都可以帮助我们识别 AI 代码中是否存在偏见。

如果你是一名高级管理人员或董事会成员,正在考虑人工智能可能减少你组织中的偏见的方式,我敦促您将人工智能视为武器库中一个有希望的新武器,而不是将其视为完全解决问题的灵丹妙药。从整体和实际角度来说,你仍然需要建立减少偏见的基准,培训你的员工识别和避免隐藏的偏见,并从客户、供应商或顾问那里收集外部反馈。偏见审查不仅是一个好主意,在某些情况下,它们甚至是法律。

文章版权声明

 1 原创文章作者:8253,如若转载,请注明出处: https://www.52hwl.com/40806.html

 2 温馨提示:软件侵权请联系469472785#qq.com(三天内删除相关链接)资源失效请留言反馈

 3 下载提示:如遇蓝奏云无法访问,请修改lanzous(把s修改成x)

 免责声明:本站为个人博客,所有软件信息均来自网络 修改版软件,加群广告提示为修改者自留,非本站信息,注意鉴别

(0)
打赏 微信扫一扫 微信扫一扫 支付宝扫一扫 支付宝扫一扫
上一篇 2023年7月15日 上午11:09
下一篇 2023年7月15日 上午11:09