人工智能的崛起引起了算法中的偏见问题-华尔街日报
Isabelle Bousquette
偏见是AI算法的一个古老问题,部分原因是它们经常在数据集上进行训练,这些数据集存在偏斜或者不能完全代表它们所服务的群体。照片: ERIC GAILLARD/路透社围绕ChatGPT和其他生成-人工智能技术的炒作突显了企业面临的一个持续挑战:如何避免他们自己的AI算法中的偏见。
企业正在投入大量时间和金钱来减少已部署算法中的偏见。科技领袖表示,从一开始解决偏见问题比试图后来消除它更容易、更便宜,但许多公司缺乏处理这一问题的系统、流程和工具。
“这更多是一种被动模式而不是主动模式,”联合国AI顾问尼尔·萨霍塔谈到组织如何限制AI偏见的方式时说。萨霍塔先生表示,这种被动模式会带来成本,因为事后限制偏见是一个如此困难和昂贵的过程。
“公司不会额外投入1000万美元来消除可能影响100或200人的额外偏见,”他补充说。
萨霍塔先生表示,偏见是AI算法的一个古老问题,部分原因是它们经常在数据集上进行训练,这些数据集存在偏斜或者不能完全代表它们所服务的群体,另一部分原因是它们是由有自己固有偏见的人类构建的。
AI的问题被突显出来,当微软公司在二月份表示将对其新的必应搜索引擎使用新技术ChatGPT的限制进行调整,因为用户报告称在将应用程序推向极限时,出现了不准确的答案和有时不稳定的回应。
发现AI系统在识别深肤色人群的面孔时准确性较低,尤其是女性;给女性比丈夫更低的信用卡限额;以及更有可能错误地预测黑人被告将来会犯罪而不是白人。
问题的一部分在于公司没有将AI偏见控制纳入其软件开发生命周期中,就像他们已经开始在网络安全方面做的那样,KPMG LLP审计、税务和咨询服务公司美国技术咨询领导人Todd Lohr说。
数据和分析公司LexisNexis Risk Solutions全球首席信息安全官Flavio Villanustre表示,如果公司在部署算法之前解决偏见问题,那么偏见问题将会更有限。
Villanustre先生表示,一旦模型存在并显示出一些偏见,尤其是在更复杂的深度学习模型中,要理解为什么它生成了特定的答案是具有挑战性的。“这绝对是困难的,在某些情况下是不可能的—除非你能回到原点,并正确地重新设计它,使用正确的训练数据和正确的架构,”他说。
虽然删除像性别这样可能会导致性别偏见回应的变量可能很直接,但像身高这样的变量可能看起来不那么明显,但可以作为性别的替代,因为女性往往比男性矮,他说。
公司从一开始就解决偏见问题非常重要,Visa公司技术总裁Rajat Taneja说。Visa公司。
“AI的负责任和道德使用,以及在其中所需的治理和监督非常重要,”他说。“正在经历这一过程的公司必须非常意识到这一点,并在一开始就接受它,因为事后添加会使事情变得更加困难。”
Taneja先生表示,在Visa部署任何模型之前,都会由一个模型风险管理组织和一个测试潜在意外影响并确保模型符合Visa负责任和道德AI原则的团队进行评估。
更好的防护措施和标准化框架可能是解决方案的一部分,PepsiCo公司首席战略和转型官Athina Kanioura说。她说,PepsiCo一直在与其他大公司合作建立这种行业框架,其中包括一个治理层,旨在确保透明度和可见性,并减少算法偏见。
Kanioura博士还表示,PepsiCo选择不在某些事情上使用AI,因为偏见风险非常高,包括招聘决策。
跟踪和评估算法中偏见的更好工具集也可能有所帮助,根据KPMG的Lohr先生,越来越多的初创公司提供可以解决这个问题的AI管理解决方案:“我认为市场正处于临界点,它们都在获得A轮融资,你将在接下来的六个月内看到它们上线。”
写信给伊莎贝尔·布斯凯特,邮箱地址:[email protected]