人事管理政策应该使用人工智能吗?

带有复杂算法的技术正在成为人力资源部门做出雇佣决策的流行工具,但它并不能消除偏见,安娜警告说Ginès

人工智能(AI)在人员管理中的应用正变得越来越流行——使用机器学习系统做出自动化决策的复杂算法。从商业角度来看,人工智能技术具有明显的优势:决策过程变得快速高效;通过应用数学,决策变得客观。真的是这样吗?

不幸的是,人工智能和数学算法本身并不能消除偏见。事实上,如果不采取适当的行动,它们就会复制和放大偏见,同时危及工人的权利。但这是如何发生的呢?我们怎样才能防止这种情况发生呢?

首先,在收集数据以设计人员管理政策中的算法时,我们会冒着侵犯隐私权的风险。例如,在招聘过程中,在面试中使用社交媒体跟踪系统或面部识别系统越来越普遍。这些工具在获取有关候选人的信息方面很有用,也可以让人获得属于个人私人领域的数据,例如他们的政治观点或性取向,或他们的精神状态。

这些信息不仅可以通过第一手数据获得,也可以从其他主要客观数据中推断出来,如照片、事件或他们访问的网页。另一方面,许多员工不知道他们的哪些信息正在被收集,哪些档案正在被创建,这与数据保护相冲突。

在平等和非歧视方面,许多算法在创建时没有适当代表少数群体或传统上受到歧视的群体——如女性、少数民族背景的人——这导致了错误的预测或决定。

例如,一家公司可能会设计一种算法,丢弃有拼写错误的简历。原则上,这是一个客观参数,但它可能基于人们的出身而歧视他们——它会自动将母语不同的人排除在外。也许在一些工作中,比如记者或教师,这是一项基本要求,但在许多其他工作中,这可能是一个歧视性的过程。因此,在设计算法时,无论要求看起来多么合理和客观,都应该始终记住可能的副作用。

最后,许多公司使用“现成的”算法,这些算法是由第三方设计的,并且已经准备好并经过培训。有一种风险是,公司可能会躲在这样的“黑匣子”后面,为不公平的决定辩护,逃避责任。

除了纯粹的技术解决方案之外,还可以采取一些措施来帮助开发更好的算法和保护工人的权利。这些包括:

  • 促进少数群体参与数据收集和算法设计。此外,也许是时候正面解决关于算法配额的争论了。
  • 法律要求所有算法都是可审计的,这样它们就可以接受定期评估,分析它们产生的影响。
  • 确保算法的透明度,并让员工访问他们的数据,包括他们从中推断出的数据。
  • 让工人代表不仅能获得有关就业决策变量的信息,还能了解这些决策的影响——这是一种内部审计

简而言之,这不是一个拒绝技术的问题,而是在积极意义上充分利用创新的潜力。公司需要能够依靠有效的算法来帮助他们做出最佳决策,而这只有在正确的数据系统到位的情况下才能实现。

安娜Ginès是Esade商业与法学院的教授