共计 1668 个字符,预计需要花费 5 分钟才能阅读完成。
Resume Builder 的最新调查揭示了一个引人注目的趋势:半数美国管理者正在依赖 AI 做出关于员工的关键决策,包括晋升和解雇。这项调查覆盖了 1,342 名管理者,结果显示,60% 的受访者表示他们使用 AI 来辅助决策。具体而言,78% 的管理者使用 AI 来决定加薪,77% 用于晋升决策,而 66% 和 64% 的管理者分别使用 AI 来确定裁员和解雇。
更令人关注的是,超过 20% 的管理者承认他们“经常让 AI 在没有人工干预的情况下做出最终决策”。尽管如此,大多数管理者也表示,如果 AI 的建议与他们的判断不符,他们会进行干预。
调查还显示,管理者使用 AI 工具来完成多项与员工相关的任务,包括制定培训材料和员工发展计划。虽然 91% 的管理者表示他们使用 AI 来评估员工表现,但调查并未明确说明这些评估的具体内容。
此外,近一半(46%)的受访管理者被要求评估 AI 是否可以取代其下属。其中,57% 的管理者认为 AI 可以接管某些职位,而 43% 的管理者已经用 AI 取代了人类角色。然而,调查并未提供关于这些被替换职位的详细信息。
在常用的 AI 工具方面,53% 的管理者最常使用 ChatGPT,29% 选择 Microsoft Copilot,16% 使用 Gemini,其余 3% 的管理者使用其他工具。
尽管 AI 在职场中的使用日益普及,但调查指出,三分之二使用 AI 的管理者缺乏正式的 AI 培训。这一问题因缺乏统一的培训标准和持续的政策监管而变得更加复杂。
Resume Builder 的首席职业顾问 Stacie Haller 警告说:“虽然 AI 可以提供数据驱动的洞察,但它缺乏背景、同理心和判断力。组织有责任以合乎道德的方式实施 AI,以避免法律责任、保护企业文化并维持员工之间的信任。”
然而,何为“合乎道德”的实施方式仍不明确。调查并未要求管理者报告他们对使用 AI 管理下属的适当性的定义或直觉。
AI 专家 Hilke Schellmann 强调:“在管理中使用 AI 的合乎道德的方式需要对员工保持高度透明,让他们在决定使用何种系统时拥有发言权,并明确展示他们被评估的原因——最重要的是,如何被评估。”她还建议,员工应有一种方式可以对算法做出的决定提出上诉,尤其是在这些决定可能像裁员一样具有重大影响时。
AI 工具在招聘和其他人力资源职能中的使用已变得普遍。大多数管理者报告称,公司鼓励他们使用 AI 管理下属,通常是为了提高效率、减少开销以及更快地评估数据。然而,批评者指出,这些敏感的使用场景是 AI 偏见可能最具破坏性的地方。
2021 年,纽约市通过了《地方法 144 号》,要求任何自动就业决策工具(AEDT)必须定期进行偏见审计,并公布审计结果。然而,该法律因将 AEDT 定义得过于狭窄而受到批评,导致公司的执行和合规性逐渐减弱。
在没有明确的员工保护措施或员工上诉结果的强制性途径的情况下,AI 在人事中的使用基本上由各公司自行决定。监管机构可以通过制定更严格的透明度要求和流程,将注意力转向这一 AI 使用场景,这些要求和流程是公司在使用可能影响员工的 AI 工具时需要遵守的。
人力资源管理协会(SHRM)的一份 2023 年论文指出,员工有权知道 AI 何时以及如何使用,提出疑问,并在适用的情况下选择退出。目前尚不清楚有多少受访管理者已经让他们的下属了解其 AI 使用情况。
Resume Builder 的调查并未询问管理者与 AI 工具共享了哪些关于其下属的信息。如果管理者在没有员工同意的情况下,将绩效细节、薪资和其他潜在敏感数据输入聊天机器人,他们可能会制造一个员工无法控制的严重隐私问题。
如果员工担心 AI 生成的决策会影响其职位的未来,他们可以采取哪些措施?这取决于 AI 如何被使用在他们身上。Schellmann 建议员工团结起来,与工会合作,并在他们的谈判协议中写明,监控技术必须被披露,并且需要与工会代表共同决策。
除了监控之外,员工还应在适用的情况下向管理者询问 AI 工具的使用透明度——尽管围绕反馈的规范以及管理者在没有 AI 工具的情况下如何得出结论可能会使这一过程变得困难。
想了解更多关于 AI 的故事? 订阅我们的每周通讯《Innovation》。