共计 1684 个字符,预计需要花费 5 分钟才能阅读完成。
根据最新研究,仅有 34% 的组织制定了使用生成式 AI 的政策,而更少的组织拥有有效的培训计划。技术分析公司 Valoir 的报告指出,大多数公司已经在利用 AI 进行人力资源活动,如招聘、学习和人才管理,或者计划在未来 24 个月内这样做。
然而,在安全有效采用 AI 的政策、实践和培训方面存在显著差距。只有 34% 的组织制定了关于生成式 AI 的政策,而更少的组织提供了有效的培训。这一结果表明,人力资源部门必须优先制定强有力的政策、指导和培训,以确保 AI 的采用最大化收益,同时最小化人力资源及整个组织内的风险。
以下是 Valoir 研究中的一些关键发现:,
- 招聘是当前组织中使用生成式 AI 最常见的领域,超过 30% 的组织报告了使用情况,另有 36% 的组织计划在未来 24 个月内采用该技术进行招聘。
- 在过去两年中,AI 在培训和发展、核心人力资源和绩效管理中的采用率翻了一番。
- 多个人力资源领域适合 AI 自动化,包括招聘、薪酬管理和绩效管理。
- AI 技能和专业知识缺乏是 AI 采用的最大障碍,37% 的人力资源组织指出了这一点,其次是 AI 解决方案的不成熟(15%)和监管或合规问题(15%)。
- 只有 34% 的组织制定了使用生成式 AI 的政策,而更少的组织制定了关于 AI 伦理使用的政策。
- 只有 31% 的组织有有效使用 AI 的培训。自 2023 年以来,这一比例翻了一番以上,表明有进展。然而,只有 10% 的组织为工作或角色面临被替代风险的员工制定了培训或发展计划。
人力资源领导者认为 AI 在招聘(25%)、培训和发展(18%)、核心人力资源(11%)、绩效管理(10%)和劳动力管理(10%)领域最具潜力。人才管理在 2023 年是 AI 感知价值潜力排名第三的领域,但在 2025 年落后于核心人力资源、绩效管理和劳动力管理。
AI 在人力资源中价值增加的驱动力在于,生成式 AI 的创作、推荐和总结能力在过去两年中大幅提升。数据仍然是一个挑战,尤其是在访问外部数据源时。数据孤岛使得在没有数据协调和整合多个数据源的情况下应用 AI 进行分析更加困难。
AI 在人力资源中的使用不仅带来了 FOMO(害怕错过),还带来了 FOMU(害怕搞砸)。人员、数据和金钱的交集几乎没有犯错的空间。在招聘、薪酬和绩效管理中扩展 AI 驱动的自动化时可能出现错误,这可能导致人力资源领导者暂停实施,以确保数据质量和 AI 治理政策最小化潜在风险。
风险最高的领域包括薪酬管理(25%)、招聘(24%)、绩效管理(22%)、核心人力资源(7%)和人才管理(6%)。人力资源领导者还担心由于模型训练不佳、用于训练模型的缺陷数据以及对个人和机密员工数据的访问管理不善而导致的 AI 算法偏见。数据泄露和安全是风险因素,如果没有防护措施和培训,应用程序和员工可能会将机密的人力资源数据暴露给语言模型。
此外,AI 可能会继续产生幻觉。偏见和毒性是风险因素。建议继续将人类置于循环中以减少这些风险因素。
招聘在采用 AI 方面领先于其他人力资源职能。几乎三分之一(30%)的招聘人员使用 AI 来支持某些活动。培训和发展以及人才管理是人力资源中采用 AI 的第二大领域。Valoir 发现,65% 的组织目前正在使用 AI 或计划在未来 24 个月内将 AI 应用于招聘。薪酬管理和福利管理仍然是 AI 采用率最低的领域,因为使用敏感的员工数据存在风险。
最大的障碍是 AI 技能和专业知识缺乏(37%)、AI 解决方案的不成熟(15%)以及监管或合规问题(15%)。在 2023 年,只有 26% 的人力资源领导者将技能和专业知识作为阻碍他们采用工作的主要障碍。人力资源中 AI 采用缓慢的其他实际原因包括:对变革的抵制;AI 营销和沟通不佳,以及内部领导倡导不足;缺乏政策、培训和沟通计划。
Valoir 的发现突显了许多组织仍然需要走多远:,
- 只有 37% 的组织制定了使用 AI 的政策。
- 仅有 33% 的组织制定了关于 AI 伦理使用的政策。
- 只有 31% 的组织有有效使用 AI 的培训。
- 仅有 9% 的组织为可能被 AI 取代的员工制定了培训计划。
人力资源中采用 AI 技术的紧迫感正在迅速增长。Valoir 的研究强调,组织必须努力实现 AI 的全部潜力。要了解更多关于 Valoir 研究的信息,可以访问这里。