欧盟人工智能法案:人力资源需要知道什么

2025-08-18 16:57来源:本站

  

  《欧盟人工智能法案》(EU AI Act)将于明年2月生效,将影响任何开发或部署大型语言模型工具的公司,包括英国雇主。James Flint解释道。

  在过去18个月左右的时间里,人们对人工智能的突破感到兴奋,再加上不确定的经济环境,促使各种各样的人力资源部门迅速采用这项技术。

  聊天机器人可以以比传统网站更人性化的方式回答求职者的问题,帮助安排面试,并提供最新的申请进度。

  人工智能可以在招聘板、社交和专业网站以及内部数据库上搜索,以找到具有特定技能的候选人。当收到简历时,人工智能可以比过度紧张的人类团队更有效地筛选和排名。

  该技术还可以自动化文件验证的入职管理,帮助设计和运行培训,分析内部调查,发现员工情绪的趋势,甚至——有点违反直觉的——消除经常潜入绩效评估的那种无意识的人为偏见。

  过去,部署此类工具的指导方针主要由GDPR第5条中列出的数据保护原则(包括准确性、公平性、透明度和保密性)和第23条中关于“自动决策”的规定来定义。

  但从2025年2月2日起,监管领域出现了一个新成员,即《欧盟人工智能法案》,该法案将招聘、人力资源或工人管理领域的任何人工智能活动定义为“高风险”。

  在英国开发或部署在欧盟使用的人工智能系统的企业将需要遵守该法案。

  这可能会把任何有远见的人力资源部门纳入他们需要意识到的额外立法开销的范围内。

  这项技术应该已经引发了一些问题,比如,如果人工智能可以在所有这些领域如此容易地使用,那么当它开始表现不佳或出现问题时,会发生什么?

  如果人工智能增加而不是消除偏见,对候选人的素质产生幻觉而不是对他们进行评估,或者对队列数据的分析不佳而不是正确识别其中的模式,那么结果对雇主和员工都可能是灾难性的。

  错误的人可能会被雇用,错误的团队可能会受到谴责,错误的广告可能会发布,所有这些都会对公司文化产生不利影响,并最终导致昂贵的诉讼和公关灾难,一旦这些影响渗透到人们的日常生活中,情况就会更糟。

  这就是为什么《欧盟人工智能法案》选择将人工智能的招聘、人力资源和员工管理应用纳入其“高风险”类别,与医疗设备、自动驾驶汽车、执法、生物识别和关键基础设施等领域的人工智能并列。

  如果你正在为这些类型的用例创建人工智能系统,这使你成为“人工智能提供者”,人工智能提供者受到一整套监管义务的约束,包括(但不限于):

  实施适当的风险管理过程

  使用符合目的且无偏见的数据集,维护技术文档心理和人的疏忽

  完成一个叫做co的东西符合性评估,有点像数据保护影响评估(DPIA),但针对的是人工智能

  在欧盟官方数据库中注册您的模型高风险的人工智能系统

  莫在系统部署后,监控和纠正系统的性能和安全性

  重要的是要明白,你将被归类为人工智能提供商,并承担所有这些责任,即使你只是采用现有的模型,比如一个开源的大语言模型(LLM),如Mistral或Llama,然后用你自己的数据集或一些检索增强生成(RAG)对其进行微调。

  所以,如果你有一个积极主动的团队,他们一直在用这些新技术为你构建一些花哨的工具,那么要小心了——你可能会遇到比你预想的更多的文书工作。

  即使你只是部署一个从其他地方购买的系统,该法案仍然会要求你对一系列要求负责,包括目的限制、人工监督、输入数据的监控、记录保存、事件报告、对受影响方的透明度,以及减少偏见和风险。

  这甚至是在我们谈到供应商和用户都必须遵守并确保他们的系统符合的道德考虑之前。

  人工智能不像传统的软件。传统的软件是确定性的:它按照指令行事,当它不这样做时,这个问题可以通过对程序进行更改来解决(至少在理论上)。但人工智能系统本质上是概率性的。

  如果你正在为人力资源用例创建人工智能系统,这将使你成为“人工智能提供者”,而人工智能提供者将受到一整套监管义务的约束。

  它们的工作基于对大量数据的统计分析,虽然这使得它们在处理现实世界的不确定性时比传统软件系统更加健壮,但这也意味着它们的输出本质上是不确定的。

  遵守欧盟人工智能法案应被视为遏制这种不确定性并使其永久处于审查之下的一种方式。

  重点应该是实现对数据的全面监督,促进透明度,并设计既服务于企业又服务于候选人的流程。

  这包括对现有人工智能系统进行彻底审计,对新系统实施严格的设计一致性实践,并对团队进行人工智能道德使用方面的培训。

  通过采取积极主动的方法,从一开始就实施良好的人工智能治理,人力资源部门可以避免匆忙实施的陷阱,并确保这项令人兴奋的技术为他们的组织带来福音,而不是威胁。

  每周三接收《今日人事》电子通讯

百读八八声明:未经许可,不得转载。