在国内企业AI市场上,“AI 面试”这个智能化产品已经出来几年时间了,即公司用AI来对候选人通过视频进行面试,通过候选人跟AI 的视频问答,来判断其个人特质是否符合任职资格,包括过往经验、能力素质,以及应答反馈的情绪、表达等。
我认为今天在企业AI 这个领域里,已经出现了明确的国际分工:美国负责技术创新,中国负责场景探索,欧洲负责定义伦理底线。
中国管理模式 | 中国式报表和数字化背后的管理哲学
企业软件原理 | 德美日中印的管理模式
AI面试这个产品最大的问题并不是技术能力,也不是应用潜力,而是其合规性风险。
基于我对欧盟《人工智能法案》(EU AI Act)中的禁止性规定,以及数据合规法规GDPR及其他雇佣反歧视法规的理解,我认为,至少在欧盟法规覆盖的地区,AI 面试有非常大的合规风险。
在2025年2月2日起全面生效的欧盟AI Act 第5条第1款(f)项,明确禁止“在工作场所(workplace)和教育机构中,使用AI系统推断自然人的情绪(infer emotions)”,除非用于医疗或安全目的。
“工作场所”包括招聘过程、试用期等,即使候选人尚未正式就业,因企业方和候选人的权力不对等和方法侵入性,也适用本法规。
而“推断情绪”指的是基于生物识别数据(biometric data,如面部表情、微表情、肢体语言、语音语调、手势、打字节奏等)识别或推断喜悦、愤怒、压力、热情、诚实度、注意力等情绪或意图。欧盟委员会2025年发布的AI禁止实践指南(Guidelines on prohibited AI practices)直接指出:任何通过面部/肢体/语音分析评估候选人情绪或个人特质的AI工具,都在禁止范畴。
AI面试涉及视频、视觉、语言分析,来推断个性、热情、可靠性、文化契合度等,正是典型的“情绪/意图推断”,直接落入禁止范畴。提供商或雇主使用即违法,罚款可高达3000万欧元或全球营业额6%。此外,第5条(g)项还禁止生物识别分类系统(biometric categorisation)用于推断受保护特征(种族、性别、政治观点等),而许多AI面试会间接涉及此类风险。
即使AI 面试的功能不属于禁止范畴,也属于“高风险AI系统”(High-Risk),需严格合规(2026年8月2日起全面强制)。根据AI Act Annex III第4点,招聘/选拔中的AI的提供商和部署者均需履行高风险要求,包括风险评估、偏差测试、人类监督(human oversight,必须有真人最终决策权)、透明度(告知候选人使用AI并解释拒绝理由)、技术文档、持续监控等。
在GDPR(通用数据保护条例)中,视频AI处理面部/语音数据属于生物识别特殊类别数据,处理需明确同意(explicit consent)或极严格例外,但在招聘场景中同意通常无效,因双方权力不对等,候选人无法真正自由拒绝。 所以AI 视频面试这种系统必须进行DPIA(数据保护影响评估),招聘自动化决策(Art. 22)需人类干预权、解释权。决策模型中如果涉及到歧视(性别、年龄、种族等),还违反雇佣平等指令(2000/78/EC等)。
虽然目前在中国社会,AI 应用非常激进,但是就长远来看,欧洲对于合规性的担忧是人类社会共同面临的AI 应用伦理底线。
尽管目前中国并没有欧盟的人工智能法案规定,但是中国基于国家安全和公民权利的考虑,在信息技术、数据、人工智能等领域的合规性考量,并不会低于欧洲;所以长远来看,我认为AI 视频面试这种产品一定会被禁掉的。