在Meta转向“AI优先”组织战略的过程中,公司内部正经历前所未有的震荡。据科技媒体Ubergizmo报道,Meta已启动一项极具争议的员工数据收集计划,旨在将员工日常工作行为数据纳入AI训练模型,同时公司已连续实施多轮大规模裁员,导致内部信任急剧恶化。
Meta首席执行官马克·扎克伯格此前多次表示,2026年是Meta奠定人工智能领先地位的关键年份,公司已累计投入数百亿美元用于AI基础设施建设,包括采购数十万颗GPU并加速LLaMA系列大语言模型的迭代。然而,为实现“AI原生化”效率目标,Meta开始采用前所未有的内部数据挖掘手段,引发企业内部与技术伦理观察者的广泛关注。
员工行为数据用于AI训练的具体方案
根据多方内部消息,Meta已在位于加州门洛帕克的总部及多个分支机构部署了新型数据追踪工具,收集范围覆盖键盘输入频率、会议参与时长、麦克风活跃度、屏幕使用时间,甚至通过摄像头捕捉面部表情进行情绪分析。这些数据经“脱敏处理”后,被用来训练一个内部代号为“Productivity AI”的效率模型,意图识别高绩效员工的行为特征,并作为“最佳实践”推广至全公司。
然而,这一做法迅速引发员工反弹。多名不愿具名的Meta员工向媒体透露,管理层并未就数据收集范围与用途做出充分说明,许多员工是在系统更新后才发现自己的行为正在被持续记录。一位工程师表示:“这不是生产力工具,这是24小时不间断的绩效监控,尤其是在裁员名单尚未确定的时刻,没有人知道这些数据会被如何使用。”
Meta官方则回应称,数据收集遵循“最小必要”原则,所有个人信息均经过匿名化处理,且员工有权选择退出部分追踪项目。但员工团体指出,所谓“选择退出”在部门主管的明确暗示下形同虚设,拒绝参与的员工可能被视为“不配合转型”,在保留岗位时处于劣势。
裁员加速与内部信任危机
自2024年以来,Meta已累计裁减超过2.1万个岗位,波及技术工程、产品运营、市场营销、人力资源等多个部门。最新一轮裁员于2026年第一季度启动,主要针对中层管理岗位及重复性职能岗位,Meta官方称这是“结构优化、向AI研发倾斜”的必要步骤。
但裁员与数据收集计划的时间点重合,加剧了员工对公司动机的怀疑。内部论坛Threads上出现大量讨论,员工普遍担心自己的行为数据正被用于训练AI,而训练出的AI最终将取代更多人工岗位——形成一种“用自身数据加速自身被替代”的悖论。Meta的人力资源部门否认会将行为数据直接作为淘汰依据,但拒绝出具书面承诺,进一步削弱了声明的可信度。
部分被裁员工则指出,在离职前不久曾接到“行为评分下降”的通知,而该评分系统与数据收集模型高度相关,暗示AI分析结果可能已进入管理决策流程。Meta对此回应称,评分系统与生产力AI属于不同项目,但未提供具体证据区分两者。
法律与伦理的多重边界争议
Meta的数据收集计划在合规层面同样面临严峻挑战。欧盟《通用数据保护条例》(GDPR)对工作场所监控设定了严格限制,要求雇主在收集员工数据前必须获得“明确、自愿”的同意,并提供清晰的退出机制。Meta在欧洲多个办公室雇有超过1.6万名员工,该计划若不加修改地推广至欧洲,很可能触发监管调查。
此外,加州消费者隐私法案(CCPA)及拟议中的联邦隐私法案也在职员工数据领域划定了模糊的边界。Meta法律团队此前在内部评估中曾指出,该计划在员工知情同意的透明度和自愿性上存在“显著的法律风险”,但决策层基于“业务紧迫性”仍决定推进,仅要求法务部门提供最小化风险的操作指引。
伦理层面,AI Now Institute等非营利组织指出,将员工行为数据用于训练生产力模型,本质上是在构建一种“数字泰勒主义”,即用算法精确控制劳动过程,这无论在隐私保护还是劳动尊严上都将引发长期负面影响。Meta尚未对该类外部批评做出正式回应。
目前,部分Meta员工已开始组织内部请愿,要求暂停数据收集计划并进行第三方审计。同时,美国国家劳资关系委员会(NLRB)也收到多起针对Meta的投诉,指控其在数据收集过程中压制员工集体发声的权利。该事件仍在持续发酵,未来可能成为科技企业AI转型中员工权益保护的一个标志性案例。
本文参考来源:Ubergizmo



