科技巨头Meta近期陷入巨大争议,有内部员工爆料,公司正强制抓取所有在职员工的鼠标按键、键盘输入等操作数据,用于训练其新一代人工智能模型,这一“炼化”式数据收集行为,不仅引发员工集体不满,更触及隐私与伦理的红线,让外界对科技巨头的AI研发底线再度产生质疑。这场看似隐蔽的数据掠夺,实则是Meta为抢占AI赛道,不惜牺牲员工权益的激进操作。
据悉,Meta此次推行的强制数据抓取机制,覆盖全球所有在职员工,无需员工主动授权,系统会自动记录员工日常办公中的每一次鼠标点击、键盘输入、页面切换,甚至包括聊天记录、文档编辑痕迹等非公开操作数据。有员工透露,公司内部通知称,这些数据将用于优化AI模型的交互逻辑、提升人机协同效率,助力Meta在生成式AI、智能办公助手领域实现突破,但并未说明数据的具体使用范围、存储期限,也未提供拒绝选项。
这一强制操作瞬间引发Meta内部的轩然大波。不少员工吐槽,自己的工作隐私被完全剥夺,日常办公中的失误操作、私人聊天片段、未公开的工作方案,都可能被纳入AI训练数据,甚至可能被泄露或滥用。有技术岗位员工直言,这种“炼化”式的数据收集,本质上是把员工当作“免费数据工具人”,忽视了员工的基本隐私权益,即便部分员工提出异议,也被公司以“工作要求”为由驳回,毫无协商余地。
Meta的激进之举,背后是其在AI赛道的焦虑与野心。近年来,OpenAI、谷歌等竞争对手纷纷推出重磅AI产品,抢占市场先机,而Meta的AI布局虽持续发力,却始终未能形成绝对优势。为快速积累高质量训练数据,Meta选择剑走偏锋,将目光投向内部员工——员工的办公操作数据真实、精准,且无需支付额外成本,成为其低成本获取训练数据的“捷径”,这也暴露了科技巨头在AI研发中“重速度、轻伦理”的倾向。
更值得警惕的是,这种强制抓取员工数据的行为,还可能引发连锁风险。一方面,员工的办公数据中可能包含Meta的商业机密、未公开的研发计划,若用于AI训练时未进行严格脱敏,可能导致机密泄露;另一方面,这种无视隐私的操作,可能引发员工的信任危机,导致人才流失,同时也可能面临监管部门的调查——欧盟《通用数据保护条例》(GDPR)明确规定,数据收集需获得当事人明确授权,Meta的强制操作已涉嫌违规。
截至目前,Meta尚未对此次强制数据抓取事件作出公开回应,但内部的反抗情绪仍在蔓延。事实上,科技巨头的AI发展,从来都不应以牺牲隐私、违背伦理为代价。Meta此次“炼化”同事、强制抓取鼠标按键的操作,看似是快速推进AI研发的权宜之计,实则是对员工权益的漠视,也是对行业伦理的挑战。若不能及时整改,不仅会损害自身口碑,更可能为整个科技行业的AI发展埋下隐私隐患,最终得不偿失。