Meta 计划用人工智能取代人类来评估隐私和社会风险
多年来,当 Meta 为 Instagram、WhatsApp 和 Facebook 推出新功能时,审查团队评估了可能的风险:它会侵犯用户隐私吗?它会对未成年人造成伤害吗?它会加剧误导性或有毒内容的传播吗?
直到最近,Meta 内部所谓的隐私和完整性审查几乎完全由人工评估员进行。
但现在,根据 NPR 获得的公司内部文件,高达 90% 的风险评估将很快实现自动化。
在实践中,这意味着 Meta 算法的关键更新、新的安全功能以及允许在公司平台之间共享内容的方式的更改等内容将主要由人工智能驱动的系统批准——不再受到负责辩论平台更改如何产生不可预见的影响或被滥用的工作人员的审查。
在 Meta 内部,这一变化被视为产品开发人员的胜利,他们现在将能够更快地发布应用程序更新和功能。但 Meta 的现任和前任员工担心,新的自动化推动是以允许 AI 对 Meta 的应用程序如何导致现实世界的危害做出棘手的决定为代价的。
“就这个过程在功能上意味着更多的东西发布得更快,审查和反对不那么严格,这意味着你正在创造更高的风险,”一位前 Meta 高管说,他因担心遭到公司的报复而要求匿名。“产品变化的负面外部性不太可能在开始给世界带来问题之前得到预防。”
Meta 在一份声明中表示,它已投资数十亿美元来支持用户隐私。
自 2012 年以来,在该机构与联邦贸易委员会就如何处理用户个人信息达成协议后,Meta 一直受到联邦贸易委员会的监督。因此,根据 Meta 现任和前任员工的说法,需要对产品进行隐私审查。
Meta 在其声明中表示,产品风险审查的变化旨在简化决策,并补充说“人类专业知识”仍被用于“新颖和复杂的问题”,并且只有“低风险决策”才会被自动化。
但 NPR 审查的内部文件显示,Meta 正在考虑对敏感领域进行自动化审查,包括 AI 安全、青少年风险以及一个被称为诚信的类别,其中包括暴力内容和虚假信息传播等内容。
前 Meta 员工:“工程师不是隐私专家”
一张描述新流程的幻灯片说,产品团队现在在大多数情况下将在完成有关项目的问卷后收到“即时决定”。该 AI 驱动的决策将确定风险领域和解决这些风险的要求。在发布之前,产品团队必须验证它是否满足这些要求。
在以前的系统下,产品和功能更新在得到风险评估员的批准之前无法发送给数十亿用户。现在,构建 Meta 产品的工程师可以对风险做出自己的判断。
幻灯片说,在某些情况下,包括涉及新风险的项目或产品团队需要额外反馈的项目,项目将由人工审核,但不会像以前那样默认。现在,构建产品的团队将做出这个决定。
“大多数产品经理和工程师都不是隐私专家,这不是他们工作的重点。这不是他们主要接受评估的目标,也不是他们被激励优先考虑的目标,“在 2022 年之前担任 Meta 负责任创新总监的 Zvika Krieger 说。Meta 的产品团队会根据他们推出产品的速度以及其他指标进行评估。
“过去,其中一些类型的自我评估已经变成了错过重大风险的检查练习,”他补充说。
Krieger 表示,虽然 Meta 在通过自动化简化评论方面还有改进的余地,但“如果你做得太过分,评论的质量和结果不可避免地会受到影响。
Meta 淡化了对新系统会给世界带来问题的担忧,指出它正在审计自动化系统为未经人工评估的项目做出的决定。
Meta 文件表明,其在欧盟的用户可能在某种程度上不受这些变化的影响。一份内部公告称,欧盟产品和用户数据的决策和监督将保留在 Meta 位于爱尔兰的欧洲总部。欧盟有管理在线平台的法规,包括《数字服务法》,该法案要求包括 Meta 在内的公司更严格地监管其平台并保护用户免受有害内容的侵害。
产品审核流程的一些变化首先由科技新闻网站 The Information 报道。NPR 看到的内部文件显示,在公司结束事实核查计划并放宽仇恨言论政策后不久,员工就收到了有关改革的通知。
综上所述,这些变化反映了 Meta 的新重点,即支持更无拘无束的言论和更快速地更新其应用程序——拆除了该公司多年来为遏制其平台滥用而制定的各种护栏。该公司的重大转变也是在首席执行官马克·扎克伯格(Mark Zuckerberg)努力讨好特朗普总统之后发生的,扎克伯格称特朗普总统的选举胜利为“文化转折点”。
更快地评估风险是否“弄巧成拙”?
推动产品评论变化的另一个因素是,在来自 TikTok、OpenAI、Snap 和其他科技公司的日益激烈的竞争中,人们更广泛地推动利用人工智能来帮助公司更快地发展。
Meta 本周早些时候表示,它更多地依赖 AI 来帮助执行其内容审核政策。
“我们开始看到 [大型语言模型] 在选定的政策领域超越了人类绩效,”该公司在其最新的季度诚信报告中写道。该公司表示,它还使用这些 AI 模型来筛选一些该公司“非常有信心”不会违反其规则的帖子。
“这为我们的审阅者释放了能力,使他们能够将他们的专业知识优先处理更有可能违规的内容,”Meta 说。
科技政策公司 Anchor Change 的创始人兼首席执行官凯蒂·哈巴斯(Katie Harbath)在 Facebook 从事了十年的公共政策工作,她表示,使用自动化系统来标记潜在风险有助于减少重复工作。
“如果你想快速行动并获得高质量,你将需要整合更多的人工智能,因为人类在一段时间内只能做这么多,”她说。但她补充说,这些系统也需要来自人类的制衡。
另一位不愿透露姓名的前 Meta 员工也担心遭到公司的报复,他质疑加快风险评估的速度对 Meta 来说是否是一个好策略。
“这几乎似乎弄巧成拙。每次他们推出新产品时,都会受到如此多的审查——而且这种审查经常会发现公司本应该更认真地对待的问题,“这位前员工说。
Meta 产品首席隐私官 Michel Protti 在 3 月份在其内部通信工具 Workplace 上的一篇文章中表示,该公司正在“赋予产品团队权力”,目的是“发展 Meta 的风险管理流程”。
一位熟悉产品风险评估的现任 Meta 员工表示,自动化的推出在 4 月和 5 月一直在加速,他无权公开谈论内部运营。
Protti 表示,在 90% 的情况下,自动化风险审查并让产品团队对产品更新带来的潜在风险有更多发言权,旨在“简化决策”。但一些内部人士表示,将人类从风险评估流程中剔除的乐观总结大大淡化了这些变化可能造成的问题。
"考虑到我们存在的原因,我认为这是相当不负责任的,“接近风险审查过程的 Meta 员工说。“我们提供关于事情如何出错的人性视角。”