Twitter会忽略报复性色情内容删除请求

Twitter声称其平台不容忍非自愿的裸露行为。但最近的一项研究表明,如果受害者通过数字千年版权法 (DMCA) 删除内容,而不是使用 X 的举报 NCII 机制,X 更有可能迅​​速删除这些有害内容(有时被称为报复性色情或非自愿亲密图像 (NCII))。

404 Media指出,在这项尚未经过同行评审的预印本研究中,密歇根大学的研究人员解释说,他们对 X 的非自愿裸体政策进行了测试,以显示受害者在网上删除 NCII 的难度。

为了进行实验,研究人员创建了两组 X 账户,发布和举报 AI 生成的 NCII,“将 20 多岁到 30 多岁的白人女性描绘成”上半身赤裸,包括脸部。 (选择白人女性是为了“尽量减少偏见治疗带来的潜在混淆”,并建议未来对其他性别和种族进行研究。)在研究人员在 X 上发布的 50 张虚假 AI 裸照中,一半被举报违反了 X 的非自愿裸体政策,另一半使用了 X 的 DMCA 删除机制。

研究人员给了 X 最多三周的时间通过每种举报机制删除内容,他们发现,差异是“明显的”。虽然 DMCA 机制会在 25 小时内删除所有 25 张图片,并暂时封禁所有分享 NCII 的账户,但根据 X 的非自愿裸露政策举报内容却没有得到任何回应,也没有被删除。

研究人员认为,这种巨大的差异是一个问题,因为只有那些拍摄了未经他们同意而被分享的照片或视频的受害者才拥有发起 DMCA 删除的版权。最终,DMCA 删除流程可能过于昂贵,甚至会劝阻那些可以使用它的受害者。

其他人要么没有创建有害图像,要么无法证明他们创建了有害图像,因此他们似乎无法保证快速删除图像,因为 X 对其内部 NCII 报告机制的响应时间据说很慢(有时似乎没有),这让研究人员感到困扰。

研究指出,“不幸的是,NCII 的内容经常在网上保留数年而得不到解决”。

研究人员表示,NCII 在上线后的 48 小时内造成的危害最大,而且这个问题很普遍。研究指出,八分之一的美国成年人要么成为攻击目标,要么受到报复性色情的威胁。研究人员表示,人工智能生成的 NCII 只会“加剧”这一问题,任何在网上发布照片的人都面临基于图像的性虐待风险,联邦调查局去年警告称。在这些人工智能案件中,DMCA 删除流程可能也不会适用,似乎越来越多的受害者不得不等待 X 的内部报告机制删除 NCII。

研究人员表示,这些发现表明,我们需要“转变”观念,不再指望平台监管 NCII。相反,立法者应该制定专门的联邦 NCII 法律,该法律应与 DMCA 一样有效,通过“对侵权用户采取惩罚措施”以及要求删除的法律机制来强制删除 NCII。研究人员表示,这也可能会解决一些法律专家的担忧,即“利用版权法保护性隐私会‘扭曲知识产权制度’”。

该研究建议:“保护私密隐私需要从依赖平台善意转向可执行的法律法规。”

研究人员警告说,就目前情况而言,平台没有法律动机去删除 NCII。

研究人员和 X 尚未立即回应 Ars 的评论请求。

在其最新的透明度报告中,X 报告称,它在 2024 年上半年删除了超过 150,000 条违反其非自愿裸露政策的帖子。超过 50,000 个帐户被暂停,并有 38,736 份非自愿裸露报告。大多数暂停和内容删除都是由人工版主执行的,只有 520 次暂停和大约 20,000 次删除是自动执行的。

如果人工审核员是快速响应的关键,那么埃隆·马斯克接管平台后 X 安全团队的裁员似乎可能影响了 NCII 的行动程度。不过,去年X 开始重建该团队。今年早些时候,在泰勒·斯威夫特 AI 生成色情内容丑闻爆发之际,X 宣布将推出一个新的信任和安全“卓越中心” 。

为什么这项研究以 X 为目标?

密歇根大学的研究小组担心他们在 X 上发布人工智能生成的 NCII 的实验可能会跨越道德界限。

他们选择在 X 上进行这项研究,因为他们推断这是“一个没有志愿版主的平台,而且付费版主几乎不会受到影响,如果有的话”会查看他们由人工智能生成的裸照。

X 的透明度报告似乎表明,大多数报告的非自愿裸体内容都是由人工版主处理的,但研究人员报告称,他们标记的内容从未在没有 DMCA 删除的情况下采取行动。

由于 AI 图像生成器是基于真实照片进行训练的,研究人员还采取措施确保研究中的 AI 生成的 NCII 不会再次给受害者造成创伤,也不会描绘可能偶然发现 X 上图像的真实人物。

研究称:“每张照片都经过面部识别软件平台和几种反向图像查找服务的测试,以验证其与任何现有个体都不相似。只有经所有平台确认与个人不相似的图像才会被选中进行研究。”

研究人员表示,这些更“道德”的图片使用#porn、#hot和#xxx等流行标签发布在X上,但为了避免潜在伤害,它们的覆盖范围受到限制。

研究人员表示:“我们的研究可能有助于提高与 NCII 相关的内容审核流程的透明度,并可能促使社交媒体公司投入更多精力打击深度伪造的 NCII。从长远来看,我们相信这项研究的好处远远大于风险。”

据研究人员称,X 有时间自动检测并删除内容,但未能做到这一点。研究表明, X从 6 月开始允许露骨内容的决定可能使检测 NCII 变得更加困难,正如一些专家所预测的那样。

为了解决这个问题,研究人员建议,需要“加强平台问责制”和“确保问责制的法律机制”——同时也需要对其他平台删除 NCII 的机制进行更多研究。

该研究总结道:“专门的”NCII 法“必须明确规定受害者和幸存者的权利,并对平台施加法律义务,要求其迅速采取行动,删除有害内容”。