ChatGPT 无法识别 OpenAI 自家 Sora 工具制作的 92% 的假视频

The Decoder
Newsguard 的一项调查发现,包括 ChatGPT 在内的顶级聊天机器人很少能识别出由 OpenAI 的 Sora 工具制作的假视频。

内容摘要

Newsguard 的一项研究显示,包括 OpenAI 的 Sora 在内的顶级聊天机器人很容易被高度逼真的 AI 生成视频所欺骗。在测试中,分析师使用了 20 个基于虚假声明制作的 Sora 视频,xAI 的 Grok 失败率为 95%,而 OpenAI 的 ChatGPT 失败率为 92.5%,这凸显了检测能力的严重不足,尤其考虑到 ChatGPT 与 Sora 来自同一家公司。即使带有可见水印,检测率仍然很低,而且简单的“另存为”操作就能去除视频中嵌入的不可见 C2PA 元数据凭证。此外,这些聊天机器人很少向用户披露它们无法可靠识别 AI 内容的能力,通常会给出自信但错误的评估。例如,ChatGPT 和 Gemini 曾错误地认证了一个声称显示 ICE 官员逮捕儿童的假视频。虽然 Google 的 Gemini 表现略好,但它目前只能使用 SynthID 工具可靠地检测自家工具生成的内容,无法识别 Sora 视频。

(来源:The Decoder)