Metaのディープフェイクモデレーションは不十分だと監督委員会が指摘
概要
Metaの監督委員会は、Metaに対し、Facebook、Instagram、Threads全体でのAI生成コンテンツの識別とラベリングの方法を刷新するよう求めました。委員会は、現在のシステムが「十分に堅牢でも包括的でもない」と指摘しています。この勧告は、イスラエル紛争に関連する偽のAI動画の調査に続くものであり、中東での「大規模な軍事エスカレーション」を考慮すると特に重要であるとされています。委員会は、Metaのシステムが自己申告とエスカレーションされたレビューに過度に依存しており、オンライン環境の現実、特にクロスプラットフォームでの拡散に対処できていないと結論付けました。推奨される措置には、誤情報に関する既存ルールの改善、AIコンテンツのための別個のコミュニティ基準の確立、より良いAI検出ツールの開発、AIポリシー違反に対する罰則の透明性の向上、および「高リスクAI」ラベルの頻繁な追加やC2PA(コンテンツクレデンシャル)の採用改善を含むAIコンテンツラベリング努力の拡大が含まれます。
(出典:The Verge)