La moderación de deepfakes de Meta no es lo suficientemente buena, dice la Junta de Supervisión

The Verge
La Junta de Supervisión de Meta instó a la compañía a revisar su moderación de contenido de IA debido a una detección de deepfakes insuficiente.

Resumen

La Junta de Supervisión de Meta ha instado a Meta a revisar sus métodos para identificar y etiquetar contenido generado por IA en Facebook, Instagram y Threads, afirmando que los sistemas actuales "no son lo suficientemente robustos ni completos". Esta llamada a la acción surge tras una investigación sobre un video falso de IA relacionado con el conflicto en Israel, y es especialmente relevante dadas las "escaladas militares masivas" actuales en Oriente Medio. La Junta concluyó que el sistema de Meta depende demasiado de la autodeclaración y de la revisión escalonada, sin cumplir con las realidades del entorno en línea, especialmente en lo que respecta a la proliferación entre plataformas. Las recomendaciones incluyen mejorar las normas sobre desinformación, establecer un estándar separado para el contenido de IA, desarrollar mejores herramientas de detección, ser transparente sobre las sanciones por violaciones de políticas de IA, y escalar los esfuerzos de etiquetado, incluyendo la adopción de C2PA (Content Credentials).

(Fuente:The Verge)