Una demanda de Nueva Jersey muestra lo difícil que es luchar contra la pornografía deepfake
Resumen
Una demanda presentada por una clínica de la Facultad de Derecho de Yale en nombre de una estudiante de secundaria de Nueva Jersey ilustra los inmensos desafíos para combatir la pornografía deepfake no consentida. La aplicación, ClothOff, que creó material de abuso sexual infantil (CSAM) al alterar fotos de la demandante de 14 años, es difícil de detener porque se cree que sus operadores se encuentran en Bielorrusia y están constituidos en las Islas Vírgenes Británicas, lo que complica la notificación legal. Aunque las autoridades locales se negaron a procesar el caso debido a la dificultad para obtener pruebas, la demanda busca forzar el cese total de la aplicación. El profesor John Langford señala que monitorear aplicaciones especializadas como ClothOff es más fácil que responsabilizar a herramientas de IA de propósito general como Grok de xAI. Aunque el CSAM no está protegido por la Primera Enmienda, demandar a una herramienta general es complicado porque los demandantes deben demostrar que xAI sabía que la herramienta se utilizaría para contenido ilegal, un obstáculo complicado por las protecciones de la Primera Enmienda para consultas generales. Los reguladores internacionales están investigando a Grok, mientras que las agencias estadounidenses no han emitido una respuesta oficial, dejando pocas soluciones legales inmediatas para las víctimas.
(Fuente:TechCrunch)