Informantes de la industria de la IA lanzan un sitio para envenenar los datos que los alimentan
Resumen
Un grupo de informantes de la industria de la IA, alarmados por el estado actual del desarrollo de la IA, lanzó una iniciativa llamada Poison Fountain para socavar activamente la tecnología envenenando sus datos de entrenamiento. El proyecto insta a los operadores de sitios web a añadir enlaces que apunten a datos de entrenamiento envenenados (como código con errores lógicos sutiles) que los rastreadores de IA extraen. Inspirados por la investigación de Anthropic sobre la viabilidad del envenenamiento de datos, los participantes anónimos creen que la regulación es insuficiente ya que la tecnología está ampliamente difundida, por lo que están creando un "arma de información" para comprometer la integridad cognitiva de los modelos de IA. Este esfuerzo se produce junto con problemas existentes como el "colapso del modelo", donde los modelos de IA se degradan al entrenarse con datos sintéticos o de baja calidad.
(Fuente:Theregister)