Las traducciones de IA están añadiendo 'alucinaciones' a los artículos de Wikipedia

404 Media
Los editores de Wikipedia restringieron a los colaboradores que usan traducción por IA debido a los errores introducidos, o 'alucinaciones', en los artículos.

Resumen

Los editores de Wikipedia implementaron nuevas políticas y restringieron a los colaboradores pagados por la Open Knowledge Association (OKA) después de descubrir que las traducciones generadas por IA estaban introduciendo errores factuales, o "alucinaciones", en los artículos. El problema surgió porque OKA aprovechó los Modelos de Lenguaje Grandes (LLM) como Gemini y ChatGPT, y anteriormente Grok, para automatizar las traducciones, a menudo dependiendo de contratistas en el Sur Global a quienes se les instruyó copiar y pegar contenido. Los editores encontraron casos en los que las fuentes citadas por las traducciones de IA no respaldaban las afirmaciones hechas, o se agregaban oraciones sin fuente. En respuesta, los editores de Wikipedia establecieron reglas para bloquear a los traductores de OKA que acumulen cuatro advertencias de verificación en seis meses. Jonathan Zimmermann, fundador de OKA, declaró que enfatizan la calidad, pagan a los traductores por hora y desde entonces han fortalecido las salvaguardas introduciendo un segundo paso de revisión de LLM independiente para complementar la revisión manual, reconociendo que usar IA para verificar IA puede ser defectuoso pero sirve como verificación adicional.

(Fuente:404 Media)