LLVM Considera una Política de Herramientas de IA, Propone un Bot de IA para Solucionar Fallos en el Sistema de Construcción
Resumen
LLVM está considerando actualmente una política oficial sobre el uso de herramientas de IA para las contribuciones a su base de código de compilador de código abierto. La política propuesta permite contribuciones asistidas por IA siempre que haya un "humano en el bucle" que entienda completamente el código y pueda responder preguntas durante la revisión, y los colaboradores deben revelar contenido sustancial generado por IA. Por separado, el ingeniero de compiladores de Google, Pranav Kant, propuso un bot experimental de reparación asistido por IA específicamente para el sistema de construcción Bazel, que crearía automáticamente solicitudes de extracción (pull requests) para solucionar compilaciones rotas de LLVM. Sin embargo, algunos colaboradores se oponen a que el bot cree PRs automáticamente, sugiriendo que un humano debería evaluar primero los cambios propuestos para no sobrecargar a los desarrolladores con la revisión de código generado por bots no verificados. Mientras tanto, los desarrolladores de la cadena de herramientas GNU también están considerando una política de IA/LLM para GCC.
(Fuente:Phoronix)