'Demasiado peligroso para lanzar' se está convirtiendo en la nueva normalidad de la IA
Resumen
Empresas líderes en IA como OpenAI y Anthropic están implementando estrategias de lanzamiento restringido para sus modelos más avanzados, como GPT-Rosalind y Claude Mythos. Estos modelos, que destacan en áreas críticas como la biología y la ciberseguridad, ahora se limitan a "socios de confianza" para mitigar el riesgo de uso indebido. Expertos y legisladores debaten si deben ser las corporaciones privadas o el gobierno federal quienes determinen estas normas de acceso, especialmente dado que la naturaleza de doble uso de la IA dificulta el equilibrio entre la seguridad y el avance científico. Además, la posibilidad de que la IA de código abierto replique estas capacidades amenaza con invalidar los controles de seguridad corporativos, lo que subraya la creciente necesidad de una supervisión gubernamental formal.
(Fuente:TIME)