Exclusiva: Anthropic abandona su promesa de seguridad insignia
Resumen
Anthropic, previamente elogiada por su compromiso con la seguridad de la IA, está alterando significativamente su Política de Escalado Responsable (RSP). La compañía está abandonando su promesa central de abstenerse de entrenar sistemas de IA a menos que pudiera garantizar la adecuación de sus medidas de seguridad. Esta decisión se basa en la creencia de que los compromisos unilaterales son ineficaces en un campo que avanza rápidamente donde los competidores están persiguiendo agresivamente el desarrollo de la IA. Si bien la política revisada enfatiza una mayor transparencia, la igualación de los esfuerzos de seguridad de la competencia y los posibles retrasos en el desarrollo si los riesgos se consideran catastróficos, elimina la prohibición categórica de entrenar modelos sin garantías de seguridad previas. El director científico de Anthropic, Jared Kaplan, argumenta que este cambio es pragmático, lo que permite a la empresa seguir siendo competitiva y contribuir a la investigación de seguridad. Sin embargo, los críticos expresan su preocupación de que este cambio señale un debilitamiento de los estándares de seguridad y un cambio hacia un enfoque reactivo, en lugar de preventivo, del riesgo de la IA.
(Fuente:TIME)