Claude Code de Anthropic obtiene un modo automático 'más seguro'
Resumen
Anthropic ha lanzado un "modo automático" para su herramienta Claude Code, que permite a la IA tomar decisiones a nivel de permisos en nombre de los usuarios. Esta característica está diseñada para ofrecer una alternativa más segura entre la supervisión constante y otorgar al modelo niveles peligrosos de autonomía. Si bien Claude Code puede actuar de forma independiente, esta capacidad conlleva riesgos como eliminar archivos, enviar datos sensibles o ejecutar código malicioso. El nuevo modo automático mitiga estos riesgos al señalar y bloquear acciones potencialmente riesgosas, dando al agente la oportunidad de volver a intentarlo o pedir la intervención del usuario. Actualmente, el modo automático solo está disponible como vista previa de investigación para los usuarios del plan Team, y se espera que el acceso se expanda a los usuarios de Enterprise y API en "los próximos días". Anthropic advierte que la herramienta es experimental y "no elimina" por completo el riesgo, recomendando a los desarrolladores usarla en "entornos aislados".
(Fuente:The Verge)