El modelo de IA de próxima generación de ByteDance puede generar clips basados en texto, imágenes, audio y video

The Verge
ByteDance lanzó Seedance 2.0, un generador de video con IA de próxima generación que admite indicaciones multimodales que incluyen texto, imágenes, audio y video.

Resumen

ByteDance, la empresa china detrás de TikTok, ha lanzado Seedance 2.0, su modelo de inteligencia artificial de próxima generación para la generación de video. Este modelo soporta indicaciones multimodales, permitiendo a los usuarios combinar texto, imágenes, video y audio para generar clips. La compañía afirma que ofrece un salto sustancial en la calidad de generación, mejorando la capacidad de seguir instrucciones y generar escenas complejas con múltiples sujetos, produciendo clips de hasta 15 segundos con audio. Los usuarios pueden refinar sus indicaciones con hasta nueve imágenes, tres videoclips y tres clips de audio. Seedance 2.0 compite con avances recientes como Google Veo 3 y Sora 2 de OpenAI. Las demostraciones iniciales muestran su capacidad para generar contenido diverso, aunque las protecciones de derechos de autor no están claras. Por ahora, Seedance 2.0 solo está disponible a través de la plataforma Dreamina AI de ByteDance y su asistente Doubao, y su posible llegada a TikTok es incierta.

(Fuente:The Verge)