ByteDanceの次世代AIモデルは、テキスト、画像、音声、動画に基づいてクリップを生成可能
概要
TikTokを運営するByteDanceは、次世代のAI動画生成モデルであるSeedance 2.0を発表しました。このモデルは、テキスト、画像、動画、音声といった複数のモダリティを組み合わせたプロンプトをサポートしています。同社は、複雑なシーンの生成品質が大幅に向上し、指示への追従能力も改善されたと主張しており、最大15秒の音声付きクリップを生成できます。ユーザーは最大9枚の画像、3本の動画クリップ、3つの音声クリップを入力してプロンプトを洗練させることが可能です。Seedance 2.0は、Google Veo 3やOpenAIのSora 2といった最新モデルと競合します。デモンストレーションでは、写実的なアクションシーケンスやアニメスタイルのクリップが生成されていますが、著作権保護については不明確です。現時点では、Seedance 2.0はByteDanceのDreamina AIプラットフォームとアシスタントDoubaoを通じてのみ利用可能であり、TikTokでの提供の有無は未定です。
(出典:The Verge)