最近在折腾一批 AI 视频工具,顺带也试了下字节这套模型的一个体验站:Seedance 2 视频生成。
它比较有意思的点是,不只支持「文字变视频」,还可以把图片、视频、音频一起当素材丢进去,让模型根据这些参考来生成,整体更像在「导演」一条片子,而不是只写一句提示词等结果。几个印象比较深的功能:
-
多素材混合控制
可以同时上传多张图、参考视频、配乐,再配一段文字说明,比如「镜头跟着这个人走,但用这张图的风格」,生成出来的画面会尽量照着参考来走,连运镜、动作节奏都能部分还原。 -
支持多镜头、延长片段
一条视频不必只是一镜到底,可以生成多段镜头连起来,也可以在现有视频基础上继续往后延长,改动其中某一小段,而不是全部重来,这点对想做小故事、广告片段的还挺友好。 -
画面和声音一起生成
除了视频本身,它还能顺带把环境音、音效、背景音乐一起做出来,节奏大致跟画面同步,做快速 Demo、概念片的时候,基本不用再单独去找音频素材。画质和时长相对实用 -
目前支持 1080p 等常用分辨率,多数生成在十几秒这个区间,基本覆盖日常社交媒体短视频、产品展示、概念预告这些场景。