近日,字节跳动悄然发布了下一代视频生成模型Seedance 2.0,加速AI视频竞赛的进程。字节尚未正式公布该模式,2月7日才开始进行小规模内部测试,但北京新闻社和壳牌财经的记者已经感受到了公众对该模式通过友谊产生的影响的震惊。在社交平台上,一些创作者喊道:“我们不再需要人类了,让AI控制我们。”有媒体直接表示“第一阶段AI视频大赛已经结束”。根据字节飞书上发布的一份产品介绍文档,Seedance 2.0的开发者在文档标题中留下了“杀死游戏”的字样。这并不是人工智能模型第一次震惊世界。自《Sora》发布以来,全球新一代视频离子军备竞赛进入白热化阶段。然而Seedance 2.0的到来似乎预示着局面即将被改写。几分钟之内,一部利用多角度云镜的人机格斗“大片”诞生了。视频由新京报贝壳财经记者使用Seedance2.0生成。 2月9日,新京报贝壳财经记者在极萌平台对Seedance 2.0进行了实测。记者输入了一张照片作为第一帧,并输入了这样的文字:“从这张照片中,照片中的人物扔出红色纸板,做出功夫动作,与机器人玉树进行了一场激烈的战斗。”低角度追逐侧闪+机器人扫掠,中景高速斩拳打金属,特写火花+镜头微震……”。几分钟后,吉猛制作出了上面的视频。视频生成的极盟平台快言界面截图“我喜欢这个片段的地方是,在比较激烈的运动场景中,拍摄对象的五官和服装非常吻合。没有其他AI的明显问题,比如面部塌陷”或闪烁的衣服纹理。是的。眼镜的反射和位置始终稳定(这一点非常重要,因为在生成过程中AI身上有一些装饰品,装饰品经常移动、改变位置或散落)。因此,物理定律是非常成立的。”而且,阴天的均匀性非常好,即使改变故事板,光影也不会改变,这就是这种均匀性的体现。一位经常拍摄短片的专业摄影师看完上面的视频后告诉新京报贝壳财经记者。这段视频中的阴影可能没有那么明显,也可能没有涉及到关键词,但至少AI没有塑料感。我以前经常使用vela3.1(Google拥有的视频生成模型)。我看3.1有更好的真实感和人物统一性,还可以生成环境声音。最适合商用的AI视频产品。但这种高高速运动模拟场景,可以再现金属部件碰撞、衣服晃动、扑腾等自然动作。“现在的Seedance 2.0的物理反馈更加出色。”摄影师表示。新京报记者贝壳财经发现,在这段视频中,人物的主观性,尤其是人物的面部和身材,出奇的一致。虽然模型仅依赖于照片的第一帧,但在视频的运动过程中和视频的最后,虽然姿势和表情有所不同,但你可以在技术层面,据了解,传统的AI视频模型经常会因为随机性而导致图像逻辑损坏,而Seedance 2.0在训练阶段使用原生多模态架构来深度融合视觉和听觉信号,以实现音频和视频同步,当用户上传其角色的全身照片时,模型可以识别他们的身份。精心再现服装质感和身体动作,模拟重力感和镜头惯性。从这个意义上来说,一些AI模型的生成需要多次“抽签”。 “I have never seen anything so powerful.”这是因为,与前几代的“抽卡”一代不同,Seedance 2.0可能表明它不仅仅是一个“素材生成器”,而是一个理解故事逻辑、可以控制视听语言的“AI导演”。目前网络上的用户评论让一些评论者认为,Seedance 2.0的制作质量不仅可以与Sora 2相媲美,而且在某些方面还超过了它。评估人员使用简单的文本提示来生成可与电影短片相媲美的镜头。花瓣飘落仿佛重叠,人物的动作连贯自然,女孩的嘴型也与她的声音完美契合。海舞可以用在动漫特效场景中。 2.0展现惊人节奏当处理复杂的提示时,例如“年轻的主角在战斗中失败后唤醒隐藏的力量并释放巨大的停电”时,麦克风控制。郁闷与醒来之间的情绪转换清晰,特效的爆发与动作同步,最后的停电场景让评论者感叹“可以直接用在动画短片中”。无论如何都要跳舞。 2.0并不“完美”。例如,新京报贝壳财经记者在提示时原本打算生成“人类与玉树机器人”的视频,但最终生成的视频中的机器人看起来更像是科幻电影中的机器人形象,而不是市场上常见的玉树机器人。我不确定这背后的逻辑是为了避免版权还是忽略这个细节来生成完整的视频。人工智能生成将创建高质量视频内容的门槛从几周大幅降低到几分钟。 Seedance 2.0 推出引起了内容创作行业的轰动。它最直接的影响是,它大大降低了创建视频内容的门槛。或者高质量。以新京报贝壳财经记者创作的一段视频为例,上述拍摄者表示,如果采用这个视频,主要技术包括实景拍摄(绿屏)或全CG制作、动作捕捉、3D建模和动画、后期合成和调色等。上面列出的每个技术角色都需要多人和跨职能协作。制作开始时,初期需要确定表现形式,制作CG动画图像(主要是原稿,必要时还包括角色模型演示),并创建概念设计作为故事板。中期来看,我们将致力于动作捕捉、3D建模、动画制作、合成、后期编辑、调色、“这类短片通常需要几周的时间,但预计时间在一两个月左右。”经新京报贝壳财经记者测试,上述视频在极短的时间内完成。记者首先找到了照片的第一帧,然后借助AI瞬间生成了这个词,最后在极萌平台上生成了。整个过程不到5分钟。 AI视频制作质量的提升首先会影响到中国不断发展的短剧产业,这或将迎来AI喜剧新的“春天”。在过去的 12 个月里,AI 实现了从生成 512 像素的小图像到电影质量的 10 秒短片的飞跃。 Seedance 2.0支持的多机位叙事和人物连贯性,使得制作剧情连贯的微短剧成为可能。动漫短剧行业会发生变化吗?”动漫产业也感受到了压力。在AI的帮助下,动漫短剧行业将迎来新的发展。传统动画制作中涉及的耗时且劳动密集型任务,例如绘制关键帧、图像完成和口型同步,现在可以显着加速。根据实测,用户直接使用Seedance 2.0创作的60秒AI动画短剧达到了很高的完美度。更深远的影响是人工智能正在重塑内容生产的权力结构。当模型“封装”了镜头移动、分镜、灯光、音效等专业导演技巧时,故事本身前所未有的创造力和价值被尽可能强调,从“执行能力”到“产生想法和做出决策的能力”。在 Kaigen 证券发布的研究报告中,Seedance 2.0 被认为在几个关键领域取得了重大进展,包括摄像机移动、故事板以及音视频同步。这为用户提供了“总监级”的控制方案甚至被称为AI影视发展的“奇点”。现实世界已成为“网络克隆”的主体,创造人工智能的极限正在被探索。新京报贝壳财经记者注意到,在Seedance2.0的多次测试中,一位知名网络博主上传了一张在其公司大楼门口拍摄的照片,并立即写下催促其移动相机的文字。由于发现人工智能生成的视频中建筑物另一侧的人的口音与网红本人的口音非常相似,引起了人们的关注。对此,一位AI视频领域的工程师告诉新京报贝壳财经记者,国内外所有车型都会采用公共视频。开放数据进行训练。由于该网红是明星级公众人物,并且网络上流传着大量高分辨率视频素材,可以被各种公众号收录。c 数据集上,模型会生成类似于他的声音。这样的事情不会发生在正常人身上。此外,新京报贝壳财经记者在测试中发现,目前集萌平台上涉及名人、知名知识产权版权的视频生成受到限制。例如,新京报贝壳财经记者本来想生成李连杰和成龙或者蝙蝠侠和钢铁侠的打斗场面,但被问到:“视频没有通过审核,所以这次不扣分。” “涉及知名人物和知识产权的视频生成没有通过测试。吉萌截图。对此,新京报贝壳财经记者表示,Seedance2.0目前还处于小规模内测阶段,正在加强安全保障,防止人工智能技术被滥用。我了解到。”这也证明了AI创造的局限性正在显现g探索。数据显示,到2026年,AI视频生成工具的市场规模预计将超过300亿美元,年增长率在40%左右。在这场技术革命中,有的人会因技术门槛的降低而受益,有的人会因核心竞争力的变化而被甩在后面。 Seedance 2.0的到来或许预示着AI视频竞赛第一阶段即将结束。但真正的游戏才刚刚结束。此次新大赛的核心不是谁能制作出最好的视频,而是如何重新定义创作边界、保护创作者权益、发现人工智能时代不可替代的人类价值。就视频而言,这场“游戏”还没有结束,但它肯定正在进入一个新的、更精彩的篇章。