Runway 发布 Gen-4.5 视频生成模型,实现电影级物理仿真与多角色一致性
AI 视频创作平台 Runway 正式推出其最新一代视频生成模型 Gen-4.5,在动态真实感、物理交互与复杂场景控制方面树立行业新标杆。该模型支持长达 18 秒的 4K 视频生成,首次引入“物理感知扩散架构”(Physics-Aware Diffusion),可精准模拟流体、布料、光影反射等真实世界物理行为。
Gen-4.5 显著提升多角色场景的稳定性,通过全新 CharacterCore 引擎 实现跨镜头身份、姿态与表情的一致性控制,用户仅需上传参考图或输入自然语言描述(如“穿红裙的女性在雨中奔跑,身后有黑衣男子追逐”),即可生成具有连贯叙事逻辑的高质量片段。
此外,新版本支持语音驱动口型同步、镜头运动指令(如“缓慢推进至特写”)以及与 Runway 现有编辑工具无缝集成,大幅降低专业级视频制作门槛。目前 Gen-4.5 已向 Pro 及 Enterprise 用户开放,并计划于 2026 年第一季度向所有用户逐步推送。
“Gen-4.5 不再只是生成画面,而是在构建可信的视觉现实。”Runway 联合创始人兼 CTO 安东尼奥·马丁内斯表示。