腾讯混元团队于2024年6月7日联合中山大学和中国香港科技大学,推出了一款全新的图生视频模型“Follow-Your-Pose-v2”。该模型的主要功能是将一张人物图片与一段动作视频结合,生成一段长达10秒的动态视频,使图片中的人物能够跟随视频中的动作进行运动。这一技术的优势在于其推理耗时较短,支持多人视频动作生成,并具备强大的泛化能力,无论输入人物的年龄、服装、背景或动作复杂度如何,都能生成高质量的视频。
“Follow-Your-Pose-v2”模型的推出标志着腾讯在图生视频领域的进一步突破。此前,腾讯混元团队已推出了多个图生视频模型,如“Follow-Your-Click”和“Follow-Your-Pose”,这些模型通过不同的输入方式(如点击区域或输入动作描述)实现了图片到视频的转换。此次推出的“Follow-Your-Pose-v2”在技术上进行了优化,支持更复杂的动作生成和更长的视频输出时间,进一步提升了用户体验。 腾讯混元团队还发布了混元DiT加速库,显著提升了推理效率,并将生成图像的时间缩短了75%。这一加速库的推出降低了模型的使用门槛,使得开发者可以更便捷地调用混元模型的能力。 腾讯混元团队通过“Follow-Your-Pose-v2”模型的发布,进一步巩固了其在图生视频领域的领先地位。这一技术不仅为用户提供了更高效、更灵活的视频生成工具,也为AI内容创作和多媒体应用开辟了新的可能性。 |