AnimatableDreamer是清华系创业团队生数科技联合清华大学、同济大学等高校推出全球首个基于「骨骼动画」的 4D 动画生成框架,能够直接将 2D 视频素材一键转成动态立体模型(即 4D 动画),支持自动提取骨骼动作、一键转换动画效果并可通过文字输入进行个性化角色生成。
过往业界制作立体动画,需要经过 3D 建模、贴图渲染、骨骼绑定、动画制作等复杂流程,需要建模师、动画师等专业人员参与才能完成,效率低、成本高。据统计,单一个静态 3D 模型建模的生产周期就在数小时到几天时间,成本可高达上千美元,再进行动态化处理成本投入将更高。
AnimatableDreamer可自动提取视频中目标对象(人物、动物等)的骨骼动作,再通过文本描述将该对象转换为任意的带骨骼动画模型。整个过程不受模版限制,支持任意视频长度和任意类型动作,具备高度的时间一致性和多视角一致性,并且导出的动态立体模型,能够在任意 3D 环境中进行渲染。
面向影视动漫等领域的后期制作,通常需要针对动画做更多编辑,AnimatableDreamer也支持针对已经完成骨骼绑定的模型进行更换或编辑动画文件,实现更高的自由度。未来相关技术逐渐落地后,游戏开发、影视动画等场景的 3D 建模、动画制作流程,有望变得更加高效。
论文地址:https://arxiv.org/pdf/2312.03795.pdf
项目地址:https://animatabledreamer.github.io/
论文标题:AnimatableDreamer: Text-Guided Non-rigid 3D Model Generation and Reconstruction with Canonical Score Distillation