GAMES Webinar 2025 – 382期(面向影视动画的生成式AI:角色绑定与动态控制) | Isabella Liu(加州大学圣地亚哥分校), 邢金波(香港中文大学)
【GAMES Webinar 2025-382期】(模拟专题-面向影视动画的生成式AI:角色绑定与动态控制)
报告嘉宾:Isabella Liu(加州大学圣地亚哥分校)
报告时间:2025年10月10星期五早上10:00-10:30(北京时间)
报告题目:RigAnything:一种面向多样化三维资产的无模板自回归骨骼绑定与蒙皮方法
报告摘要:
本次报告将介绍我们的工作 RigAnything,一种基于自回归 Transformer 的全新自动骨骼绑定方法。与现有大多数依赖固定骨骼模板、且往往局限于人形等特定类别的自动绑定方法不同,RigAnything 能在无需预定义模板的条件下,通过概率式关节生成与蒙皮权重分配,让各类三维资产直接具备可动画化(animatable)的能力。RigAnything 采用自回归建模思路,在综合考虑全局形状特征与历史预测结果的条件下,逐步生成下一个关节及其绑定信息。尽管自回归模型通常用于序列数据生成,我们将其扩展到骨骼结构的学习与表示,并通过 广度优先顺序(BFS) 将骨骼关节组织为由三维位置与父节点索引构成的序列,从而有效建模树状的骨骼拓扑。此外,我们结合扩散模型来提升关节位置预测的精度与一致性,使模型能够同时捕捉骨骼的空间关系与层级结构。
讲者简介:
Isabella Liu 现为加州大学圣地亚哥分校(UC San Diego)博士四年级在读,师从 Hao Su 与 Xiaolong Wang 教授。在此之前,她于伊利诺伊大学香槟分校(UIUC)获得学士学位。她的研究兴趣主要集中在动态场景的重建、生成与交互。
讲者主页:https://www.liuisabella.com/
报告嘉宾:邢金波(香港中文大学)
报告时间:2025年10月10号星期五早上10:30-11:00(北京时间)
报告题目:生成式图像动态化的革新及应用
报告摘要:
本次报告将分享我们在生成式图像动态化(图生视频)领域的两个工作。其中MotionCanvas提出将图生视频用于电影镜头设计,并构建了一个解耦运动控制的统一灵活框架。它将用户输入的运动控制整合至图生视频生成模型,允许以3D场景感知的方式联合调控物体与相机的运动,并且无需高昂的含有3D标注信息的训练数据。MotionCanvas在真实图像内容与镜头设计情境中可观的效果展现了其在当代数字内容创作流程中的应用潜力。第二个工作ToonCrafter则延伸了图像动态化的概念并提出了生成式动画视频插帧。它将起始与结束图像注入真实视频生成先验模型,并通过卡通矫正学习策略与双参考3D解码器实现动画领域内容生成适配。除此之外,基于草图的控制信号赋予用户对于插帧过程的交互式控制能力,确保输出的结果既具有视觉保真度又能符合用户需求。
讲者简介:
邢金波博士毕业于香港中文大学计算机科学与工程学系,导师为Tien-Tsin Wong教授,于此之前,本科和硕士也均毕业于香港中文大学。主要研究方向为图像和视频生成及数字人。在国际顶级会议期刊发表论文十余篇(一作7篇),谷歌学术引用量1600余次,一作论文开源代码Github累计摘星超过10,000,其研究成果入选ECCV最具影响力论文榜单。
讲者主页:https://doubiiu.github.io/
主持人简介:
李梦甜,现上海大学上海电影学院、上海电影特效工程技术研究中心(省部级)助理教授,复旦大学可信具身智能研究院在职博士后研究员。研究方向为面向影视、游戏、戏剧等艺术领域的数字内容理解与生成,人机交互,AI+“创作”。主持国自然青年科学基金,上海市科委“科技创新行动计划”面上基金,参与国家重点研发计划、国家社科重大、国自然面上基金等。任CCF CAD/CG专委执委(秘书处)、GAMES执委、CSMPTE电影高新技术专业委员会常任委员。
GAMES主页的“使用教程”中有 “如何观看GAMES Webinar直播?”及“如何加入GAMES微信群?”的信息;
GAMES主页的“资源分享”有往届的直播讲座的视频及PPT等。
观看直播的链接:https://live.bilibili.com/h5/24617282