GAMES Webinar 2017-06期(Siggraph 2017论文报告)| 董悦(微软亚洲研究院),于涛(北京航空航天大学&清华大学)
【GAMES Webinar 2017-06期(Siggraph 2017论文报告)】
报告嘉宾1:董悦,微软亚洲研究院
报告时间:2017年7月27日(星期四)晚20:00-20:45(北京时间)
主持人:徐昆,清华大学(个人主页:http://cg.cs.tsinghua.edu.cn/people/~kun/)
论文题目:基于自增强训练的表观纹理建模(Modeling Surface Appearance from a Single Photograph using Self-augmented Convolutional Neural Networks)
论文信息:
Modeling Surface Appearance from a Single Photograph using Self-augmented Convolutional Neural Networks
Xiao Li, Yue Dong, Pieter Peers, Xin Tong
报告摘要:
在本报告中,我们将介绍一种基于CNN来从单一输入图像重建表观材质信息的方法。训练表观信息估计的神经网络需要大量的标注数据用于训练,为了减少需要的训练数据,我们提出了自增强训练的方法,利用未标定的普通纹理图像信息,尤其是这些未标数据所隐含的真实世界纹理材质的分布统计信息,来协助神经网络训练。利用自增强训练的方法,我们可以利用少量的标定表观数据,结合大量的普通纹理图像,即可训练一个CNN来从单一的纹理图像输入,估计对应的漫反射贴图、法向贴图和均质的BRDF信息。
讲者简介:
2006年于清华大学自动化系本科毕业后,被清华大学高等研究院–微软亚洲研究院博士生联合培养计划录取,师从导师沈向洋教授学习计算机图形学。博士期间在微软亚洲研究院网络图形组实习。2011年毕业后加入微软亚洲研究院网络图形组。董悦的主要研究方向是计算机图形学中的表观建模方向,集中研究物体表面材质属性的建模、采集、编辑和制造。
报告嘉宾2:于涛,北京航空航天大学&清华大学
报告时间:2017年7月27日(星期四)晚20:45-21:30(北京时间)
主持人:徐昆,清华大学(个人主页:http://cg.cs.tsinghua.edu.cn/people/~kun/)
论文题目:基于单个深度摄像机的动态场景实时三维重建
论文信息:
[1] Kaiwen Guo, Feng Xu, Tao Yu, Xiaoyun Yuan, Qionghai Dai, Yebin Liu, Real-Time Geometry, Albedo, and Motion Reconstruction Using a Single RGB-D Camera. Siggraph 2017.
[2] Tao Yu, Kaiwen Guo, Feng Xu, Yuan Dong, Zhaoqi Su, Jianhui Zhao, Jianguo Li,Qionghai Dai and Yebin Liu. BodyFusion: Real-time Capture of Human Motion and Surface Geometry Using a Single Depth Camera, ICCV 2017.
报告摘要:
本次报告将给大家介绍基于单个深度摄像机的动态场景实时三维重建工作。提出了一种新的实时人体动态三维跟踪及融合的技术,该技术使用单个深度相机的深度图作为输入,重建人体表面几何模型以及非刚性运动。我们利用人体骨架信息作为先验,联合求解人体内部骨架运动和表面非刚性运动,取得了较好的实时动态人体三维重建的效果。另外,可同时重建非刚性对象的表面几何模型、表面反射度、逐帧的非刚性运动及逐帧的环境低频光照信息。我们提出基于光影的表面外观优化方法获得更加精准的表面运动估计,进而通过表面运动估计,实现基于体的反射度和几何信息融合策略,获得更加精细的表面几何及材质信息。
讲者简介:
于涛,北京航空航天大学博士三年级学生,导师为赵建辉(北航),合作导师为刘烨斌(清华大学)。主要研究方向为计算机图形学及动态场景三维重建。目前正在进行动态人体实时三维重建的研究。
直播链接:http://webinar.games-cn.org