GAMES Webinar 2022 – 249期(体感交互) | 伊昕宇(​清华大学),李明(北京航空航天大学)

【GAMES Webinar 2022-249期】(VR/AR专题-体感交互)

报告嘉宾:伊昕宇(​清华大学)

报告时间:2022年9月29号星期四晚上20:00-20:30(北京时间)

报告题目:基于稀疏IMU的人体动作捕捉方法

报告摘要:

人体动作捕捉是计算机图形学和计算机视觉中的热门研究问题。现有的商业动捕系统多需要在人体上绑定大量惯性传感器,或穿戴密集的反光标记点并架设多个相机进行动作捕捉,这种解决方案较为昂贵且复杂。已有的研究工作可以较好地使用少量单目相机进行无标记点的人体动作捕捉,但这种方案会受到遮挡、照明的影响,且需要限制人体只能在相机的视野范围内运动。本次报告中我们将分享基于少量惯性传感器(IMU)进行人体动作捕捉的方法TransPose(SIGGRAPH 2021)和PIP(CVPR 2022 Best Paper Finalist),不需要使用相机,因此避免了基于视觉的动捕方法的缺陷。TransPose提出了多阶段的人体姿态估计和多分支的人体运动求解,首次实现了基于稀疏惯性传感器的实时人体全局动作捕捉。PIP进一步引入了人体物理约束进行姿态求解,提出了基于学习的RNN隐藏状态初始化和双重PD控制器,首次实现了实时的人体关节受力、地面作用力的估计,并进一步提高了基于稀疏惯性传感器的动作捕捉精度。

讲者简介:

伊昕宇目前是清华大学软件学院三年级博士生,导师为徐枫副教授。2020年本科毕业于中国科学技术大学,修读计算机科学与技术。主要研究兴趣为基于惯性传感器的人体动作捕捉。曾以第一作者发表两篇论文,分别入选SIGGRAPH 2021 Labs program和CVPR 2022 Best Paper Finalist。


报告嘉宾:李明(北京航空航天大学)

报告时间:2022年9月29号星期四晚上20:30-21:00(北京时间)

报告题目:Neurophysiological and Subjective Analysis of VR Emotion Induction Paradigm

报告摘要:

传统的情绪诱发范式生态效度低,诱发效果弱。而VR可以很好的调动参与者的生理心理成分,被认为是情绪研究的理想工具。我们的工作提出了一种新颖的情绪诱发范式,该范式将VR技术与EEG技术相结合。我们发现了与情绪效价和唤醒相关的关键脑区与频段,结论与之前的神经生理学研究相符。另外还发现在高唤醒情绪下,枕叶区域存在半球偏侧化的现象,这可能为情感计算中的情绪唤醒带来新的见解。

讲者简介:

李明,北京航空航天大学计算机学院博士三年级,导师潘俊君教授。主要方向为情感计算,虚拟现实。目前以第一作者在TVCG上发表一篇论文,并获得了GAMES 2022优秀成果展示奖。主要关注情绪的高生态效度诱发与基于深度学习的EEG情绪识别。


主持人简介:

​郭诗辉,厦门大学信息学院副教授,2010年毕业于北京大学元培学院,2015年毕业于英国伯恩茅斯大学英国国家计算动画中心,曾在新加坡南洋理工担任博士后研究员等职务。2019年入选中国工程院与英国皇家工程院“创新领军人才联合培养项目(LIF)”。研究兴趣主要集中于虚拟现实中的体感交互。作为项目负责人获得国家自然科学基金委面上项目/青年项目、阿里巴巴达摩院创新研究计划AIR项目、中国计算机学会-腾讯犀牛鸟基金等项目资助,参与国家自然科学基金国际(地区)合作研究项目一项。以第一作者/通讯作者身份在人机交互及虚拟现实领域国际顶级期刊和会议ACM CHI、TVCG、TIP、Soft Robotics、IJHCS等发表论文二十余篇,相关工作获得模式识别领域顶级会议CVPR 2020最佳论文奖提名、ChinaVR最佳海报奖。担任国际学术期刊Computer Animation & Virtual Worlds编委。主编《增强现实技术与应用》系列教材,入选教育部软件工程教育指导委员会第一批推荐教材。

 

GAMES主页的“使用教程”中有 “如何观看GAMES Webinar直播?”及“如何加入GAMES微信群?”的信息;
GAMES主页的“资源分享”有往届的直播讲座的视频及PPT等。
观看直播的链接:http://webinar.games-cn.org

You may also like...