本期为TechBeat人工智能社区第471期线上Talk!
北京时间2月1日(周三)20:00,东京大学情报理工系博士生——刘海洋的Talk将准时在TechBeat人工智能社区开播!他与大家分享的主题是: “多模态驱动谈话动作生成:质量与多样性 ”,届时将介绍多模态驱动谈话动作生成领域的进展。
主题:多模态驱动谈话动作生成:质量与多样性
嘉宾:东京大学情报理工系博士生 刘海洋
时间:北京时间 2月1日 (周三) 20:00
地点:TechBeat人工智能社区
http://www.techbeat.net/
扫描下方二维码,或复制链接https://datayi.cn/w/4Rzb3ALR浏览器,一键完成预约!上线后会在第一时间收到通知哦
随着AIGC技术的发展,生成模型在动画建模上已经取得了出色的成果,业界和学界的研究重心逐渐从建模转向驱动,即探索基于AI的由低成本信号驱动的动作生成算法。目前的算法由于缺乏显式的模型设计,以及丰富的训练数据,在生成结果的质量和多样性上仍与真实数据存在较大差异。提升生成动作的多样性和质量是学界的热点及难点。
Talk大纲如下:
本报告将介绍多模态驱动谈话动作生成领域的进展,首先进行背景介绍(引出多样性和质量问题),之后介绍针对多样性提出的:基于动作特征解耦的动作生成算法,最后介绍针对该任务构建的新数据集,基线模型和评估标准,着重于生成情感和语意相关的动作。
DisCo: disentangled implicit content and rhythm learning for diverse co-speech gesture synthesis, ACMMM 2022, https://pantomatrix.github.io/DisCo/
BEAT: A Large-Scale Semantic and Emotional Multi-Modal Dataset for Conversational Gestures Synthesis, ECCV 2022, https://pantomatrix.github.io/BEAT/
在Talk界面下的【交流区】参与互动!留下你的打call🤟和问题🙋,和更多小伙伴们共同讨论,被讲者直接翻牌解答!
你的每一次贡献,我们都会给予你相应的i豆积分,还会有惊喜奖励哦!
刘海洋,现为东京大学情报理工系博士生。2020年获早稻田大学工学硕士学位,2019年获东南大学工学学士学位。主要研究方向包括:多模态,生成模型,音频识别,人体姿态估计等,主要工作集中于基于单/多模态生成更真实,有表现力的肢体/面部动作,从而构建基于AI的动画制作管线。其研究成果发表于ECCV, KDD, ACMMM等国际会议。
个人主页:https://h-liu1997.github.io/
-The End-
TechBeat (www.techbeat.net) 是一个荟聚全球华人AI精英的成长社区。 我们希望为AI人才打造更专业的服务和体验,加速并陪伴其学习成长。 期待这里可以成为你学习AI前沿知识的高地,分享自己最新工作的沃土,在AI进阶之路上的升级打怪的根据地!
更多详细介绍>>https://mp.weixin.qq.com/s/pTbCK_MeTk05jK2yx1RTrQ