Talk预告 | 香港中文大学MMLab在读博士生周航: 视觉引导的音乐声源分离与立体声生成
本周为将门-TechBeat技术社区第245期线上Talk!也是ECCV 2020系列Talk第③弹!
北京时间9月29日(周二)晚8点,香港中文大学多媒体实验室博士生—周航的Talk将准时在将门TechBeat技术社区开播!
他与大家分享的主题是: “视觉引导的音乐声源分离与立体声生成”。届时将会介绍其所在港中文团队发表在ECCV 2020上结合声源分离和立体声生成两个方向的最新工作。

Talk·信息
▼
主题:视觉引导的音乐声源分离与立体声生成
嘉宾:香港中文大学多媒体实验室博士生周航
时间:北京时间 9月29日 (周二) 20:00
地点:将门TechBeat技术社区
http://www.techbeat.net/
Talk·提纲
▼
本次分享中,周航将首先概括性地介绍音频-视觉的多模态联合学习任务的主要研究对象与引用场景,并深入视觉信息在音乐控制领域的应用。具体来说,其团队关注于计算机视觉与音乐处理中,声源分离和立体声生成这两大主流任务的关系。
他将首先分别从两个方向各选取一篇代表性的工作,介绍这两个方向研究的问题定义的基本框架。接着会详细讲解其港中文团队发表在ECCV 2020上结合这两个方向的最新工作: 视觉引导的声源分离辅助立体声生成方法Sep-Stereo。
本次分享的主要内容如下:
音频-视觉联合学习任务总览
视觉引导的音乐声源分离任务,前人工作解读
视觉引导的立体声生成任务,前人工作解读
详解发表于ECCV 2020的最新工作:视觉引导的声源分离辅助立体声生成方法Sep-Stereo
总结与展望
Talk·参考资料
▼
本次分享中将会提及的文章如下,建议提前预习哦:
1.《探索计算机视觉与音频的交叉: 基于视觉的音乐相关研究Review (声源分离&Beyond) 》
https://mp.weixin.qq.com/s/SxuCC-TgQht2-vYg-5gZJg
2.《 ECCV 2020 | 视觉引导的声源分离辅助立体声重构方法 Sep-Stereo》
https://zhuanlan.zhihu.com/p/162689191
3.《Sep-Stereo: Visually Guided Stereophonic Audio Generation by Associating Source Separation 》
论文链接:https://arxiv.org/abs/2007.09902
项目链接:https://hangz-nju-cuhk.github.io/projects/Sep-Stereo
Talk·提问交流
▼
方式 ①
在本文留言区直接提出你的问题,或扫描下方二维码提问!问题被选中的小伙伴们将获得一个红包奖励!

方式 ②
在Talk界面下的【交流区】参与互动!留下你的打call🤟和问题🙋,和更多小伙伴们共同讨论,说不定就被讲者直接翻牌解答了呢!

你的每一次贡献,我们都会给予你相应的i豆积分,近期还会有惊喜奖励哦!
Talk·观看方式
▼
扫描下方二维码,或复制链接https://datayi.cn/w/a9a7bplP到浏览器一键完成预约!上线后会在第一时间收到通知哦~

嘉宾介绍
▼

香港中文大学多媒体实验室博士生
周航,香港中文大学多媒体实验室四年级博士生,师从王晓刚教授。本科毕业于南京大学声学系。目前主要研究方向是音频-视觉的联合学习与人脸生成,曾在ICCV/CVPR/ECCV等会议发表多篇论文。CVPR 2020优秀审稿人,致力于推动视听结合的多模态领域发展。
系列Talk
▼
*点击链接跳转详情
第①弹

第②弹


关于TechBeat社区
▼
TechBeat(www.techbeat.net)是一个荟聚全球华人AI精英的成长社区。我们希望为AI人才打造更专业的服务和体验,加速并陪伴其学习成长。期待这里可以成为你学习AI前沿知识的高地,分享自己最新工作的沃土,在AI进阶之路上的升级打怪的根据地!
更多详细介绍>>https://mp.weixin.qq.com/s/pTbCK_MeTk05jK2yx1RTrQ