欢迎光临散文网 会员登陆 & 注册

Talk预告 | 香港中文大学MMLab在读博士生周航: 视觉引导的音乐声源分离与立体声生成

2020-09-28 10:46 作者:TechBeat人工智能社区  | 我要投稿

本周为将门-TechBeat技术社区245线上Talk!也是ECCV 2020系列Talk第弹!

北京时间9月29日(周二)晚8点香港中文大学多媒体实验室博士生周航的Talk将准时在将门TechBeat技术社区开播!

他与大家分享的主题是: “视觉引导的音乐声源分离与立体声生成”。届时将会介绍其所在港中文团队发表在ECCV 2020上结合声源分离和立体声生成两个方向的最新工作。


Talk·信息


主题:视觉引导的音乐声源分离与立体声生成

嘉宾:香港中文大学多媒体实验室博士生周航

时间:北京时间 9月29日 (周二) 20:00

地点:将门TechBeat技术社区

http://www.techbeat.net/


Talk·提纲

本次分享中,周航将首先概括性地介绍音频-视觉的多模态联合学习任务的主要研究对象与引用场景,并深入视觉信息在音乐控制领域的应用。具体来说,其团队关注于计算机视觉与音乐处理中,声源分离立体声生成这两大主流任务的关系。


他将首先分别从两个方向各选取一篇代表性的工作,介绍这两个方向研究的问题定义的基本框架。接着会详细讲解其港中文团队发表在ECCV 2020上结合这两个方向的最新工作: 视觉引导的声源分离辅助立体声生成方法Sep-Stereo


本次分享的主要内容如下:

  1. 音频-视觉联合学习任务总览

  2. 视觉引导的音乐声源分离任务,前人工作解读

  3. 视觉引导的立体声生成任务,前人工作解读

  4. 详解发表于ECCV 2020的最新工作:视觉引导的声源分离辅助立体声生成方法Sep-Stereo

  5. 总结与展望

Talk·参考资料

本次分享中将会提及的文章如下,建议提前预习哦:

1.《探索计算机视觉与音频的交叉: 基于视觉的音乐相关研究Review (声源分离&Beyond) 》

https://mp.weixin.qq.com/s/SxuCC-TgQht2-vYg-5gZJg

2.《 ECCV 2020 | 视觉引导的声源分离辅助立体声重构方法 Sep-Stereo》

https://zhuanlan.zhihu.com/p/162689191 

3.《Sep-Stereo: Visually Guided Stereophonic Audio Generation by Associating Source Separation 》

论文链接:https://arxiv.org/abs/2007.09902 

项目链接:https://hangz-nju-cuhk.github.io/projects/Sep-Stereo


Talk·提问交流

方式 ①

在本文留言区直接提出你的问题,或扫描下方二维码提问!问题被选中的小伙伴们将获得一个红包奖励

快来提问啦!


方式 ②

在Talk界面下的【交流区】参与互动!留下你的打call🤟和问题🙋,和更多小伙伴们共同讨论,说不定就被讲者直接翻牌解答了呢!

你的每一次贡献,我们都会给予你相应的i豆积分,近期还会有惊喜奖励哦!


Talk·观看方式

扫描下方二维码,或复制链接https://datayi.cn/w/a9a7bplP到浏览器一键完成预约!上线后会在第一时间收到通知哦~


嘉宾介绍

周航
香港中文大学多媒体实验室博士生

周航,香港中文大学多媒体实验室四年级博士生,师从王晓刚教授。本科毕业于南京大学声学系。目前主要研究方向是音频-视觉的联合学习与人脸生成,曾在ICCV/CVPR/ECCV等会议发表多篇论文。CVPR 2020优秀审稿人,致力于推动视听结合的多模态领域发展。


系列Talk

*点击链接跳转详情

第①弹

第②弹

关于TechBeat社区

▼    

TechBeat(www.techbeat.net)是一个荟聚全球华人AI精英的成长社区。我们希望为AI人才打造更专业的服务和体验,加速并陪伴其学习成长。期待这里可以成为你学习AI前沿知识的高地,分享自己最新工作的沃土,在AI进阶之路上的升级打怪的根据地!            

更多详细介绍>>https://mp.weixin.qq.com/s/pTbCK_MeTk05jK2yx1RTrQ

Talk预告 | 香港中文大学MMLab在读博士生周航: 视觉引导的音乐声源分离与立体声生成的评论 (共 条)

分享到微博请遵守国家法律