Talk预告 | ICLR'23 Oral德州大学奥斯汀分校薛子慧:模态聚焦假说-理解跨模态知识蒸馏


本期为TechBeat人工智能社区第494期线上Talk!
北京时间5月5日(周五)20:00,德州大学奥斯汀分校在读博士生—薛子慧的Talk将准时在TechBeat人工智能社区开播!她与大家分享的主题是: “模态聚焦假说-理解跨模态知识蒸馏”,届时将对跨模态知识蒸馏进行了深入的理解和探讨。
Talk·信息
主题:模态聚焦假说-理解跨模态知识蒸馏
嘉宾:德州大学奥斯汀分校在读博士生 薛子慧
时间:北京时间 5月5日 (周五) 20:00
地点:TechBeat人工智能社区
http://www.techbeat.net/
长按识别二维码,一键预约TALK!

Talk·介绍
知识蒸馏是深度学习中一种有效的技术,用于实现模型知识转移。近年来,它在多模态学习领域得到了广泛应用,并实现了显著成果。然而,我们对跨模态知识蒸馏的工作机制仍然理解不足。这使得知识蒸馏的有效性受到质疑:跨模态知识蒸馏是否总是有效?如果不是,那么什么是衡量知识蒸馏性能的好指标呢? 本次讲座主要介绍我们的一篇被ICLR 2023 (top-5%, oral)接收的论文:The Modality Focusing Hypothesis: Towards Understanding Crossmodal Knowledge Distillation。在这篇论文中,我们提出了模态聚焦假说,对跨模态知识蒸馏进行了深入的理解和探讨。
Talk大纲
1、背景介绍:知识蒸馏与多模态学习;跨模态学习中知识蒸馏的应用
2、案例研究:跨模态知识蒸馏中的失败案例分析
3、方法论述:模态维恩图与模态聚焦假说
4、实验结果及其分析
5、总结与未来发展方向
Talk·预习资料

paper链接:
https://openreview.net/forum?id=w0QXrZ3N-s
Github:
https://zihuixue.github.io/MFH/index.html
Talk·提问交流
▼
在Talk界面下的【交流区】参与互动!留下你的打call🤟和问题🙋,和更多小伙伴们共同讨论,被讲者直接翻牌解答!

你的每一次贡献,我们都会给予你相应的i豆积分,还会有惊喜奖励哦!

Talk·嘉宾介绍▼

薛子慧
德州大学奥斯汀分校在读博士生
薛子慧,德州大学奥斯汀分校在读博士,师从Kristen Grauman教授,目前是FAIR, Meta AI的访问研究员,曾担任清华大学交叉研究院多模态学习实验室(MARS Lab)的助理研究员,研究方向为多模态学习和以自我为中心的视频学习(egocentric video learning),相关研究成果发表在ICCV, CVPR, ICLR等领域顶级会议上。
长按识别二维码,一键预约TALK!

-The End-
关于TechBeat人工智能社区
TechBeat (www.techbeat.net) 是一个荟聚全球华人AI精英的成长社区。 我们希望为AI人才打造更专业的服务和体验,加速并陪伴其学习成长。 期待这里可以成为你学习AI前沿知识的高地,分享自己最新工作的沃土,在AI进阶之路上的升级打怪的根据地!
更多详细介绍>>https://mp.weixin.qq.com/s/pTbCK_MeTk05jK2yx1RTrQ 作者:TechBeat人工智能社区 https://www.bilibili.com/read/cv23296512?spm_id_from=333.999.0.0 出处:bilibili
