欢迎光临散文网 会员登陆 & 注册

Talk预告 | ICLR'23 Oral德州大学奥斯汀分校薛子慧:模态聚焦假说-理解跨模态知识蒸馏

2023-05-10 14:27 作者:TechBeat人工智能社区  | 我要投稿


本期为TechBeat人工智能社区494线上Talk!

北京时间5月5(周五)20:00德州大学奥斯汀分校在读博士生—薛子慧的Talk将准时在TechBeat人工智能社区开播!她与大家分享的主题是: “模态聚焦假说-理解跨模态知识蒸馏”,届时将对跨模态知识蒸馏进行了深入的理解和探讨。

Talk·信息
主题:模态聚焦假说-理解跨模态知识蒸馏

嘉宾:德州大学奥斯汀分校在读博士生 薛子慧

时间:北京时间 5月5日 (周五) 20:00
地点:TechBeat人工智能社区
http://www.techbeat.net/

 长按识别二维码,一键预约TALK!


Talk·介绍

知识蒸馏是深度学习中一种有效的技术,用于实现模型知识转移。近年来,它在多模态学习领域得到了广泛应用,并实现了显著成果。然而,我们对跨模态知识蒸馏的工作机制仍然理解不足。这使得知识蒸馏的有效性受到质疑:跨模态知识蒸馏是否总是有效?如果不是,那么什么是衡量知识蒸馏性能的好指标呢? 本次讲座主要介绍我们的一篇被ICLR 2023 (top-5%, oral)接收的论文:The Modality Focusing Hypothesis: Towards Understanding Crossmodal Knowledge Distillation。在这篇论文中,我们提出了模态聚焦假说,对跨模态知识蒸馏进行了深入的理解和探讨。

Talk大纲

1、背景介绍:知识蒸馏与多模态学习;跨模态学习中知识蒸馏的应用

2、案例研究:跨模态知识蒸馏中的失败案例分析

3、方法论述:模态维恩图与模态聚焦假说

4、实验结果及其分析

5、总结与未来发展方向


Talk·预习资料

paper链接:

https://openreview.net/forum?id=w0QXrZ3N-s

Github:

https://zihuixue.github.io/MFH/index.html


Talk·提问交流

在Talk界面下的【交流区】参与互动!留下你的打call🤟和问题🙋,和更多小伙伴们共同讨论,被讲者直接翻牌解答!



你的每一次贡献,我们都会给予你相应的i豆积分,还会有惊喜奖励哦!



Talk·嘉宾介绍


薛子慧

德州大学奥斯汀分校在读博士生

薛子慧,德州大学奥斯汀分校在读博士,师从Kristen Grauman教授,目前是FAIR, Meta AI的访问研究员,曾担任清华大学交叉研究院多模态学习实验室(MARS Lab)的助理研究员,研究方向为多模态学习和以自我为中心的视频学习(egocentric video learning),相关研究成果发表在ICCV, CVPR, ICLR等领域顶级会议上。


长按识别二维码,一键预约TALK!


-The End-



关于TechBeat人工智能社区

TechBeat (www.techbeat.net) 是一个荟聚全球华人AI精英的成长社区。 我们希望为AI人才打造更专业的服务和体验,加速并陪伴其学习成长。 期待这里可以成为你学习AI前沿知识的高地,分享自己最新工作的沃土,在AI进阶之路上的升级打怪的根据地!


更多详细介绍>>https://mp.weixin.qq.com/s/pTbCK_MeTk05jK2yx1RTrQ 作者:TechBeat人工智能社区 https://www.bilibili.com/read/cv23296512?spm_id_from=333.999.0.0 出处:bilibili


Talk预告 | ICLR'23 Oral德州大学奥斯汀分校薛子慧:模态聚焦假说-理解跨模态知识蒸馏的评论 (共 条)

分享到微博请遵守国家法律