Talk预告 | NAACL Best Paper一作张宋扬: 视频辅助的无监督句法分析

本周为TechBeat人工智能社区第319期线上Talk。
北京时间7月13日(周二)晚8点,罗切斯特大学在读博士生——张宋扬的Talk将准时在TechBeat人工智能社区开播!
他与大家分享的主题是: “NAACL Best Paper:视频辅助的无监督句法分析”,届时将介绍有关如何进一步提高句法分析器性能这一研究过程中所面临的挑战与进展。
Talk·信息
主题:NAACL Best Paper视频辅助的无监督句法分析
嘉宾:罗切斯特大学在读博士生 张宋扬
时间:北京时间 7月13日 (周二) 20:00
地点:TechBeat人工智能社区
http://www.techbeat.net/
完整版怎么看?
扫描下方二维码,或复制链接https://datayi.cn/w/lPQJgmDo至浏览器,一键完成预约!
上线后会在第一时间收到通知哦~
Talk·提纲
近年来,有一系列工作利用视觉信号来提升句法分析器的性能,并取得了不错的结果。但这些工作局限于静态图片,却忽略了视频中物体场景等动态变化的信息。而这些动态信息往往对于动词性短语的句法学习更有用。本文首先研究了视频中不同类型的特征(物体,动作,场景,声音,人脸,OCR和语音)对句法分析器的影响。此外,本文还提出了一个新的模型Multi-Modal Compound PCFG (MMC-PCFG),可有效利用多种不同视频特征进一步提高句法分析器的性能。
本次分享的主要内容如下:
1. 无监督句法分析的问题背景
2. 相关方法的介绍
3. 我们的研究
4. 实验结果
5. 总结
Talk·参考资料
这是本次分享中将会提及的资料,建议提前预习哦!
1. Shi et al. visually grounded neural syntax acquisition, ACL 2019
https://arxiv.org/pdf/1906.02890.pdf
2. Zhao et al. Visually Grounded Compound PCFGs, EMNLP 2020
https://arxiv.org/pdf/2009.12404.pdf
3. Gabeur et al. Multi-modal Transformer for Video Retrieval, ECCV 2020
https://arxiv.org/pdf/2007.10639.pdf
4. Kim et al. Compound Probabilistic Context-Free Grammars for Grammar Induction, ACL2019
https://arxiv.org/pdf/1906.10225.pdf
Talk·提问交流
通过以下两种方式提问都将获得微信现金红包奖励哦!
方式 ①
在Talk界面下的【交流区】参与互动!留下你的打call🤟和问题🙋,和更多小伙伴们共同讨论,被讲者直接翻牌解答!

你的每一次贡献,我们都会给予你相应的i豆积分,还会有惊喜奖励哦!
方式 ②
在本文留言区直接提出你的问题,或扫描下方二维码提问!

Talk·嘉宾介绍

张宋扬,目前是罗切斯特大学计算机系三年级博士生。之前分别于东南大学和浙江大学获得计算机科学与技术的本科和硕士学位。主要研究方向是视频片段的时间定位和句法分析。博士发表过多篇顶会论文,包括ACMMM,AAAI,NAACL。2019年在HACS视频时间定位比赛中获得第一名。2021年获得NAACL最佳长文奖。
个人主页:
https://sy-zhang.github.io/
关于TechBeat人工智能社区
TechBeat(www.techbeat.net)隶属于将门创投,是一个荟聚全球华人AI精英的成长社区。我们希望为AI人才打造更专业的服务和体验,加速并陪伴其学习成长。期待这里可以成为你学习AI前沿知识的高地,分享自己最新工作的沃土,在AI进阶之路上的升级打怪的根据地!
更多详细介绍>>https://mp.weixin.qq.com/s/pTbCK_MeTk05jK2yx1RTrQ