Talk预告 | RIT在读博士生包文韬: DEAR:面向开集动作识别的深度证据学习

本期为TechBeat人工智能社区第344期线上Talk。
北京时间9月16日(周四)晚8点,美国罗切斯特理工大学在读博士生—包文韬的Talk将准时在TechBeat人工智能社区开播!
他与大家分享的主题是: “DEAR:面向开集动作识别的深度证据学习”,届时将介绍其利用深度学习不确定性,在开放的世界中进行视频动作识别研究所遇到的挑战与收获。
Talk·信息
主题:DEAR:面向开集动作识别的深度证据学习
嘉宾:美国罗切斯特理工大学在读博士生包文韬
时间:北京时间 9月16日 (周四) 20:00
地点:TechBeat人工智能社区
http://www.techbeat.net/
完整版怎么看?
扫描下方二维码,或复制链接https://datayi.cn/w/DPWY13a9至浏览器,一键完成预约!
上线后会在第一时间收到通知哦~
Talk·提纲
在AI视频识别应用中,一方面,开发者通常难以清晰地定义视频中人物动作的类别,另一方面,上线后的AI模型不可避免地会接收从未见过的动作类别的视频数据。因此,如何在精确识别已知类别的视频动作的同时,准确鉴别出类别未知的视频动作,成为当前AI视频识别算法落地所面临的困境。本文利用深度学习不确定性,在开放的世界中进行视频动作识别研究,不仅促进了开集识别、深度学习不确定性等领域的学术研究,而且有益于包括动作识别在内的相关AI视频理解应用加快落地。
本次分享主要为:
1. 开集识别问题与视频应用
2. 深度学习的不确定性
3. 提出的DEAR模型
4. 实验结果和分析
5. 总结与讨论
Talk·参考资料
这是本次分享中将会提及的资料,建议提前预习哦!
1、论文地址:https://arxiv.org/pdf/2107.10161.pdf
2、代码链接:https://github.com/Cogito2012/DEAR
3、项目主页:https://www.rit.edu/actionlab/dear
4、ICCV 2021 Oral | DEAR:面向开集动作识别的深度证据学习
Talk·提问交流
通过以下两种方式提问都将获得微信现金红包奖励哦!
方式 ①
在Talk界面下的【交流区】参与互动!留下你的打call🤟和问题🙋,和更多小伙伴们共同讨论,被讲者直接翻牌解答!

你的每一次贡献,我们都会给予你相应的i豆积分,还会有惊喜奖励哦!
方式 ②
在本文留言区直接提出你的问题,或扫描下方二维码提问!

Talk·嘉宾介绍

包文韬,美国罗切斯特理工大学计算与信息科学系,三年级在读博士生,师从Yu Kong教授、Qi Yu教授。此前分别于2016和2019年获得武汉大学本科和硕士学位,硕士期间在武汉大学陈震中教授课题组从事高光谱遥感、视觉注意力、三维目标检测等科研工作。博士研究方向为计算机视觉与机器学习,具体包括视频内容理解、深度学习的不确定性、模型可解释性。相关研究成果已在IEEE TIP、IROS、ACM MM、ICCV等国际期刊和会议上发表。
个人主页:
https://cogito2012.github.io/homepage

长按识别二维码,一键完成预约!
关于TechBeat人工智能社区
TechBeat (www.techbeat.net) 是一个荟聚全球华人AI精英的成长社区。 我们希望为AI人才打造更专业的服务和体验,加速并陪伴其学习成长。 期待这里可以成为你学习AI前沿知识的高地,分享自己最新工作的沃土,在AI进阶之路上的升级打怪的根据地!
更多详细介绍>>https://mp.weixin.qq.com/s/pTbCK_MeTk05jK2yx1RTrQ