欢迎光临散文网 会员登陆 & 注册

Talk预告 | RIT在读博士生包文韬: DEAR:面向开集动作识别的深度证据学习

2021-09-15 14:13 作者:TechBeat人工智能社区  | 我要投稿


本期为TechBeat人工智能社区344线上Talk。

北京时间9月16(周四)晚8点美国罗切斯特理工大学在读博士生—包文韬的Talk将准时在TechBeat人工智能社区开播!

他与大家分享的主题是: “DEAR:面向开集动作识别的深度证据学习”,届时将介绍其利用深度学习不确定性,在开放的世界中进行视频动作识别研究所遇到的挑战与收获。

Talk·信息

主题:DEAR:面向开集动作识别的深度证据学习

嘉宾:美国罗切斯特理工大学在读博士生包文韬

时间:北京时间 9月16日 (周四) 20:00

地点:TechBeat人工智能社区

http://www.techbeat.net/


完整版怎么看?

扫描下方二维码,或复制链接https://datayi.cn/w/DPWY13a9至浏览器,一键完成预约!

上线后会在第一时间收到通知哦~ 


Talk·提纲

在AI视频识别应用中,一方面,开发者通常难以清晰地定义视频中人物动作的类别,另一方面,上线后的AI模型不可避免地会接收从未见过的动作类别的视频数据。因此,如何在精确识别已知类别的视频动作的同时,准确鉴别出类别未知的视频动作,成为当前AI视频识别算法落地所面临的困境。本文利用深度学习不确定性,在开放的世界中进行视频动作识别研究,不仅促进了开集识别、深度学习不确定性等领域的学术研究,而且有益于包括动作识别在内的相关AI视频理解应用加快落地。

本次分享主要为:

1. 开集识别问题与视频应用

2. 深度学习的不确定性

3. 提出的DEAR模型

4. 实验结果和分析

5. 总结与讨论

Talk·参考资料

这是本次分享中将会提及的资料,建议提前预习哦!

1、论文地址:https://arxiv.org/pdf/2107.10161.pdf

2、代码链接:https://github.com/Cogito2012/DEAR

3、项目主页:https://www.rit.edu/actionlab/dear

4、ICCV 2021 Oral | DEAR:面向开集动作识别的深度证据学习


Talk·提问交流

通过以下两种方式提问都将获得微信现金红包奖励哦!

方式 ①

在Talk界面下的【交流区】参与互动!留下你的打call🤟和问题🙋,和更多小伙伴们共同讨论,被讲者直接翻牌解答!

你的每一次贡献,我们都会给予你相应的i豆积分,还会有惊喜奖励哦!


方式 ②

在本文留言区直接提出你的问题,或扫描下方二维码提问!

快来提问吧!


Talk·嘉宾介绍

包文韬,美国罗切斯特理工大学在读博士生

包文韬,美国罗切斯特理工大学计算与信息科学系,三年级在读博士生,师从Yu Kong教授、Qi Yu教授。此前分别于2016和2019年获得武汉大学本科和硕士学位,硕士期间在武汉大学陈震中教授课题组从事高光谱遥感、视觉注意力、三维目标检测等科研工作。博士研究方向为计算机视觉与机器学习,具体包括视频内容理解、深度学习的不确定性、模型可解释性。相关研究成果已在IEEE TIP、IROS、ACM MM、ICCV等国际期刊和会议上发表。

个人主页:

https://cogito2012.github.io/homepage


长按识别二维码,一键完成预约!


关于TechBeat人工智能社区

TechBeat (www.techbeat.net) 是一个荟聚全球华人AI精英的成长社区。 我们希望为AI人才打造更专业的服务和体验,加速并陪伴其学习成长。 期待这里可以成为你学习AI前沿知识的高地,分享自己最新工作的沃土,在AI进阶之路上的升级打怪的根据地!

更多详细介绍>>https://mp.weixin.qq.com/s/pTbCK_MeTk05jK2yx1RTrQ 

Talk预告 | RIT在读博士生包文韬: DEAR:面向开集动作识别的深度证据学习的评论 (共 条)

分享到微博请遵守国家法律