欢迎光临散文网 会员登陆 & 注册

Talk预告 | MIT在读博士蔡涵: 用于高效深度学习的硬件感知自动机器学习

2021-03-16 10:28 作者:TechBeat人工智能社区  | 我要投稿

本周为TechBeat人工智能社区285线上Talk

北京时间3月17(周三)晚8点MIT在读博士生—蔡涵的Talk将准时在TechBeat人工智能社区开播!

他与大家分享的主题是: “用于高效深度学习的硬件感知自动机器学习”,届时将介绍其在硬件感知自动机器学习上的研究。


Talk·信息

主题:用于高效深度学习的

硬件感知自动机器学习

嘉宾:MIT在读博士生 蔡涵

时间:北京时间 3月17日 (周三) 20:00

地点:TechBeat人工智能社区

http://www.techbeat.net/


完整版怎么看?

扫描下方二维码,或复制链接https://datayi.cn/w/JoOGAVyo 至浏览器,一键完成预约!上线后会在第一时间收到通知哦~


Talk·提纲

在深度学习技术落地过程中,我们不仅对模型的准确率有需求,同时对模型在硬件上的运行速度,能耗等效率指标有要求。为此,需要针对目标硬件优化神经网络的结构来获得最佳的准确率与效率的权衡。

本次分享的主要内容如下:

1. 背景介绍

2. 手动设计的高效神经网络

3. 硬件感知自动机器学习

4. 模型结构-模型压缩联合优化


Talk·参考资料

这是本次分享中将会提及的资料,建议提前预习哦!

1. ProxylessNAS: Direct Neural

Architecture Search on Target Task and Hardware

https://arxiv.org/abs/1812.00332

2. Once-for-All: Train One Network and Specialize it for Efficient Deployment

https://arxiv.org/abs/1908.09791

3. APQ: Joint Search for Network Architecture, Pruning and Quantization Policy

https://arxiv.org/abs/2006.08509

4. AutoML for Architecting Efficient and Specialized Neural Networks

https://ieeexplore.ieee.org/document/8897011

5. HAT: Hardware-Aware Transformers for Efficient Natural Language Processing 

https://arxiv.org/abs/2005.14187


Talk·提问交流

通过以下两种方式提问都将获得微信现金红包奖励哦!

方式 ①

在Talk界面下的【交流区】参与互动!留下你的打call🤟和问题🙋,和更多小伙伴们共同讨论,被讲者直接翻牌解答!

你的每一次贡献,我们都会给予你相应的i豆积分,还会有惊喜奖励哦!


方式 ②

在本文留言区直接提出你的问题,或扫描下方二维码提问!

快来提问吧~


Talk·嘉宾介绍

蔡涵 MIT在读博士生

蔡涵,MIT二年级在读博士生。他的研究方向主要包括高效深度学习 (Efficient Deep Learning) 及自动机器学习 (AutoML)。他开发的硬件感知 (hardware-aware) 自动机器学习框架 (ProxylessNAS, Once-for-All) 可以自动为目标硬件平台和效率约束设计专用的神经网络结构,从而大幅提升神经网络在目标硬件上的性能与效率,多次获得低功耗计算机视觉竞赛奖项 (LPCV at CVPR'19, ICCV'19, NeurIPS'19)。


关于TechBeat人工智能社区

TechBeat (www.techbeat.net) 是一个荟聚全球华人AI精英的成长社区。 我们希望为AI人才打造更专业的服务和体验,加速并陪伴其学习成长。 期待这里可以成为你学习AI前沿知识的高地,分享自己最新工作的沃土,在AI进阶之路上的升级打怪的根据地!

更多详细介绍>>https://mp.weixin.qq.com/s/ECEmH7ebMlnxPPb8axvdlA


Talk预告 | MIT在读博士蔡涵: 用于高效深度学习的硬件感知自动机器学习的评论 (共 条)

分享到微博请遵守国家法律