Talk预告 | 清华大学电子工程系在读博士宁雪妃: 高效神经网络学习系统研究
本周为将门-TechBeat技术社区第239期线上Talk!
北京时间9月2日(周三)晚8点,清华大学电子工程系在读博士—宁雪妃的talk将准时在将门TechBeat技术社区开播!
她与大家分享的主题是: “高效神经网络学习系统的研究”。届时将会介绍高效的神经网络结构设计和神经网络训练的硬件加速。

Talk·信息
▼
主题:高效神经网络学习系统研究
嘉宾:清华大学电子工程系在读博士 宁雪妃
时间:北京时间 9月2日 (周三) 20:00
地点:将门TechBeat技术社区
http://www.techbeat.net/
Talk·提纲
▼
卷积神经网络架构在各应用上取得了很好的效果。近年来针对高效神经网络学习系统的研究很多,试图将神经网络学习系统往更高效率的方向推进。这个报告分享了我们组近一年在两个方面的工作,一方面是高效的神经网络结构设计,另一方面是神经网络训练的硬件加速。
本次分享的主要内容如下:
1. 研究背景
2. 高效网络架构设计
3. 高效训练
4. 工程框架
5. 总结
Talk·参考资料
▼
本次分享中将会提及的paper list如下,建议提前预习哦:
预习资料
[1]Discovering Fault-Tolerant Neural Architecture , in The 25th Asia and South Pacific Design Automation Conference (ASP-DAC 2020), 2020.
[2]FTT-NAS: Discovering Fault-Tolerant Neural Architecture , under review (https://arxiv.org/abs/2003.10375), 2020.
[3]Black Box Search Space Profiling for Accelerator-Aware Neural Architecture Search , in The 25th Asia and South Pacific Design Automation Conference (ASP-DAC 2020), 2020.
[4]A Generic Graph-based Neural Architecture Encoding Scheme for Predictor-based NAS , in ECCV, 2020 (a).
[5]DSA: More Efficient Budgeted Pruning via Differentiable Sparsity Allocation , in ECCV, 2020 (b).
[6]Towards Lower Bit Multiplication for Convolutional Neural Network Training , under review (https://arxiv.org/abs/2006.02804), 2020.
[7]Compressed CNN Training with FPGA-based Accelerator, under review, 2020.
[8]NAS框架代码: https://github.com/walkerning/aw_nas
Talk·提问交流
▼
方式 ①
在本文留言区直接提出你的问题,或扫描下方二维码提问!问题被选中的小伙伴们将获得一个红包奖励!

方式 ②
在Talk界面下的【交流区】参与互动!留下你的打call🤟和问题🙋,和更多小伙伴们共同讨论,说不定就被讲者直接翻牌解答了呢!

你的每一次贡献,我们都会给予你相应的i豆积分,近期还会有惊喜奖励哦!
Talk·观看方式
▼
扫描下方二维码,或复制链接https://datayi.cn/w/EoZargJP一键完成预约!上线后会在第一时间收到通知哦~

嘉宾介绍
▼

清华大学电子工程系在读博士
宁雪妃,2016年获得清华大学电子工程学士学位,2016年至今为清华大学电子工程系在读博士,研究方向为面向硬件系统的神经网络架构搜索。已发表一作SCI文章1篇,EI文章3篇。

关于TechBeat社区
▼
TechBeat(www.techbeat.net)是一个荟聚全球华人AI精英的成长社区。我们希望为AI人才打造更专业的服务和体验,加速并陪伴其学习成长。期待这里可以成为你学习AI前沿知识的高地,分享自己最新工作的沃土,在AI进阶之路上的升级打怪的根据地!
更多详细介绍>>https://mp.weixin.qq.com/s/pTbCK_MeTk05jK2yx1RTrQ