欢迎光临散文网 会员登陆 & 注册

Talk预告 | 悉尼科技大学在读博士生吕月明分享NeurlPS工作:高效黑盒积分近似和优化

2021-02-23 10:35 作者:TechBeat人工智能社区  | 我要投稿

本周为TechBeat人工智能社区279线上Talk,也是NeurIPS 2020系列Talk的第11弹!

北京时间2月24(周三)晚8点悉尼科技大学在读博士生—吕月明的Talk将准时在TechBeat人工智能社区开播!

他与大家分享的NeurIPS 2020工作主题是: “高效黑盒积分近似和优化”。届时将探讨积分近似和优化的内在联系,从黑盒积分近似和黑盒优化这两部分内容展开详细讲述。

Talk·信息

主题:高效黑盒积分近似和优化

嘉宾:悉尼科技大学在读博士生 吕月明

时间:北京时间 2月24日 (周三) 20:00

地点:TechBeat人工智能社区

http://www.techbeat.net/


长按识别二维码,一键完成预约!


Talk·提纲

黑盒积分近似和黑盒优化在科学实验和工程设计上有广泛应用。在机器学习领域, 积分近似和黑盒优化也有许多重要的应用场景。比如,积分近似可以应用在kernel method的核函数近似上,从而降低kernel method 如高斯过程的计算复杂度。核函数近似思想也被用于建立kernel method和神经网络的联系,以便进行神经网络理论分析,比如最近的neural tangent kernel一系列工作。另外黑盒优化可以应用在超参调节,黑盒攻击等领域也提供了这些应用的理论基础。

本次分享的主要内容如下:

1. 积分近似和优化的内在联系讲述

2. 黑盒积分近似内容讲述

3. 黑盒优化内容讲述


Talk·参考资料

这是本次分享中将会提及的资料,建议提前预习哦!

  1. Lyu et al. Subgroup-based Rank-1 Lattice Quasi-Monte Carlo(NeurIPS 2020

  2. Yueming Lyu  Spherical structured feature maps for kernel approximation(ICML 2017

  3. Lyu et al. Black-box Optimizer with Implicit Natural Gradient. Preprint. 

    https://arxiv.org/pdf/1910.04301.pdf

  4. Lyu et al. Efficient Batch Black-box Optimization with Deterministic Regret Bounds. Preprint.

    https://arxiv.org/pdf/1905.10041.pdf

Talk·提问交流

方式 ①

在Talk界面下的【交流区】参与互动!留下你的打call🤟和问题🙋,和更多小伙伴们共同讨论,说不定就被讲者直接翻牌解答了呢!

你的每一次贡献,我们都会给予你相应的i豆积分,还会有惊喜奖励哦!


方式 ②

在本文留言区直接提出你的问题,或扫描下方二维码提问!问题被选中的小伙伴们将获得一个红包奖励

快来提问吧~


Talk·嘉宾介绍

吕月明
悉尼科技大学在读博士生

吕月明是悉尼科技大学在读博士生,师从 Ivor W. Tsang,本科硕士均毕业于华南理工大学计算机学院。曾作为SPC/PC/Reviewer学术服务于IJCAI、AAAI、AISTATS、ICML、NeurIPS、ICLR等。他的研究方向是统计机器学习和优化,主要集中在近似理论、核函数方法、learning theory、黑盒优化、鲁棒性学习等。曾在 ICML、 NeurIPS、 ICLR 上以第一作者发表相关论文。

长按识别二维码,一键完成预约!


关于TechBeat人工智能社区

TechBeat(www.techbeat.net)是一个荟聚全球华人AI精英的成长社区。 我们希望为AI人才打造更专业的服务和体验,加速并陪伴其学习成长。期待这里可以成为你学习AI前沿知识的高地,分享自己最新工作的沃土,在AI进阶之路上的升级打怪的根据地!    

更多详细介绍>>https://mp.weixin.qq.com/s/-PIO4r0WK9TfheAhbkUS-g 

Talk预告 | 悉尼科技大学在读博士生吕月明分享NeurlPS工作:高效黑盒积分近似和优化的评论 (共 条)

分享到微博请遵守国家法律