欢迎光临散文网 会员登陆 & 注册

Talk预告 | 普渡大学计算机系助理教授张如琪: 机器学习中的可扩展且可靠的概率推断

2021-10-26 11:08 作者:TechBeat人工智能社区  | 我要投稿


本期为TechBeat人工智能社区352线上Talk。

北京时间10月27(周三)晚8点普渡大学计算机系助理教授——张如琪的Talk将准时在TechBeat人工智能社区开播!

她与大家分享的主题是: “机器学习中的可扩展且可靠的概率推断”,届时将讲解如何在现代机器学习中,做有理论保障的快速可靠的概率推断。


Talk·信息

主题:机器学习中的可扩展且可靠的概率推断

嘉宾:普渡大学计算机系助理教授 张如琪

时间:北京时间 10月27日 (周三) 20:00

地点:TechBeat人工智能社区

http://www.techbeat.net/


完整版怎么看?

扫描下方二维码,或复制链接https://datayi.cn/w/Yo13MpwR至浏览器,一键完成预约!上线后会在第一时间收到通知哦~ 

长按识别二维码,一键完成预约!


Talk·提纲

概率建模提供了一个从数据中学习的框架,它的优势是严格地量化不确定性。在海量和复杂数据的时代,概率学习框架急需新的推断方法来快速高效地从数据中提取信息。

本次报告将讲解如何在现代机器学习中,做有理论保障的快速可靠的概率推断。在第一部分,我将介绍一个根植于理论的框架,来保证推断的快速和渐近正确性,并把这个框架应用于Metropolis-Hastings和Gibbs sampling。在第二部分,我将讲解概率推断在深度学习中的挑战,并介绍一个可以快速采样深度神经网络后验分布的方法。


Talk·参考资料

这是本次分享中将会提及的资料,建议提前预习哦!

1 Asymptotically Optimal Exact Minibatch Metropolis-Hastings

https://arxiv.org/pdf/2006.11677.pdf

2 Cyclical Stochastic Gradient MCMC for Bayesian Deep Learning

https://arxiv.org/pdf/1902.03932.pdf

3 Poisson-Minibatching for Gibbs Sampling with Convergence Rate Guarantees

https://arxiv.org/pdf/1911.09771.pdf


Talk·提问交流

通过以下两种方式提问都将获得微信现金红包奖励哦!

方式 ①

在Talk界面下的【交流区】参与互动!留下你的打call🤟和问题🙋,和更多小伙伴们共同讨论,被讲者直接翻牌解答!

你的每一次贡献,我们都会给予你相应的i豆积分,还会有惊喜奖励哦!


方式 ②

在本文留言区直接提出你的问题,或扫描下方二维码提问!

扫码来提问!

Talk·嘉宾介绍


张如琪

普渡大学计算机系助理教授

张如琪,现为德州大学奥斯汀分校IFML的博士后,将于2022年秋季作为助理教授加入普渡大学计算机系。她于2021年获得康奈尔大学博士学位,师从Chris De Sa教授。她的主要研究方向是概率机器学习,贝叶斯深度学习,大规模概率推断和采样方法。张博士的工作发表在NeurIPS, ICLR和 AISTATS等多个机器学习顶会,并有多篇论文获评Oral和Spotlight。今年,她被评选为Spotlight Rising Star in Data Science。

个人主页:

https://ruqizhang.github.io/

长按识别二维码,一键完成预约!

关于TechBeat人工智能社区

TechBeat (www.techbeat.net) 是一个荟聚全球华人AI精英的成长社区。 我们希望为AI人才打造更专业的服务和体验,加速并陪伴其学习成长。 期待这里可以成为你学习AI前沿知识的高地,分享自己最新工作的沃土,在AI进阶之路上的升级打怪的根据地!

更多详细介绍>>https://mp.weixin.qq.com/s/pTbCK_MeTk05jK2yx1RTrQ

Talk预告 | 普渡大学计算机系助理教授张如琪: 机器学习中的可扩展且可靠的概率推断的评论 (共 条)

分享到微博请遵守国家法律