欢迎光临散文网 会员登陆 & 注册

Talk直播 | 伊利诺伊大学安全学习实验室系列①: 可信机器学习

2022-02-15 11:24 作者:TechBeat人工智能社区  | 我要投稿


本期为TechBeat人工智能社区380线上Talk,也是伊利诺伊大学安全学习实验室“可信机器学习: 机器学习鲁棒性,隐私性,泛化性,及其内在关联”的系列Talk第①场。

北京时间2月16(周三) 20:00,伊利诺伊大学助理教授—李博和伊利诺伊大学在校博士生—李林翼的Talk将准时在腾讯会议及将门B站直播间进行。

他们与大家分享的主题是: “可信机器学习: 机器学习鲁棒性,隐私性,泛化性,及其内在关联”和可验证深度学习:概述与展望”,届时将讲解如何通过赋予机器学习算法逻辑推理能力来提高其可验证的鲁棒性和向大家展示未来提升机器学习模型鲁棒性的一个全新的角度。


系列Talk介绍

伊利诺伊大学安全学习实验室SL2(Secure Learning Lab)(http://boli.cs.illinois.edu/)由助理教授李博以及10名博士生和1名博士后组成,实验室隶属于计算机组(https://cs.illinois.edu/)。

我们相信机器学习的安全性,隐私保护,可解释性等可信赖性质是引领未来机器学习算法和模型大规模部署和应用的重要特质,尤其是在自动驾驶等对安全性质要求颇高的应用中。基于此核心理念,SL2实验室的研究重点是构建可验证性的可信机器学习算法,平台和系统,从而部署于不同的实际应用中。

从2月16日开始,每周三、周四晚20点,伊利诺伊大学安全学习实验室的老师及同学们将带来一系列的Talk分享,议程如下:


直播信息

分享主题:

1. 可信机器学习: 机器学习鲁棒性,隐私性,泛化性,及其内在关联

2. 可验证深度学习:概述与展望

分享嘉宾:

1. 伊利诺伊大学助理教授 李博

2. 伊利诺伊大学在校博士生 李林翼

活动时间:北京时间2月16日 (周三) 20:00

活动地点: B站直播间-直播观看,弹幕参与讨论 

http://live.bilibili.com/22183939


Talk·简介

可信机器学习: 机器学习鲁棒性,隐私性,泛化性,及其内在关联

分享人:李博 伊利诺伊大学助理教授

机器学习的进步引领了基于学习的推理和决策的快速和广泛部署, 如今机器学习已经用于生活的方方面面,其中不乏一些安全隐患较高的领域,例如自动驾驶和医疗诊断。然而,当前的机器学习系统常假设训练和测试数据遵循相同或相似的分布,并且不考虑潜在攻击者操纵其中任一分布。大量研究表明,有动机的攻击者完全可以通过规避攻击在测试时规避异常检测,或者可以将精心设计的恶意实例注入训练数据中,通过中毒攻击导致推理错误。

在本次Talk中,我们将一起给大家带来我们组最近关于机器学习系统中的安全,隐私,和泛化问题的研究,并讲解如何通过赋予机器学习算法逻辑推理能力来提高其可验证的鲁棒性。


可验证深度学习:概述与展望

分享人:李林翼 伊利诺伊大学在读博士生

深度学习在众多领域得到了广泛而成功地应用,但是,另一方面,深度学习系统的鲁棒性与可靠性问题也逐渐凸显,这一隐患使得深度学习在自动驾驶、安防等要求高可用性的领域的应用面临着挑战,为了从根本上解决这一隐患,我们迫切需要具有鲁棒性与可靠性保证的深度神经网络。在本次Talk中,我们将概览当前深度神经网络的主要验证方法以及提高神经网络的可验证鲁棒性的途径,这些方法和途径为当前的大规模深度神经网络提供了鲁棒性与可靠性的保证。在讲座的最后,我们将讨论这一新兴方向的挑战和开放课题,并简要介绍我们提出的TSS框架(发表于CCS’21),这是首个可对大型神经网络(如ImageNet数据集上的大模型)在一般化图像变换下提供鲁棒性保证的验证与训练框架。

分享提纲:

1. 深度神经网络的验证方法概述

2. 可验证深度学习领域的最新进展与研究方向

3. TSS:首个针对图像变换的可验证强鲁棒性大网络学习框架


Talk·预习资料

可验证深度学习:概述与展望

综述论文:

https://arxiv.org/abs/2009.04131

网站:

https://sokcertifiedrobustness.github.io/

TSS框架论文:

https://arxiv.org/abs/2002.12398(发表于CCS’21)

PPT:http://linyil.com/res/pub/TSS-CCS21-slides.pdf


Talk·嘉宾介绍

李博

伊利诺伊大学助理教授

李博教授现任职于伊利诺伊大学厄巴纳-香槟分校计算机科学系。她曾荣获许多学术奖项,包括麻省理工学院技术评论 MIT TR-35 、Alfred P. Sloan 斯隆研究奖、NSF CAREER 奖,英特尔新星奖、赛门铁克研究实验室奖学金,并获得来自Amazon、Facebook、谷歌、英特尔和 IBM 等科技公司的学术研究奖。她的论文曾获多个顶级机器学习和安全会议的最佳论文奖;研究成果还被永久收藏于英国科技博物馆。

李博的研究侧重于可信赖机器学习、计算机安全、机器学习、隐私和博弈论的理论研究和实践分析。她曾设计多个鲁棒性机器学习算法及和隐私保护数据发布系统。

她的工作曾被《自然》、《连线》、《财富》和《纽约时报》等主要媒体报道。

李林翼

伊利诺伊大学在校博士生

李林翼现为伊利诺伊大学厄巴纳-香槟分校(UIUC)Secure Learning Lab的四年级博士生。他的导师为李博教授,并接受谢涛教授的共同指导。李林翼当前的主要研究方向为可验证的机器学习,包括神经网络的验证,可验证神经网络的训练,以及验证算法的应用,其研究致力于为大规模神经网络模型提供强可靠性保障。李林翼已发表论文十余篇,其中以第一或共同第一作者身份撰写的论文已在机器学习(ICML, NeurIPS, ICLR, IJCAI, AISTATS)、计算机安全(CCS)及软件工程(FSE)等领域的顶级学术会议上发表,并受邀担任ICML, NeurIPS, ICLR, UAI, AISTATS等顶级会议的审稿人。李林翼于2018年以优良毕业生荣誉本科毕业于清华大学,并荣获UIUC Wing Kai Cheng奖学金。


Talk·提问交流

直播中被嘉宾pick回答,将获得微信现金红包奖励哦!

快来提问吧

关于TechBeat人工智能社区

TechBeat (www.techbeat.net) 是一个荟聚全球华人AI精英的成长社区。 我们希望为AI人才打造更专业的服务和体验,加速并陪伴其学习成长。 期待这里可以成为你学习AI前沿知识的高地,分享自己最新工作的沃土,在AI进阶之路上的升级打怪的根据地!

更多详细介绍>>https://mp.weixin.qq.com/s/pTbCK_MeTk05jK2yx1RTrQ 

Talk直播 | 伊利诺伊大学安全学习实验室系列①: 可信机器学习的评论 (共 条)

分享到微博请遵守国家法律