欢迎光临散文网 会员登陆 & 注册

Talk预告 | 伊利诺伊大学安全学习实验室系列⑥:可信机器学习:基于决策边界的黑盒攻击

2022-03-03 11:15 作者:TechBeat人工智能社区  | 我要投稿


本期为TechBeat人工智能社区386线上Talk,也是伊利诺伊大学安全学习实验室“可信机器学习: 机器学习鲁棒性,隐私性,泛化性,及其内在关联”的系列Talk第⑥场。北京时间3月3(周四)20:00,伊利诺伊大学在读博士生——李慧琛的Talk将准时在TechBeat人工智能社区开播!

她与大家分享的主题是: “可信机器学习:基于决策边界的黑盒攻击”,届时将分享一系列探索“黑盒攻击效率”的工作,以期为预防现实中的潜在攻击提供借鉴。


Talk·信息

主题:可信机器学习:基于决策边界的黑盒攻击

嘉宾:伊利诺伊大学在读博士生李慧琛

时间:北京时间 3月3日 (周四) 20:00

地点:TechBeat人工智能社区

http://www.techbeat.net/

长按识别二维码,一键预约TALK


完整版怎么看?

扫描下方二维码,或复制链接https://datayi.cn/w/Y9Jxq6bP至浏览器,一键完成预约!上线后会在第一时间收到通知哦


Talk·提纲

机器学习在许多领域取得了突出的表现并因此获得了广泛的应用,但仍有种种安全性问题有待解决。机器学习模型很容易遭到对抗攻击:譬如攻击者只需对一个模型的输入样本引入十分微小的扰动,就能使得对应的输出产生巨大的偏差。通过对模型梯度的计算,攻击者能十分便捷地获取这种扰动。然而即便是一个“黑盒”状态的机器学习图像分类模型:当它的内部结构、权重乃至置信度数值都被隐藏起来,只有最后对类别的预测标签被保留时,攻击者虽然没法直接通过模型梯度来计算所需扰动,却仍能有效地生成人们肉眼难以察觉的对抗样本。我将与大家分享一系列探索“黑盒攻击效率”的工作,以期为预防现实中的潜在攻击提供借鉴。

具体分享提纲如下:

· 什么是基于决策边界的黑盒攻击,对于防御者而言有多大威胁性?

· 为了生成这种黑盒攻击,攻击者一方有哪些难点?

· 我们的探索与发现:攻击者能将黑盒攻击的效率提高到什么程度?


Talk·预习资料

QEBA: Query-Efficient Boundary-Based Blackbox Attack: CVPR2020 https://openaccess.thecvf.com/content_CVPR_2020/papers/Li_QEBA_Query-Efficient_Boundary-Based_Blackbox_Attack_CVPR_2020_paper.pdf

Nonlinear Projection Based Gradient Estimation for Query Efficient Blackbox Attacks: AISTATS2021

https://arxiv.org/pdf/2102.13184.pdf

Progressive-Scale Boundary Blackbox Attack via Projective Gradient Estimation: ICML2021

https://arxiv.org/pdf/2102.13184.pdf


Talk·提问交流

通过以下两种方式提问都将获得微信现金红包奖励哦!

方式 ①

在Talk界面下的【交流区】参与互动!留下你的打call🤟和问题🙋,和更多小伙伴们共同讨论,被讲者直接翻牌解答!

你的每一次贡献,我们都会给予你相应的i豆积分,还会有惊喜奖励哦!

方式 ②

在本文留言区直接提出你的问题,或扫描下方二维码提问!

快来提问啦!


Talk·嘉宾介绍

李慧琛
伊利诺伊大学在读博士生

李慧琛,UIUC CS在读博士生,师从李博教授。曾获Chirag Foundation Graduate Fellowship。本科就读于上海交通大学ACM班,曾获校优秀毕业生荣誉。曾于Cornell和UC Berkeley实验室实习。

她的研究方向是可信机器学习,包括机器学习的安全性、鲁棒性,以及可解释性。她希望通过对机器学习系统的攻击与防御,探索罕见或极端场景,了解系统的潜在风险,提升安全性;她也希望为机器学习模型的预测作出相应的解释,从而使这些系统能更趋透明、更易理解、更可信任。

她曾在机器学习及相关领域会议CVPR、ICML、CoRL、AISTATS、计算机安全顶会IEEE S&P上发表论文。

个人主页:https://scholar.google.com/citations?hl=en&user=Vf3dpOgAAAAJ

长按识别二维码,一键预约TALK!


系列Talk介绍

伊利诺伊大学安全学习实验室SL2(Secure Learning Lab)(http://boli.cs.illinois.edu/)由助理教授李博以及10名博士生和1名博士后组成,实验室隶属于计算机组(https://cs.illinois.edu/)。

我们相信机器学习的安全性,隐私保护,可解释性等可信赖性质是引领未来机器学习算法和模型大规模部署和应用的重要特质,尤其是在自动驾驶等对安全性质要求颇高的应用中。基于此核心理念,SL2实验室的研究重点是构建可验证性的可信机器学习算法,平台和系统,从而部署于不同的实际应用中。

从2月16日开始,每周三、周四晚20点,伊利诺伊大学安全学习实验室的老师及同学们将带来一系列的Talk分享,议程如下:

关于TechBeat人工智能社区

TechBeat (www.techbeat.net) 是一个荟聚全球华人AI精英的成长社区。 我们希望为AI人才打造更专业的服务和体验,加速并陪伴其学习成长。 期待这里可以成为你学习AI前沿知识的高地,分享自己最新工作的沃土,在AI进阶之路上的升级打怪的根据地!

更多详细介绍>>https://mp.weixin.qq.com/s/pTbCK_MeTk05jK2yx1RTrQ


Talk预告 | 伊利诺伊大学安全学习实验室系列⑥:可信机器学习:基于决策边界的黑盒攻击的评论 (共 条)

分享到微博请遵守国家法律