Talk预告 | 伊利诺伊大学安全学习实验室系列④:联邦学习的鲁棒性

本期为TechBeat人工智能社区第383期线上Talk,也是伊利诺伊大学安全学习实验室“可信机器学习: 机器学习鲁棒性,隐私性,泛化性,及其内在关联”的系列Talk第③场。北京时间2月24日(周四)20:00,伊利诺伊大学在读博士生——谢楚琳的Talk将准时在TechBeat人工智能社区开播!
她与大家分享的主题是: “联邦学习的可验证鲁棒性”,届时将分享第一个对于联邦学习鲁棒性验证的统一框架,在训练期间对模型参数进行裁剪和扰动,在测试期间对模型参数进行平滑。
Talk·信息
主题:联邦学习的鲁棒性
嘉宾:伊利诺伊大学在读博士生谢楚琳
时间:北京时间 2月24日 (周四) 20:00
地点:TechBeat人工智能社区
http://www.techbeat.net/

完整版怎么看?
扫描下方二维码,或复制链接https://datayi.cn/w/JoOWbwNo至浏览器,一键完成预约!上线后会在第一时间收到通知哦
Talk·提纲
联邦学习 (FL) 被提出以解决分布式训练机器学习模型的问题,而无需直接访问不同用户的本地训练数据,特别适用于数据隐私敏感的场景。然而,其分布式学习方法,不同用户之间固有的异构数据分布,以及对抗性用户的存在引发了新的安全问题。首先,我们提出了分布式后门,以揭示当前联邦学习的漏洞。尽管有一些经验化的防御方法,但它们又被更强的攻击化解。随后,我们提出了第一个对于联邦学习鲁棒性验证的统一框架,在训练期间对模型参数进行裁剪和扰动,在测试期间对模型参数进行平滑。最后,数据隐私的重要性驱动了联邦学习的发展,所以差分隐私技术在联邦学习训练中被广泛使用。于是我们进一步揭示联邦学习的差异隐私与可验证鲁棒性之间的联系,我们证明了满足用户级(实例级)差分隐私的联邦学习模型对于有限数量的对抗性用户(实例)具有可证明的鲁棒性。
具体分享提纲如下:
· 联邦学习的分布式后门
· 针对联邦学习的可验证鲁棒性
· 揭示联邦学习的差分隐私与可验证鲁棒性之间的联系
Talk·预习资料
DBA论文:
https://openreview.net/forum?id=rkgyS0VFvr
CRFL论文:
https://arxiv.org/pdf/2106.08283.pdf
DPFL Robustness论文:
https://alphapav.github.io/files/papers/Certified_Robustness_DPFL.pdf
Talk·提问交流
通过以下两种方式提问都将获得微信现金红包奖励哦!
方式 ①
在Talk界面下的【交流区】参与互动!留下你的打call🤟和问题🙋,和更多小伙伴们共同讨论,被讲者直接翻牌解答!
你的每一次贡献,我们都会给予你相应的i豆积分,还会有惊喜奖励哦!
方式 ②
在本文留言区直接提出你的问题,或扫描下方二维码提问!

Talk·嘉宾介绍

谢楚琳现为伊利诺伊大学厄巴纳-香槟分校(UIUC)Secure Learning Lab 的二年级博士生,其导师为李博教授。谢楚琳当前的主要研究方向为可信赖机器学习和联邦学习,包括安全性,隐私性,公平性以及可解释性。 她的研究愿景是探索目前机器学习和联邦学习模型的缺点,同时构建更加稳健、更加保护用户隐私、更具公平性的模型,以促进联邦学习的大规模落地应用。她在相关领域有多篇论文被接受到顶级会议上,包括 ICLR、ICML、CVPR 等。谢楚琳于2020年以优秀毕业生荣誉本科毕业于浙江大学。
个人主页:https://alphapav.github.io/


伊利诺伊大学安全学习实验室SL2(Secure Learning Lab)(http://boli.cs.illinois.edu/)由助理教授李博以及10名博士生和1名博士后组成,实验室隶属于计算机组(https://cs.illinois.edu/)。
我们相信机器学习的安全性,隐私保护,可解释性等可信赖性质是引领未来机器学习算法和模型大规模部署和应用的重要特质,尤其是在自动驾驶等对安全性质要求颇高的应用中。基于此核心理念,SL2实验室的研究重点是构建可验证性的可信机器学习算法,平台和系统,从而部署于不同的实际应用中。
从2月16日开始,每周三、周四晚20点,伊利诺伊大学安全学习实验室的老师及同学们将带来一系列的Talk分享,议程如下:


关于TechBeat人工智能社区
TechBeat (www.techbeat.net) 是一个荟聚全球华人AI精英的成长社区。 我们希望为AI人才打造更专业的服务和体验,加速并陪伴其学习成长。 期待这里可以成为你学习AI前沿知识的高地,分享自己最新工作的沃土,在AI进阶之路上的升级打怪的根据地!
更多详细介绍>>https://mp.weixin.qq.com/s/pTbCK_MeTk05jK2yx1RTrQ