欢迎光临散文网 会员登陆 & 注册

Talk预告 | 杜克大学在读博士生李昂: 通信和计算效率联合优化的个性化联邦学习

2021-11-22 13:16 作者:TechBeat人工智能社区  | 我要投稿


本期为TechBeat人工智能社区360线上Talk。

北京时间11月22(周一)晚8点杜克大学在读博士生——李昂的Talk将准时在TechBeat人工智能社区开播!

他与大家分享的主题是: “通信和计算效率联合优化的个性化联邦学习”,届时将主要分享最新收录在2021 ACM SenSys的研究工作“FedMask: Joint Computation and Communication-Efficient Personalized Federated Learning via Heterogeneous Masking”。

目前李昂正在academic job market 积极寻找机会中,欢迎有意者与他联系。

Talk·信息

主题:通信和计算效率联合优化的

个性化联邦学习

嘉宾:杜克大学在读博士生 李昂

时间:北京时间 11月22日 (周一) 20:00

地点:TechBeat人工智能社区

http://www.techbeat.net/

长按识别二维码,一键完成预约!


完整版怎么看?

扫描下方二维码,或复制链接https://datayi.cn/w/GPnxNNE9至浏览器,一键完成预约!

上线后会在第一时间收到通知哦~ 


Talk·提纲

联邦学习是一种新兴的分布式机器学习模式,其目标是在保障大数据交换时的信息安全、保护终端数据和个人数据隐私、保证合法合规的前提下,帮助许多客户(例如移动设备或整个组织)在保持数据分散的同时协同训练一个模型。但是联邦学习的发展和应用面临诸多实际挑战,包括通信成本、数据异质性、计算开销等等。

本次Talk主要分享最新收录在2021 ACM SenSys的研究工作“FedMask: Joint Computation and Communication-Efficient Personalized Federated Learning via Heterogeneous Masking”。该工作提出了一种新的联邦学习框架FedMask,可以极大的降低通信成本,提高模型训练和推断效率,还能解决联邦学习训练过程中的数据异质性问题。相比于现有的联邦学习方法,FedMask的最大区别在于在联邦学习的训练过程中利用客户端本地的数据学习二值掩码(而非本地模型的参数)并且仅传递二值掩码,通过将本地数据的个性化信息嵌入二值掩码来解决数据一致性问题。

· 联邦学习的背景以及FedMask的研究动机

· FedMask框架设计

· 实验评估

· 总结

Talk·参考资料

这是本次分享中将会提及的资料,建议提前预习哦!

https://sites.duke.edu/angli/files/2021/11/2021_SenSys_FedMask.pdf


Talk·提问交流

通过以下两种方式提问都将获得微信现金红包奖励哦!

方式 ①

在Talk界面下的【交流区】参与互动!留下你的打call🤟和问题🙋,和更多小伙伴们共同讨论,被讲者直接翻牌解答!

你的每一次贡献,我们都会给予你相应的i豆积分,还会有惊喜奖励哦!


方式 ②

在本文留言区直接提出你的问题,或扫描下方二维码提问!

扫码来提问!



Talk·嘉宾介绍


李昂

杜克大学在读博士生

李昂目前就读于杜克大学,是电子和计算机工程系在读博士生,导师为陈怡然教授。李昂的主要研究方向是深度学习,移动和边缘计算,隐私保护等。多篇相关研究成果发表在ACM MobiCom、ACM SenSys、KDD、NeurIPS、CVPR等国际期刊和会议,并获得 KDD 2020 最佳学生论文和 SEC2019 最佳海报奖。

个人主页:

https://sites.duke.edu/angli/

扫码报名!

关于TechBeat人工智能社区

TechBeat (www.techbeat.net) 是一个荟聚全球华人AI精英的成长社区。 我们希望为AI人才打造更专业的服务和体验,加速并陪伴其学习成长。 期待这里可以成为你学习AI前沿知识的高地,分享自己最新工作的沃土,在AI进阶之路上的升级打怪的根据地!

更多详细介绍>>https://mp.weixin.qq.com/s/pTbCK_MeTk05jK2yx1RTrQ

Talk预告 | 杜克大学在读博士生李昂: 通信和计算效率联合优化的个性化联邦学习的评论 (共 条)

分享到微博请遵守国家法律