欢迎光临散文网 会员登陆 & 注册

Talk预告 | MSU计算机科学与工程系在读博士生刘昊宸:自然语言处理中的公平性

2022-03-31 12:57 作者:TechBeat人工智能社区  | 我要投稿


本期为TechBeat人工智能社区393线上Talk。北京时间3月31(周四)20:00,密歇根州立大学计算机科学与工程系在读博士生——刘昊宸的Talk将准时在TechBeat人工智能社区开播!

他与大家分享的主题是: “自然语言处理中的公平性 ”,届时将以对话生成和文本分类两个任务为例,分享NLP中公平性问题研究的最新进展。

Talk·信息

主题:自然语言处理中的公平性 

嘉宾: 密歇根州立大学计算机科学与工程系在读博士生刘昊宸

地点:TechBeat人工智能社区

http://www.techbeat.net/

长按识别二维码,一键预约TALK!

完整版怎么看?

扫描下方二维码,或复制链接https://datayi.cn/w/GR4vdANo至浏览器,一键完成预约!上线后会在第一时间收到通知哦


Talk·提纲

自然语言处理(NLP)作为人工智能领域中一个重要的研究方向,受到了日益增长的关注,并被广泛应用于各种生活和商业场景中。然而,最近的研究表明,自然语言处理的相关应用会表现出与人类相似的偏见,或产生不公平的决策。NLP应用中的偏见以何种形式存在?如何衡量NLP模型的公平性?如何消除NLP系统中的偏见?在本次Talk中,我们将以对话生成和文本分类两个任务为例,分享NLP中公平性问题研究的最新进展。

具体分享提纲如下:

1. 什么是自然语言处理中的公平性问题

2. 检测对话系统中的偏见

3. 消除对话系统中的性别偏见

4. 文本分类中的隐式偏见

Talk·预习资料

[1] (COLING ‘20) Does Gender Matter? Towards Fairness in Dialogue Systems
https://aclanthology.org/2020.coling-main.390/

[2] (EMNLP ‘20) Mitigating Gender Bias for Neural Dialogue Generation with Adversarial Learninghttps://aclanthology.org/2020.emnlp-main.64/

[3] (ACL ’21 Findings) The Authors Matter: Understanding and Mitigating Implicit Bias in Deep Text Classificationhttps://aclanthology.org/2021.findings-acl.7/


Talk·提问交流

通过以下两种方式提问都将获得微信现金红包奖励哦!

方式 ①

在Talk界面下的【交流区】参与互动!留下你的打call🤟和问题🙋,和更多小伙伴们共同讨论,被讲者直接翻牌解答!

你的每一次贡献,我们都会给予你相应的i豆积分,还会有惊喜奖励哦!


方式 ②

在本文留言区直接提出你的问题,或扫描下方二维码提问!

快来提问啦!


Talk·嘉宾介绍


刘昊宸
密歇根州立大学计算机科学与工程系在读博士生

刘昊宸,美国密歇根州立大学计算机科学与工程系五年级博士生。研究领域主要包括机器学习中的公平性问题、自然语言处理和推荐系统。他曾在人工智能和数据挖掘领域的知名学术会议中发表多篇论文,包括ACL、EMNLP、COLING、SIGIR、WWW、KDD、ICDM、IJCAI等。他的研究成果已被学界引用约500次。他还曾作为主要演讲者组织了ICAPS’21和WWW’22上“可信人工智能:计算视角”的专题讲座。

个人主页:

http://www.cse.msu.edu/~liuhaoc1/

长按识别二维码,一键预约TALK!

关于TechBeat人工智能社区

TechBeat (www.techbeat.net) 是一个荟聚全球华人AI精英的成长社区。 我们希望为AI人才打造更专业的服务和体验,加速并陪伴其学习成长。 期待这里可以成为你学习AI前沿知识的高地,分享自己最新工作的沃土,在AI进阶之路上的升级打怪的根据地!

更多详细介绍>>https://mp.weixin.qq.com/s/pTbCK_MeTk05jK2yx1RTrQ

Talk预告 | MSU计算机科学与工程系在读博士生刘昊宸:自然语言处理中的公平性的评论 (共 条)

分享到微博请遵守国家法律