欢迎光临散文网 会员登陆 & 注册

Talk预告 | 南加州大学博士生林禹臣: 如何将常识教给机器?常识推理与语言模型

2021-09-22 11:15 作者:TechBeat人工智能社区  | 我要投稿


本期为TechBeat人工智能社区345线上Talk。

北京时间9月23(周四)晚8点南加州大学计算机系在读博士生—林禹臣的Talk将准时在TechBeat人工智能社区开播!

他与大家分享的主题是: “如何将常识教给机器?常识推理与语言模型”,届时将介绍常识推理在问答系统、对话系统和机器人的语言控制等方面的进展与挑战。


Talk·信息

主题:如何将常识教给机器?常识推理与语言模型

嘉宾:南加州大学计算机系在读博士生 

林禹臣

时间:北京时间 9月23日 (周四) 20:00

地点:TechBeat人工智能社区

http://www.techbeat.net/


完整版怎么看?

扫描下方二维码,或复制链接https://datayi.cn/w/woVa5mWP至浏览器,一键完成预约!

上线后会在第一时间收到通知哦~ 


Talk·提纲

尽管如今的语言模型在许多重要的任务上都获得了突破性的成就,我们还是可以时常看到它们会犯一些低级的错误。其中很大的一部分错误是由于没有掌握运用常识推理的能力而造成的。这导致我们很难直接将许多模型直接应用到日常生活场景中。所谓的常识性知识主要指人类对日常物体、事件属性的普遍假设,也包括社交活动和心理变化的认识。这些常识知识的抽取和建模要比基于命名实体的事实知识要更为困难,但是它们又如此重要。常识推理在问答系统、对话系统和机器人的语言控制等方面都是非常必要的一环。因此,在构建通用人工智能体的道路上,常识推理是至关重要的一环。

本次分享主要为:

1、简要介绍常识推理的背景知识、现今发展以及它与其他领域的联系。

2、主要以KagNet (EMNLP 2019) 为例介绍如何在封闭式推理任务(closed-ended commonsense reasoning tasks比如commonsenseQA)中利用常识知识图谱来提高预训练语言模型的表现。并介绍其后续工作MHGRN(EMNLP2020)。

3、以OpenCSR为例来介绍林禹臣如何将常识推理从多选题的形式扩展到更加开放式的推理模式 (open-ended commonsense reasoning),并详细介绍DrFact模型——一种直接利用文本型知识库进行多条推理的常识问答模型 (NAACL2021)。

4、林禹臣将介绍其实验室最近在常识推理领域数据集构建方面的成果,包括生成式推理CommonGen,多语言常识推理数据集X-CSR,谜题类问答RiddleSense,逻辑性推理测试RICA等。


Talk·参考资料

这是本次分享中将会提及的资料,建议提前预习哦!

1、KagNet: Knowledge-Aware Graph Networks for commonsense Reasoning. (EMNLP 2019)

2、Scalable Multi-Hop Relational Reasoning for Knowledge-Aware Question Answering (EMNLP2020)

3、Differentiable Open-Ended commonsense Reasoning (NAACL 2021)

4、Common Sense Beyond English: Evaluating and Improving Multilingual Language Models for commonsense Reasoning (ACL 2021)5、CommonGen: AConstrained Text Generation Challenge for Generative commonsense Reasoning (EMNLP 2020 Findings)6、RiddleSense: Reasoningabout Riddle Questions Featuring Linguistic Creativity and commonsenseKnowledge (ACL 2021 Findings)7、RICA: Evaluating RobustInference Capabilities Based on commonsense Axioms (EMNLP 2021)

8、常识推理的资料站:

https://commonsense.run/


Talk·提问交流

通过以下两种方式提问都将获得微信现金红包奖励哦!

方式 ①

在Talk界面下的【交流区】参与互动!留下你的打call🤟和问题🙋,和更多小伙伴们共同讨论,被讲者直接翻牌解答!

你的每一次贡献,我们都会给予你相应的i豆积分,还会有惊喜奖励哦!


方式 ②

在本文留言区直接提出你的问题,或扫描下方二维码提问!


Talk·嘉宾介绍

林禹臣

南加州大学计算机系博士生

林禹臣,南加州大学计算机系博士生,导师为Prof. Xiang Ren。在此之前,他本科毕业于上海交通大学IEEE试点班(2014-2018),曾在Google AI 与 Facebook AI Research (FAIR) 担任研究实习生,分别受指导于William Cohen和 Scott Yih。他曾多次担任ACL, EMNLP, NAACL, ICLR, NeurIPS, AAAI等会议的审稿人,获得过WWW 2020 best paper runner-up, 百度AI新星等荣誉。

他的博士研究致力于自然语言处理中的常识推理(commonsense reasoning)——表征并融入常识知识于神经语言模型中,从而创造更贴近人类思维与行为的智能体。他的研究兴趣也包括联邦学习 (federated learning), 跨任务泛化(cross-task generalization),元学习(meta-learning),终身学习(lifelong/continual learning)等方向在自然语言处理中的应用。

个人主页:

https://yuchenlin.xyz/

长按识别二维码,一键完成预约


关于TechBeat人工智能社区

TechBeat (www.techbeat.net) 是一个荟聚全球华人AI精英的成长社区。 我们希望为AI人才打造更专业的服务和体验,加速并陪伴其学习成长。 期待这里可以成为你学习AI前沿知识的高地,分享自己最新工作的沃土,在AI进阶之路上的升级打怪的根据地!

更多详细介绍>>https://mp.weixin.qq.com/s/pTbCK_MeTk05jK2yx1RTrQ 

Talk预告 | 南加州大学博士生林禹臣: 如何将常识教给机器?常识推理与语言模型的评论 (共 条)

分享到微博请遵守国家法律