连续五天,ACL 2020 清华 CoAI 系列解读!

46次阅读

职播间 | 仓储物流背后的智慧大脑——(附杉数科技招聘解读)

本次分享将围绕仓储物流后的新技术展开,为大家展示如何通过仓储大脑如何指挥仓储资源高效协作,从而提升仓库的的高效化与精益化。

疫情之后,“旧的世界”将不复存在

线上直播将成为学术交流的重要形式

2020年4月3日,NLP 顶会 ACL 2020 公布录用论文之后,AI科技评论相继与哈工大、复旦大学联合举办两期「ACL 系列解读」直播活动,受到广大师生的好评。 

第一期:ACL 2020 – 哈工大 SCIR 系列解读

第二期:ACL 2020 – 复旦大学系列解读

在此基础上,我们在此联合清华大学交互式人工智能课题组(Conversational AI, CoAI)推出第三期实验室系列解读直播活动——「ACL 2020 清华大学CoAI 系列论文解读」。

交互式人工智能课题组(Conversational AI, CoAI)隶属于清华大学计算机系人工智能实验室,由我国NLP领域的著名学者朱小燕教授、黄民烈副教授联合指导,主要从事机器学习与自然语言处理的应用基础研究,研究方向包括深度学习、强化学习、问答系统、对话系统、情感理解、逻辑推理、语言生成等。

在本届 ACL 会议中,CoAI实验室共有三篇长文、一篇 Demo 录用,此外还有两篇被 TACL 录用并将在 ACL 2020 展示。这些论文分别包括故事生成、阅读理解、对话以及相关数据集等的研究工作。

为促进学术交流,让更多师生及时了解最新前沿研究,AI科技评论联合清华大学CoAI,重磅推出「ACL 2020 清华大学CoAI 系列论文解读」。我们将在5月6日-10日,连续5天进行 5 场直播,全面覆盖清华大学CoAI课题组在ACL上相关的全部工作。

系列解读活动简介如下,欢迎届时关注。

主题一:多智能体对话策略学习

时间:2020年5月6日(周三)晚20:00整

论文:Multi-Agent Task-Oriented Dialog Policy Learning with Role-Aware Reward Decomposition 

主讲人:高信龙一

摘要:近年来,许多研究都采用用户模拟器来获得大量的模拟用户体验,以满足强化学习算法在对话策略中的训练。然而,建模一个逼真的用户模拟器是具有挑战性的。为了避免构建用户模拟器,我们提出了多智能体对话策略学习法,将系统和用户均视作对话代理联合学习,并提出了混合价值网络用于角色感知的奖励分解,以整合各代理在任务导向型对话中角色特定的领域知识。


主题二:预训练语言模型在故事生成场景下的应用和挑战

时间:2020年5月7日(周四)晚20:00整

论文:A Knowledge-Enhanced Pretraining Model for Commonsense Story Generation 

主讲人:关健

摘要:故事生成,要求根据给定的上文生成合理的故事,是一项重要但具有挑战性的任务。现有的基于预训练的语言生成模型(例如GPT-2)尽管在建模流畅性和局部连贯性方面取得了成功,但仍然会产生重复、逻辑冲突以及缺乏长距离连贯性的问题。这是由于这些生成模型难以关联相关常识、理解因果关系以及按适当的时间顺序来规划故事中的实体和事件。因此,如何利用预训练模型生成更合理的故事仍然存在很多挑战和提升空间。
 

主题三:KdConv: 知识驱动的中文多轮对话数据集

时间:2020年5月8日(周五)晚20:00整

Yoshua Bengio:注意力是“有意识”AI的核心要素

借鉴于人类的注意力机制,关注注意焦点,注意力机制是作为一种通用的思想出现的。

论文:KdConv: A Chinese Multi-domain Dialogue Dataset Towards Multi-turn Knowledge-driven Conversation 

主讲人:周昊

摘要: 在非任务导向型人机对话系统领域,尽管对话生成的任务得到了广泛的研究,但是对于驱动对话生成的知识的建模却由于缺少数据支持亟待研究。如可以在多轮对话中有效的对知识的交互进行建模,则可以极大地提升对话系统的逻辑性,信息量,可解释性等智能化程度,从而带来更好的用户体验。在本次分享中,讲者将介绍一个最新构造的知识驱动的中文多轮对话数据集KdConv,并分析知识建模在对话系统中的应用。
 

主题四:任务导向对话的数据和平台建设

时间:2020年5月9日(周六)晚20:00整

论文:

1)ConvLab-2: An Open-Source Toolkit for Building, Evaluating, and Diagnosing Dialogue Systems

 2)CrossWOZ: A Large-Scale Chinese Cross-Domain Task-Oriented Dialogue Dataset 

主讲人:朱祺

摘要:近年来,任务导向对话受到了越来越多的关注,涌现出许多数据集和基于神经网络的模型。为了推动多领域对话的研究和填补中文数据的空白,我们提出了CrossWOZ,第一个中文大规模任务导向对话数据集。此外,为了对多种形式构建的对话系统进行统一端到端评测,我们开发了ConvLab-2对话平台,支持用最新的模型快速搭建、评估、诊断对话系统。
 

主题五:非抽取式机器阅读理解

时间:2020年5月10日(周日)晚20:00整

论文:A Self-Training Method for Machine Reading Comprehension with Soft Evidence Extraction

主讲人:牛艺霖

摘要:在抽取式机器阅读理解任务中,答案来自于文章中的片段,因此可以根据答案定位文中的证据信息,从而有监督地训练证据抽取模块。在非抽取式阅读理解任务中,无法根据答案自动化地标出文中的证据信息,在这种情况下,难以有效地训练证据抽取模块,难以过滤文中大量的干扰信息。因此,如何通过无/弱监督的方式训练证据抽取模块,对于非抽取式机器阅读理解来说十分重要。

 如何加入?       

扫码关注[ AI研习社顶会小助手] 微信号,发送关键字“ACL 2020+直播”,即可进群观看直播和获取课程资料。       

ACL 2020原定于2020年7月5日至10日在美国华盛顿西雅图举行,因新冠肺炎疫情改为线上会议。为促进学术交流,方便国内师生提早了解自然语言处理(NLP)前沿研究,AI 科技评论将推出「ACL 实验室系列论文解读」内容,同时欢迎更多实验室参与分享,敬请期待!

风情信息风情信息风情信息(公众号:风情信息)

风情信息版权文章,未经授权禁止转载。详情见转载须知。

AI算法效率每16个月提速一倍,算力革命超越摩尔定律

算力界的摩尔定律?

正文完
 
admin
版权声明:本站原创文章,由 admin 2020-05-09发表,共计2681字。
转载说明:除特殊说明外本站文章皆由CC-4.0协议发布,转载请注明出处。