通知公告

预告 | IJCAI- SIGIR论文分享会

2020年04月30日 13:58

分享背景

IJCAIInternational Joint Conference on Artificial Intelligence)与SIGIRSpecial Interest Group on Information Retrieval被中国计算机学会(CCF)列为A类会议。为促进人工智能与量子信息检索研究的发展,加强学术交流,学部特举办IJCAI- SIGIR论文分享会,邀请论文作者进行解读和分享。

 

会议平台:腾讯会议

会议主题:IJCAI-SIGIR论文分享会

会议时间:2020/5/15 09:00-13:00

 

点击链接直接加入会议:

https://meeting.tencent.com/s/5ipBYPfd87a7

 

会议 ID926 415 214

会议密码:200515

 

手机一键拨号入会

+8675536550000,926415214# (中国大陆)

+85230018898,,,2,926415214# (中国香港)

 

活动日程

 

时间

题目

报告人

900-920

Adversarial Mutual Information Learning for Network Embedding

何东晓

920-940

Community-Centric Graph Convolutional Network for Unsupervised Community   Detection

何东晓

940-1000

Model-theoretic Characterizations of   Existential Rule Languages

章衡

1000-1020

TransRHS: A Representation Learning Method for Knowledge Graphs with   Relation Hierarchical Structure

张富翔

1020-1040

Bidirectional Adversarial Training for Semi-Supervised Domain Adaptation

姜品

1040-1100

A Quantum Interference Inspired Neural Matching Model for Ad-hoc   Retrieval

高珲

1100-1120

Learning to Accelerate Heuristic Searching for Large-Scale   MaximumWeighted b-Matching Problems in Online Advertising

郝晓田

1120-1140

Generating Behavior-Diverse Game AIs with Evolutionary Multi-Objectives   Deep Reinforcement Learning

郑岩

1140-1200

Efficient Deep Reinforcement Learning via Adaptive Policy Transfer

杨天培

1200-1220

KoGuN: Accelerating Deep Reinforcement Learning via Integrating Human   Suboptimal Knowledge

张鹏

 

论文简介

题目:Adversarial Mutual Information Learning for Network Embedding

作者:何东晓、翟露、李志刚、杨亮、金弟、Philip S. Yu

简介:已有基于生成对抗网络(GAN)的方法通常使用GAN学习高斯分布作为网络嵌入的先验条件。然而,这种策略很难将节点表示和高斯分布区分开。此外,它没有充分利用GAN的本质优势(即对抗学习表示机制而不是表示本身),从而导致该方法性能下降。为解决该问题,提出了在表示机制(即在自编码器框架下的编码机制)上采用对抗思想。使用节点属性和节点嵌入之间的互信息来代替这种编码机制(更容易跟踪)。此外,还引入了另一种映射机制(基于GAN)与编码机制进行对抗训练。

 

题目:Community-Centric Graph Convolutional Network for Unsupervised Community Detection

作者:何东晓,宋月,金弟,冯志勇,张彬彬,于智郅,Weixiong Zhang

简介:已有图卷积神经网络(GCN)社团发现方法都是半监督的,而社团发现本质上是一个无监督学习问题。在自编码器框架下开发了一种新的GCN方法,用于无监督的社团发现。将MRFasGCNMarkov Random Fields as GCN)转换为编码器,然后在编码器的隐藏层中导出结点社团成员身份。引入以社团为中心的双解码器,以无监督的方式分别重构网络结构和结点属性,以便在输入空间中进行可信的社团发现。实验验证了与单独重构链接的已有方法相比,用于共同生成链接和属性的新解码机制更具有效性。

 

题目:Model-theoretic Characterizations of Existential Rule Languages

作者:Heng Zhang , Yan Zhang, Guifei Jiang

简介:存在规则语言(Existential rule language)是在计算机科学和人工智能领域被广泛应用的一类重要的逻辑语言。譬如,这类语言在数据库领域常用来描述数据之间的依赖关系(Dependency);在知识表示与推理及知识图谱领域被用作扩充Datalog与描述逻辑的新本体描述语言。目前主流的存在规则语言包括嵌入式依赖语言ED、析取嵌入式依赖语言DED、元组生成依赖语言TGDGuarded TGDFrontier-guarded TGDLinear TGD。本论文系统地给出了这些语言的模型论刻画。所有这些刻画基于简单的代数关系,因而为Guarded TGDFrontier-guarded TGDLinear TGD等语言的良好计算性质提供了全新的解释。同时,作为上述刻画的一个自然应用,我们界定了各类语言之间可重写性的计算复杂度。上述结果不仅夯实存在规则语言的理论基础,也为寻找更好的存在规则语言提供了一种不同的思路。

 

题目:TransRHS: A Representation Learning Method for Knowledge Graphs with Relation Hierarchical Structure

作者:张富翔,王鑫,李钊,李建新

简介:知识图谱是实现新一代人工智能的重要技术。知识表示学习是将知识图谱中的实体和关系嵌入到一个连续低维向量空间中,在保留知识图谱结构的同时,简化下游机器学习任务的操作。已有的知识表示学习方法大多只关注表示三元组中结构化信息,而忽略了关系层次结构对于知识表示学习的重要性。该研究工作中提出的TransRHS模型巧妙地利用向量和球的相对位置,高效融合知识图谱实体关系之间的subRelationOf泛化层次结构。在真实数据集的实验结果显示,TransRHS模型相较于传统知识表示学习方法在链接预测的评价指标上平均提升了20%。实验结果说明,TransRHS模型能够很好地利用关系层次结构提升知识表示学习的性能指标。

 

题目:Bidirectional Adversarial Training for Semi-Supervised Domain Adaptation

作者:Pin Jiang, Aming Wu, Yahong Han, Yunfeng Shao(华为诺亚), Meiyu Qi(华为诺亚), Bingshuai Li(华为诺亚)

简介:半监督领域自适应(SSDA)任务的难点在于如何利用少量有标注的和足量无标注的目标域样本,增强模型的跨域迁移能力。现有的对抗训练方法能一定程度上平滑样本邻域,但由于领域鸿沟的存在,其很难在领域自适应的场景中发挥有益作用。本文针对SSDA任务的特点,提出新的双向对抗训练方法,在样本上叠加有向的噪声扰动,从而双向地产生对抗样本填充领域鸿沟。论文针对源域和目标域标注信息的不同,提出了多种对抗训练方法,并将它们统一到端到端的模型中。论文在三个公开数据集上进行了实验验证,结果表明我们方法的有效性。本论文工作是韩亚洪老师实验室与华为诺亚方舟实验室网络大脑(Noah's Ark Lab NetMind Team)合作项目的研究成果。

 

题目:A Quantum Interference Inspired Neural Matching Model for Ad-hoc Retrieval

AUTHORS:

作者:Yongyu Jiang, Peng Zhang, Hui Gao, etc.

简介:当前主流的信息检索模型(经典概率检索模型、基于依赖检索模型以及神经匹配模型)在文档相关性判断过程中,首先分别计算查询词与候选文档的相关性得分,最后将上述得分相累加获得文档与查询词的最终相关性得分。这种相关性判断符合经典概率,但却与人类认知的相关性判断过程相违背,其主要原因是人类在进行文档相关性过程中并未机械地将查询词与文档的匹配计算逐个分开,而是将查询词整体与文档进行匹配,这会导致在基于全概率公式的检索模型上多出额外的干涉信息。为了建模这一干涉现象,我们的工作提出量子干涉启发的神经匹配模型(QINM),该模型将查询及候选文档定义为量子子系统,构造查询-文档复合系统,进而通过约化密度矩阵编码文档的概率分布,从而建模信息检索过程中匹配单元(即单个查询词与文档的组合)之间的干涉信息。实验结果也表明,我们所提出模型的性能均优于当前的模型。

 

题目:Learning to Accelerate Heuristic Searching for Large-Scale MaximumWeighted b-Matching Problems in Online Advertising

作者:Xiaotian Hao, Junqi Jin, Jin Li, Weixun Wang, Yi Ma, Jianye HaoZhenzhe ZhengHan LiJian XuKun Gai

简介:二分图匹配问题是算法研究中的重要基础性问题,在电商(推荐、广告)、劳力市场、云计算等重要应用领域广泛存在。实际应用问题中,二分图匹配问题通常具有两个特征:(1)规模巨大,(2)有很强的动态性和重复性,这就需要求解算法定期重复执行。然而,已有的精确解算法和近似算法由于求解时间长并且需要占用大量计算资源而难以在大规模实际问题中应用。为了加速求解过程,我们提出了NeuSearcher的求解框架,利用历史中已求解问题实例中学到的知识来帮助求解新的问题实例。具体地,我们设计了一个多通道图神经网络(multichannel GNN)来预测匹配边权的阈值,通过该阈值可以显著地减少问题的搜索空间。进一步,我们提出了一种并行迭代式的启发式搜索算法来提高解的质量直到收敛。在公开数据集和工业数据集上的实验表明,与最先进的近似方法相比,NeuSearcher能在保证获得完全一致匹配解的基础上,提高23倍的求解速度。

 

题目:Generating Behavior-Diverse Game AIs with Evolutionary Multi-Objectives Deep Reinforcement Learning

作者:Ruimin Shen, Yan Zheng, Jianye Hao, Zhaopeng Meng, Yingfeng Chen Changjie FanYang Liu

简介:长久以来,游戏AI设计一直被认为是游戏行业的一项艰巨任务。其中,设计具有特定行为特征的游戏AI很大程度上取决于领域专家的先验知识,并且也很难通过手动实现。深度强化学习为推进自动游戏AI设计提供了启发。然而,大多数使用深度强化学习算法设计的游戏AI,主要以打败人类为目标,而忽略了游戏中行为多样化的重要性。为了弥合差距,本文提出了一个名为EMOGI的新框架,该框架可以在几乎没有领域知识的情况下自动生成特定行为的游戏AI。更重要的是,EMOGI能够有效生成多样化的行为风格,为游戏提供了丰富的游戏AI。在Atari以及商业游戏逆水寒中的实验结果表明,相比既有算法,EMOGI能够更有效地生成行为多样化的游戏AI,显着提高了游戏AI设计的效率。

 

论文题目:Efficient Deep Reinforcement Learning via Adaptive Policy Transfer

作者:Tianpei Yang, Jianye Hao, Zhaopeng Meng, Zongzhang Zhang, Yujing Hu, Yingfeng Cheng, Changjie Fan, Weixun Wang, Wulong Liu, Zhaodong Wang, Jiajie Peng

论文简介:深度强化学习解决很多复杂问题的能力已经有目共睹,然而,如何提升其学习效率是目前面临的主要问题之一。现有的很多方法已验证迁移学习可利用相关任务中获得的先验知识来加快强化学习任务的学习效率。这些方法需要明确计算任务之间的相似度,或者只选择一个适合的源策略,并利用它提供针对目标任务的指导性探索。然而,目前仍缺少如何不显式的计算策略间相似性,自适应的利用源策略中的先验知识的方法。本文提出了一种新颖的策略迁移框架(PTF),利用上述思想实现高效的强化学习。PTF通过将多策略迁移过程建模为选项(option)学习,option判断何时和哪种源策略最适合重用,何时终止该策略的重用。同时,我们提出了一种自适应策略重用的机制,避免负迁移的出现。PTF可以自然地与现有的深度强化学习方法结合。实验结果表明,PTF在离散和连续动作空间中的学习效率和最终性能方面,都优于原始的强化学习方法,并超越了最新的策略迁移方法。

 

题目:KoGuN: Accelerating Deep Reinforcement Learning via Integrating Human Suboptimal Knowledge

作者:Peng Zhang, Jianye Hao, Weixun Wang, Hongyao Tang, Yi Ma, Yihai Duan, Yan Zheng

简介:深度强化学习智能体通常需要与环境进行大量交互才能获得满足需求的策略,因此如何加速学习过程的问题亟待解决。强化学习智能体一般是从零开始进行学习,这样的学习过程与人类不同,人类在面对新任务时,能够自然地利用从之前任务中获得的先验知识指导其之后的学习过程。这样的先验知识未必是与当前任务完全匹配的,但是仍然能够大大加速人类的学习过程。受此启发,我们提出了一种新颖的知识引导策略网络,能够将人类的先验知识结合到深度强化学习的学习过程中。我们提出的框架利用模糊规则表示人类知识,并设计了知识精化模块对次优先验进行修正。知识引导策略网络能够与现有的基于策略的强化学习算法结合,进行端到端的训练。实验结果显示,我们的方法在离散和连续动作空间任务中均能够提高智能体的学习效率;在收益信号非常稀疏的情况下,我们的方法优势更加明显。 

 

扫码关注微信公众号

联系我们

地址:天津市津南区海河教育园区雅观路135号天津大学北洋园校区55教学楼,300350
邮箱:coic@tju.edu.cn

Copyright ©2017 天津大学智能与计算学部 版权所有