宋文辉 Legal Intelligence for E-commerce: Multi-task Learning by Leveraging Multiview Dispute Representation
新闻来源:IR实验室       发布时间:2019/11/22 0:00:00

随着电子商务的兴起,网上产生了大量的电商纠纷,也就需要一个高效且代价较低的方法来解决这些问题。这篇文章突破性地在电子商务与法律智能之间建立连接,并且用提出的模型较好的解决了问题。不同于传统的方法仅关注于交易本身的信息,本文的模型利用了多视图同时去关注了购买者与商家的历史交易信息,并结合了作者自己建的法律知识图谱一起完成彼此相联的多个任务的学习,取得了较好的预测结果。

1. 引言

随着大量交易信息的出现,自然会产生大量涉及新技术、新概念的新型纠纷问题。消费者和买家同时需要效率高、代价低的一种解决方式。同时,当电商平台的客服给出仲裁结果时,某一方若是对结果不满意,需要知道自己向法院提起诉讼后的成功性有多大。因此,预测法院判决结果成为了一个很重要的问题。而解决这个问题最大的困难是无法精确的进行纠纷表示,买卖双方对同一纠纷的描述方式有差异、电商平台的仲裁机构没有严格的仲裁标准和关于这种电商纠纷诉讼案件的历史数据过于稀疏都对纠纷表示造成了困扰,但是同一纠纷过程有着相同的逻辑结构,而且电商平台与有着大量与纠纷诉讼案件相关的买卖双方数据和交易数据。正是基于上述特点,本文提出一种多视图的方法,同时利用到了消费者的数据、商家的数据以及交易过程的数据,结合作者自己建立的法律知识图谱,通过联合学习纠纷解决模型与诉讼预测模型的多任务学习方式,提出了一个端到端的模型,在预测上取得了最好的结果。

2. 相关任务

2.1 Main Task -- Lawsuit Judgment Prediction

主任务就是进行诉讼结果的预测,这是一个多标签分类任务。

图1 主任务的标签(M=7)

2.2 Subtask -- Dispute Reason Prediction

子任务1是进行纠纷原因预测,这是一个单标签分类任务。

图2 纠纷原因的预测标签分布(K=46)

2.3 Subtask -- Dispute Result Prediction

子任务2是进行纠纷结果预测,其公式同图1,但是K=3。

2.4 Subtask -- Lawsuit Fact Prediction

子任务3是进行法律事实预测,其公式同图2,但是M=15。

3 模型

图3 多任务整体模型

3.1 Embedding

图4 数据表示

Discrete专门用于表示元数据的离散集。我们首先将连续特征划分为离散间隔。再将其与其他分类变量一起,将它们映射到欧几里得空间,在此过程中,通过引入的标准监督训练过程,使用神经网络对它们进行映射。在Text中,我们使用Skip-gram模型来训练词向量,也通过相同的Skip-gram对字向量进行训练。然后,将单词的字符嵌入向量的序列送到双向LSTM,通过将前后的最终隐藏状态进行拼接来获得最终的字表示。每个词的最终词表示是其词和字符向量的拼接。LKG用于表示法律特征。我们计算句子文本与源节点文本之间的语义相似度,并通过将每个源节点的最大值作为法律知识图谱纠纷表示的初始表示,而其后层节点的表示则通过下图的传递公式计算得到。

图5 法律表示公式

 

3.2 Enconder

图6 编码部分

我们使用了层次网络结构,通过首先构建句子的表示形式,然后汇总那些无法实现的文档表示形式,来捕获文本背后的文档结构。其网络结构如上所示。其最终表示如下图。

图7 文档最后表示

3.3 Decoder

图8 highway network

U表示sigmoid函数,C表示ReLU函数

图8 原因预测的decoder

图9 纠纷结果预测的decoder

图10 诉讼事实预测的decoder

图11 判决预测decoder

4 实验结果

 

图12 与baseline对比

图13 与单视图对比

图14 纠纷模型的数据量大小的影响

5 错误分析

  对于论文中的案件,有26.8%的错误来自诉讼事实预测。很明显,诉讼事实预测很困难,但是对判断预测至关重要。从模型学习的角度来看,有一些很容易混淆的标签。在将来改进模型方面,增强法律知识图谱或者寻找更加易于区分的特征是比较正确的方向。