-
Notifications
You must be signed in to change notification settings - Fork 0
/
Copy pathmain_w_translation.tex
979 lines (790 loc) · 92.9 KB
/
main_w_translation.tex
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
40
41
42
43
44
45
46
47
48
49
50
51
52
53
54
55
56
57
58
59
60
61
62
63
64
65
66
67
68
69
70
71
72
73
74
75
76
77
78
79
80
81
82
83
84
85
86
87
88
89
90
91
92
93
94
95
96
97
98
99
100
101
102
103
104
105
106
107
108
109
110
111
112
113
114
115
116
117
118
119
120
121
122
123
124
125
126
127
128
129
130
131
132
133
134
135
136
137
138
139
140
141
142
143
144
145
146
147
148
149
150
151
152
153
154
155
156
157
158
159
160
161
162
163
164
165
166
167
168
169
170
171
172
173
174
175
176
177
178
179
180
181
182
183
184
185
186
187
188
189
190
191
192
193
194
195
196
197
198
199
200
201
202
203
204
205
206
207
208
209
210
211
212
213
214
215
216
217
218
219
220
221
222
223
224
225
226
227
228
229
230
231
232
233
234
235
236
237
238
239
240
241
242
243
244
245
246
247
248
249
250
251
252
253
254
255
256
257
258
259
260
261
262
263
264
265
266
267
268
269
270
271
272
273
274
275
276
277
278
279
280
281
282
283
284
285
286
287
288
289
290
291
292
293
294
295
296
297
298
299
300
301
302
303
304
305
306
307
308
309
310
311
312
313
314
315
316
317
318
319
320
321
322
323
324
325
326
327
328
329
330
331
332
333
334
335
336
337
338
339
340
341
342
343
344
345
346
347
348
349
350
351
352
353
354
355
356
357
358
359
360
361
362
363
364
365
366
367
368
369
370
371
372
373
374
375
376
377
378
379
380
381
382
383
384
385
386
387
388
389
390
391
392
393
394
395
396
397
398
399
400
401
402
403
404
405
406
407
408
409
410
411
412
413
414
415
416
417
418
419
420
421
422
423
424
425
426
427
428
429
430
431
432
433
434
435
436
437
438
439
440
441
442
443
444
445
446
447
448
449
450
451
452
453
454
455
456
457
458
459
460
461
462
463
464
465
466
467
468
469
470
471
472
473
474
475
476
477
478
479
480
481
482
483
484
485
486
487
488
489
490
491
492
493
494
495
496
497
498
499
500
501
502
503
504
505
506
507
508
509
510
511
512
513
514
515
516
517
518
519
520
521
522
523
524
525
526
527
528
529
530
531
532
533
534
535
536
537
538
539
540
541
542
543
544
545
546
547
548
549
550
551
552
553
554
555
556
557
558
559
560
561
562
563
564
565
566
567
568
569
570
571
572
573
574
575
576
577
578
579
580
581
582
583
584
585
586
587
588
589
590
591
592
593
594
595
596
597
598
599
600
601
602
603
604
605
606
607
608
609
610
611
612
613
614
615
616
617
618
619
620
621
622
623
624
625
626
627
628
629
630
631
632
633
634
635
636
637
638
639
640
641
642
643
644
645
646
647
648
649
650
651
652
653
654
655
656
657
658
659
660
661
662
663
664
665
666
667
668
669
670
671
672
673
674
675
676
677
678
679
680
681
682
683
684
685
686
687
688
689
690
691
692
693
694
695
696
697
698
699
700
701
702
703
704
705
706
707
708
709
710
711
712
713
714
715
716
717
718
719
720
721
722
723
724
725
726
727
728
729
730
731
732
733
734
735
736
737
738
739
740
741
742
743
744
745
746
747
748
749
750
751
752
753
754
755
756
757
758
759
760
761
762
763
764
765
766
767
768
769
770
771
772
773
774
775
776
777
778
779
780
781
782
783
784
785
786
787
788
789
790
791
792
793
794
795
796
797
798
799
800
801
802
803
804
805
806
807
808
809
810
811
812
813
814
815
816
817
818
819
820
821
822
823
824
825
826
827
828
829
830
831
832
833
834
835
836
837
838
839
840
841
842
843
844
845
846
847
848
849
850
851
852
853
854
855
856
857
858
859
860
861
862
863
864
865
866
867
868
869
870
871
872
873
874
875
876
877
878
879
880
881
882
883
884
885
886
887
888
889
890
891
892
893
894
895
896
897
898
899
900
901
902
903
904
905
906
907
908
909
910
911
912
913
914
915
916
917
918
919
920
921
922
923
924
925
926
927
928
929
930
931
932
933
934
935
936
937
938
939
940
941
942
943
944
945
946
947
948
949
950
951
952
953
954
955
956
957
958
959
960
961
962
963
964
965
966
967
968
969
970
971
972
973
974
975
976
977
978
979
\documentclass[bachelor]{thesis-uestc}
\title{基于语法树的文档级关系预测算法设计与验证}{Design and Verification of Document-level Relation Extraction Algorithm Based on Syntax Tree}
\author{朱旭东}{Xudong Zhu}
\advisor{康昭\chinesespace 副教授}{Dr. Zhao Kang}
\school{计算机科学与工程学院(网络空间安全学院)}{School of Computer Science and Engineering}
\major{计算机科学与技术}{Computer Science and Technology}
\studentnumber{2020080902004}
\usepackage{graphicx} % for graph
\usepackage{verbatim} % multi-line comment
\usepackage{tikz-dependency} % for dependency graph
\begin{document}
\makecover
\begin{chineseabstract}
文档级关系抽取旨在识别单个文档中实体对之间的关系。
它需要处理多个句子并对这些句子进行推理。
最先进的文档级关系抽取使用图形结构来连接文档中的实体,来捕获文档中的实体对的交互。
但是这些方法没有充分利用在句子级关系抽取中被充分研究的语法信息。
在本文中我们将语法树融合到文档级关系抽取中,重点研究了使用依赖语法树,依存语法树进行文档级关系抽取的算法,以及调整依赖语法树和依存语法树在文档级关系抽取中权重的问题。
我们利用依存语法树来聚合整个句子信息,并为目标实体对选择有指导意义的句子。
同时我们利用依赖语法树对整个文档进行细粒度的分析,并选择其中重要的单词增强目标实体对的信息。
文档级关系抽取将同时利用依赖语法树和依存语法树进行预测。
通过在不同领域的数据集上的实验结果证明了该方法的有效性。
\chinesekeyword{文档级关系抽取,依赖语法树,依存语法树,信息抽取}
\end{chineseabstract}
\begin{englishabstract}
Document-level Relation Extraction (DocRE) aims to identify relation labels between entity pairs within a single document.
It requires handling several sentences and reasoning over them.
State-of-the-art DocRE methods use a graph structure to connect entities across the document to capture interaction between entity pairs in the document.
However, this is insufficient to fully exploit the rich syntax information in the document, which is widely used in sentence-level Relation Extraction(RE).
In this thesis, we focus on integrating syntax trees into DocRE as the main research topic, and investigate the effective and effient implementation of DocRE algorithms using dependency syntax tree and constituency syntax tree, as well as how to adjust the weight of dependency syntax tree and constituency syntax tree in the extraction.
It uses constituency syntax to aggregate the whole sentence information and select the instructive sentences for the pairs of targets.
Meanwhile, it exploits the dependency syntax in a graph structure with constituency syntax enhancement and selects the most important words between entity pairs based on the dependency graph to enhance the information of target entity pairs.
Finally, DocRE will integrate the dependency syntax and constituency syntax to predict.
The experimental results on datasets from various domains demonstrate the effectiveness of the proposed method.
\englishkeyword{Document-level Relation Extraction, Constituency Syntax, Dependency Syntax, Information Extraction}
\end{englishabstract}
\thesistableofcontents
\chapter{绪\hspace{6pt}论}
\section{研究的背景}
\begin{comment}
课题背景,研究现状, 理论依据,实验基础,发展趋势以及本课题的理论意义
\end{comment}
% 两页
% 关系抽取介绍,包括背景和最近从句子级转移到文档级关系抽取
关系提取是信息提取中的一项关键任务,旨在对非结构化文本中实体对之间的关系模式进行建模。
它有两种特定的场景:句子级关系提取和文档级关系提取。
与句子级关系提取\citing{sentenceRE-Dixit, sentenceRE-Lyu} 不同,文档级关系提取涉及识别和提取句子边界以外的实体之间的关系。
由于文档级关系提取涉及更广泛的上下文,因此更具挑战性。
并且,由于文档级关系提取可以从非结构化的大型文档(如科学论文、法律合同或新闻文章)\citing{delaunay2023comprehensive} 中自动构建和填充知识库,以更好地理解实体之间的关系,因此文档级关系提取更好地满足了实际需求,最近受到了越来越多的关注。\par
% 现在关系抽取的主要方法和存在的一些缺陷
文档级关系抽取的目标是识别在同一文档内的实体对之间的关系。
这是一项复杂的任务,因为它需要理解句子的内容并处理多个句子之间的交互。
由于文档级关系抽取涉及多个句子,现在的研究有三个主要障碍\citing{9098945}:
\begin{enumerate}
\item \em{数量更多的潜在关系}: 相比于单个句子,一个文档中包含的实体数量更多。
由于我们需要预测每两个实体之间的关系,因此潜在的待预测关系随着实体的增加呈指数级别增加。
\item \em{处理实体共指}: 一个实体通常在一个句子中只出现一次,而在一个文档中,它可以以多种形式出现多次。例如,在图 \ref{fig_example}中的句子2和句子3中,"He"是"Marcus Miller"的共同指称。
\item \em{处理长距离关系}: 在文档级关系抽取中,我们通常需要预测跨句子之间的关系,这可能会导致实体对之间距离过长。
然而,长句中通常包含不相关甚至有噪声的信息。Huang等人\citing{huang-etal-2021-three} 通过在众多数据集的实验中指出,在大多数情况下,最多只需要三个句子作为识别关系的支持证据。此外,这项工作指出,句子之间的重要性差异很大。不包含任何有价值的信息或关系的句子实际上阻碍了文档的理解。这也是我们这篇论文要解决的主要工作。
\end{enumerate}
\begin{figure}[h]
\centering
\includegraphics[width=0.8\textwidth]{misc/fig_example.pdf}
\caption{文档级关系抽取的一个例子。图片上方是文档内容,文档中实体用不同的颜色标注,下方是文档级关系抽取的结果}
\label{fig_example}
\end{figure}
图 \ref{fig_example}是一个例子,它包括来自同一文档中的句子级关系和文档级关系。
为了推断"Marcus Miller"和"Herbie Hancock"之间的关系,模型应该能够排除不相关实体的影响,并找出句子3中的"he"一词指的是"Marcus Miller"。
然而,由于现有的文档级关系提取模型\citing{bai-etal-2021-syntax} 经常会被大量不相关的信息所淹没,从而导致错误的预测,无法捕捉到类似的关键信息。 \par
由于以上这些原因,本文提出了新的一种文档级关系提取方法,通过融合语法信息作为辅助,来改进文档级关系提取。\par
\section{研究的主要贡献与创新}
% 语法方法是如何帮助文档级关系抽取的,我们的方法大体是怎么做的
本文主要处理文档级关系提取的长距离关系。
由于长句中通常包含无关甚至嘈杂的信息\citing{gupta2019neural},因此对于文档级关系提取来说,隐含地学习指导性上下文是不够的\citing{bai-etal-2021-syntax}。
最近的一些文章通过预训练模型和注意力机制来学习文档中复杂的交互\citing{huang-etal-2021-three, y2020-coreferential, zhou2021document}, 他们通过创建更复杂、更强大的变体transformer并利用注意力机制来隐含的捕获实体之间复杂的互动。
但是,更多的方法通过显式捕获实体互动信息来改善文档级关系抽取。他们首先构建由不同节点组成的文档图 (例如实体的提及节点,实体节点,句子节点或者文档节点)\citing{GAIN, liu2023document},将指导性上下文转化为图形结构。
由于语法信息可以通过提供显式语法细化和子内容建模来帮助文档级关系抽取\citing{duan-etal-2022-just},最近的研究\citing{sahu2019inter, SagDRE} 采用依赖图来合并语法信息和结构上下文。
他们发现一个精心设计的图形可以帮助模型更好的捕获实体互动信息,缩短实体之间的距离。
然而,正如 \cite{bai-etal-2021-syntax}所指出的,尽管预训练模型是用大量真实世界的文本数据进行训练的,但隐式学习的语法与黄金语法之间仍然存在很大差距。
事实上,语法信息在句子级关系抽取中得到了广泛的应用\citing{xu-etal-2016-improved, qin-etal-2021-relation},但在文档级关系抽取场景下尚未得到充分的探索。\par
为了充分利用文档中的语法信息,本文融合了依存语法和依赖语法。
我们主要采用依赖语法图和依存语法树来合并额外的语法信息,并使用依存语法树中的信息来进一步增强依赖图的表示。
依赖语法描述了一个句子中单词之间的依赖关系,这些依赖关系对原始纯文本有很强的补充作用。
而依存语法可以分层合理地组织单个句子的不同单词,消除了枚举不同单词组合的过程,同时保持了分层语法信息。
在树形深度学习模块 \cite{duan-etal-2022-just} 的帮助下,我们可以收集具有适当权重的所有子内容,以解决句间依赖关系并融合依赖语法产生最终关系预测。\par
% 总结,我们的贡献
通过对三个公共文档级关系抽取数据集 (DocRED\citing{DOCRED}、CDR\citing{li2016biocreative} 和GDA\citing{GDA} )的实验,我们证明我们的算法在很大程度上优于现有方法。
我们在这篇文章中的主要贡献可以总结如下:
\begin{enumerate}
\item 我们建议利用依存语法树来聚合句子级信息,以弥补依赖语法树中的差距,并通过添加文档节点来改进依赖图,以缩短实体对的距离,简化长句交互。
\item 我们分别用树形长短期记忆模型和图卷积神经网络处理转化后的依赖语法和依存语法,并设置一个可学习的参数来调整它们的权重。
\item 实验结果表明,我们的模型在三个公共文档级关系抽取数据集上的测试优于现有方法,特别是在DocRED数据集上,我们的模型将最先进方法的IgnF1分数提高了至少1.56\%
\end{enumerate}
\section{研究的结构安排}
本研究的后续组织方式: 第二章主要介绍文档级关系抽取的研究现状,在这一章中,我们对过往的研究结果进行总结。第三章介绍我们的研究工作,包括我们依赖语法和依存语法的使用方式,以及如何调节这两种语法的权重。第四章报告了我们研究的实验结果,包括在三个公共文档级关系抽取数据集上的不同指标的分数,与过往研究的分数对比以及分析;同时包括了对我们方法的每个模块的分析。
\begin{comment}
课题的方案论证,包括课题的主要任务,功能要求,性能指标等
课题的工作
A. 理论课题
(a) 理论基础和原理
(b) 理论分析、推导、数学模型
(c) 模型仿真(含数据、曲线等)
also: 图表的标注先写在图表的上方,明天再次询问这个问题
\end{comment}
\chapter{关系抽取研究}
在这一部分,我们首先对关系抽取进行定义。
然后我们介绍对文档级关系方法的回顾。
\section{关系抽取的定义}
% 一页
在这篇文章中,我们遵循Zhang等人提出的定义\citing{zhang-etal-2020-document}。
对于每个预测任务,我们有文档$D=\{S_i\}_{i=1}^{n_s}$和实体集合$E=\{e_i\}_{i=1}^{n_e}$。
其中$n_s$是文档中句子的数量,$n_e$是实体的数量,在句子级关系抽取中$n_s$被固定为1,但是在文档级关系抽取中没有限制。
文档中的句子被表示为$S_i=\{w_j\}_{j=1}^{n_w^j}$,其中$w_i$是第$i$个句子中的第$j$个单词。
每一个实体被表示为$E_i=\{m_j\}_{j=1}^{n_w^j}$,其中$m_i$是第$i$个实体中的第$j$个提及。
在句子级别设置中,一个实体只由一个提及表示,即$\forall i \in [1, n_e], e_i = m_i$, 但是在在文档级关系抽取中情况并非如此,其中实体可以通过多次提及来表示。
为了获得实体的固定表示,以前的方法首先对所有提及的嵌入进行平均,即 $e_i = \frac{\sum_{j=1}^{n_m^j} m_j}{n_m^i}$,或者对所有提及的嵌入进行最大池化。
然而,现在的方法都使用更加柔和的logsumexp表示,即 $e_i = \log \sum_{j=1}^{n_m^j} \exp(m_j)$,这样可以促进来自弱提及信息的积累\citing{jia-etal-2019-document}。
我们也采用这种方式表示每一个实体。\par
文档级关系抽取的目标是正确推断每个实体对$(e_s,e_o)_{s,o = 1, 2, \dots, n_e; s \neq o}$之间的关系。
其中$e_s$是头实体, $e_o$是尾实体。
预测的关系是预定义的关系集合$R$和$NA$(没有关系)的子集。
\section{文档级关系抽取}
本节介绍了文档级关系抽取的最新进展,并将现有的文档级关系抽取方法大体分为三类:基于序列的,基于注意力机制的和基于图的文档级关系抽取方法,并分析他们的优缺点。
\subsection{基于序列的文档级关系抽取}
执行文档级关系提取的一种方法是将文档视为一个更长的增强的序列,并应用从句子级关系抽取导出的序列模型来识别特定实体之间的关系。
\subsubsection{基于卷积神经网络的文档级关系抽取}
Gu等人\citing{10.1093/database/bax024}通过两个分离的模型来提取关系。
他们首先将最大熵系统用于句子间的预测,卷积神经网络模型用于句子内的预测。
然后,这两个结果被合并以获得文档级别的关系。
此外,他们还定义了一些启发式规则来从摘要中提取关系,例如将论文标题中提到的所有化学物质(或如有必要,将摘要中最频繁的化学物质)与摘要中提及的所有疾病相关联。\par
Li等人\citing{li2018chemical}使用递归分段卷积神经网络进行化关系提取,并结合了领域知识、分段策略、注意力机制和多实例学习。
该方法首先利用分段卷积神经网络来捕获单个实例的表示。
然后,使用递归神经网络来聚合实例的表示,从而能够为实体对形成全面的文档级表示。
\subsubsection{结合卷积神经网络和递归神经网络的文档级关系抽取}
Mandya等人提出了一种长短期记忆和卷积神经网络的组合模型,该模型利用单词嵌入和位置嵌入来提取跨句子的$n$元关系。
长短期记忆模型将结合单词嵌入和位置特征的变换矢量表示作为输入,将输出被馈送到卷积神经网络中。
卷积神经网络被用来提取最重要的特征。
这种方法的优点是独立于复杂的句法特征,如依赖树、共指消解或话语特征,因此被广泛应用到后续的改进模型中。
为了提取基因-疾病相关性,Wu等人\citing{GDA}还在其方法中结合了门控神经单元。
在这里,卷积神经网络首先使用具有不同宽度的不同滤波器从单词表示中计算句子表示,以捕捉不同的特征。
然后,门控神经单元将它们转换为文档表示。
通过消融实验,他们发现,即使单独的卷积神经网络也可能捕捉到文档的一些重要特征,而额外的门控神经单元层可以提高其性能。
这项研究后来被Su等人\citing{renet2} 进行了扩展。
在Wu等人的系统之前引入了部分过滤步骤,来删除不包含任何实体对信息和模糊关系的段落。
\subsubsection{以实体为中心的文档级关系抽取}
在传统的句子级关系抽取中,对提及元组进行分类预测就已经足够了,但是在文档级关系抽取中却不是这样。
因为任何实体都可能有多次提及,应用简单的提及级别分类方法会使模型在大量的提及中淹没,导致预测失败。
为了解决这个问题,Jia等人\citing{jia-etal-2019-document} 提出通过对每个实体元组进行单一关系预测,使用以实体为中心的多尺度预测。它们通过对实体的所有上述表示应用logsumexp来获得实体表示。
\subsubsection{基于序列的文档级关系抽取总结}
这些方法通过将文档视为一个长的增强的序列,将句子级关系抽取的方法自然的映射到文档级关系抽取上。
这些方法的优点是能够处理长文档,并且能够利用跨句子的关系信息。
然而,当待预测实体对涉及到处理长距离并需要多跳推理上下文内容时,这些模型不可避免地会遇到挑战。
\subsection{基于注意力机制的文档级关系抽取}
% 三页
\subsubsection{早期基于注意力机制的文档级关系抽取}
Verga等人\citing{verga-etal-2018-simultaneously} 引入了双仿射关系注意力网络来计算实体之间的关系,它同时预测实体之间的句子内关系和句子间关系。
为了实现这一点,它首先使用transformer层对单词嵌入进行编码,然后它使用双仿射运算产生实体提及对之间的预测。
最后,它使用logsumexp来汇集每个实体提及级别预测,以获得实体级别预测。
该系统可以针对命名实体识别和关系预测进行联合训练,这可以提高对噪声的鲁棒性; 此外,该系统在编码长序列方面相比于以往的方法更有效。\par
为了缓解正负关系之间的数据不平衡问题,Wang等人采用了两步微调过程和预训练模型。前者识别两次提及之间是否存在关系,后者仅使用先前识别的关系事实来训练模型来识别这些实体。\par
为了增强语言表示模型中的共指推理,Ye等人\citing{y2020-coreferential}在各种下游任务上测试了他们的系统,这其中也包括文档级关系抽取。
他们引入了一种称为提及参考预测的新的预训练任务。
该任务利用了文章中的重复提及,并采用提及参考掩蔽来预测相应的参考,而不是依赖于监督的共同参考数据进行微调。此外,他们引入了基于新的训练目标,以鼓励基于上下文的单词选择和上下文敏感的表示,从而促进共指推理。
\subsubsection{分层注意力模型}
为了将推理信息从实体级聚合到句子级,再聚合到文档级,Tang等人\citing{Tang2020HINHI}使用层次推理网络进行预测。
受Bordes等人\citing{NIPS2013_1cecc7a7} 给出的平移约束的启发,该约束对关系三元组$( r, e_s, e_o )$进行了建模。
他们通过将实体提及和关系联合建模,获得了实体级别的表示信息。
然后,他们应用语义匹配方法将实体级推理信息与每个句子向量进行比较,并使用多层双向长短期记忆模型获得句子级信息。
最后,他们重新利用注意力机制来识别关键的句子级推理信息,这有助于以更全面的方式全面表征文档级推理。
虽然这种方法十分有效,但是它的正确性受到广泛质疑,因为在文档级抽取中,两个实体对可以具有多个关系,一个实体可以与多个其他实体具有相同的关系。\par
Kuang等人\citing{app12031599} 认为,实体对之间的关系通常可以通过几个关键词来推断。
为了从中受益,他们使用自注意记忆模块与预训练模型结合,通过寻找具有高交叉注意力实体对的单词嵌入来捕捉关键词特征。
他们的模型非常简单,在领域和通用数据集上都取得了很好的改进,并可应用于其他数据集。
\subsubsection{基于实体表示的注意力模型}\label{subsec:entity-based-attention}
Han和Wang\citing{9098945}利用具有类型信息的文档级实体掩码方法来提供更多关于文档级关系预测中实体的信息。
它在预训练模型的嵌入中引入了实体特征,用上下文信息和实体特定信息丰富了实体的表示。
Han和Wang首先使用预训练模型来获得实体提及的上下文化表示。
然后,它使用一次性关系预测方法一次性处理所有实体对,因此文本只编码一次。\par
采用与Jia等人\citing{jia-etal-2019-document}相同的实体中心主义观点, Yu等人\citing{yu-etal-2022-relation} 还解释了每一次提及之间的重要性,以代表关于特定关系的实体。
他们使用关系特定提及注意力网络(RSMAN)将每个关系的基本语义合并到关系表示中,然后计算候选关系和给定实体对的提及表示之间的注意力。
通过考虑这些事项,该模型通过对所有提及的表示进行加权聚合来获得实体的合成表示。
这使得模型能够在不同的表示空间中捕获来自多个提及的信息,从而为不同的候选关系产生灵活的、特定于关系的实体表示。
作为一种插入式方法,RSMAN可以用作任何关系预测模型的方法中。\par
如前所述,在文档级关系预测中,一个文档包含多个实体对,这些实体对可以在文档中多次出现,并具有多种可能的关系。
为了解决这些问题,Zhou等人\citing{Zhao2022DocumentlevelRE}在预训练模型的基础上使用了两种技术:自适应阈值和本地化文本池(ATLOP)。
自适应阈值通过将多标签分类的全局阈值与可学习的依赖于实体的阈值进行切换来为每个实体对确定最佳阈值。
而本地化文本池直接将注意力从预先训练的语言模型转移到有助于确定关系的相关上下文。
这解决了对所有实体对使用相同实体嵌入的问题。
ATLOP通过与当前实体对相关的额外上下文丰富了实体嵌入,实现了更全面的表示,并为文档级关系抽取带来了巨大的飞跃。
在我们的方法中,我们也采用了它的这两种技术。\par
\subsubsection{基于远程监督标签的注意力模型}
Xiao等人\citing{xiao-etal-2020-denoising} 试图通过三个预训练任务来减少远程监督标签中引起的固有噪声:提及实体匹配,关系检测和关系事实对齐。提及实体匹配任务涉及文档内和文档间的匹配,第一种侧重于在文档内建立共引用连接,而另一种则捕获文档之间的实体关联;关系检测任务主要检测被错误标记为负面的正面关系;关系事实对齐任务确保模型即使以不同的方式表示,仍然为同一实体对生成一致的表示, \par
接着,Tan等人\citing{tan-etal-2022-document} 提出了一种利用远程监督数据的多步骤方法。首先,他们使用注意力模块作为特征提取器,允许关注逻辑路径中的不同元素,并捕捉关系三元组(关系,头实体和尾实体)之间的相互依赖性。其次,为了处理类的不平衡,他们引入了一种关注长尾类的自适应焦点损失,使它们对整体损失的贡献更大。最后,他们利用知识提炼来弥合手动注释数据和远程监督数据之间的差距。它由一个用少量人工注释数据训练的教师模型组成,该模型对大量远程监督数据生成预测,从而为预训练学生模型提供软标签。
\subsubsection{基于结构推理的注意力模型}
Xu等人\citing{Xu_Wang_Lyu_Zhu_Mao_2021} 基于当时文档级关系抽取模型的一个问题,即上下文推理和结构推理的阶段是分开的、因此缺乏对上下文表示的结构指导,从而引入了结构化自注意网络(SSAN),将结构依赖性包含在编码网络内和整个系统中。他们利用自注意机制的一个新扩展 \cite{Vaswani2017AttentionIA},通过考虑两个实体结构,一个用于同一句子中的实体对的共现,另一个用于单个实体的共指,有效地对其构建块内和所有网络层自下而上的提及依赖性进行建模。除了实体提及之间的依赖性,Xu等人\citing{Xu_Wang_Lyu_Zhu_Mao_2021}还使用注意力模块来捕捉实体提及与句内非实体之间的关系。它们包含了一个额外的与注意力模块并行的模块,该模块以上下文化的查询键表示为输入,对结构依赖性进行建模。这种设计使模型能够受益于结构相关性的指导,确保上下文信息和结构信息有效集成。
\subsubsection{基于联合学习的注意力模型}
Ma等人\citing{ma-etal-2023-DREEAM} 解决了学习文档级关系抽取和证据提取的两个问题:高资源消耗和缺乏人工注释数据。他们使用证据引导注意机制进行的文档级关系提取,通过在证据提取上指导ATLOP模型\citing{zhou2021document}来完成证据提取和节省资源消耗。Ma等人使用手动标注的实体对特定的局部上下文嵌入进行计算,并将注意力权重作为证据得分结合在标记上。这种方法允许他们引入来自证据提取的知识,而不引入额外的可训练参数或昂贵的矩阵计算。为了缓解数据的缺乏,他们使用了与Tan等人\citing{tan-etal-2022-document} 类似的知识提取技术, 利用远程监督数据来训练学生模型。
\subsubsection{基于注意力的文档级关系抽取模型小结}
综上所述,基于注意力的文档级关系抽取模型的研究已经取得了长足的进步。
目前,除了早期的一些朴素方法,现有的方法大致可以分为以上五类,这些方法可以将实体嵌入、关系嵌入和上下文信息结合起来,以获得比基于序列的模型更好的文档级关系抽取结果。
这些模型的共同特点是使用注意力机制来捕捉不同实体和关系之间的依赖关系,并将它们融合到统一的表示中。
它们的优点在于能够捕捉到实体和关系之间的复杂关系,并能够在不同的表示空间中捕获来自多个提及的信息。
这些模型的缺点是需要它们要么需要额外的远程监督数据,要么需要设计复杂的分层结构。
而且由于实体之间的距离可能较长,它们中大多数方法没有办法有效的处理长距离交互。
然而,它们中的一些思想和假设十分有效(如第\ref{subsec:entity-based-attention} 节的ALTOP的自适应阈值和本地化文本池等),因此在最近的研究中被广泛采用。
\subsection{基于图的文档级关系抽取}
在这一节中,我们首先在第\ref{subsec:early-graph} 节介绍早期的一些图的文档级关系抽取方法。然后我们将现有的基于图的文档级关系抽取模型分为五类:分别在第\ref{subsec:joined-graph}节中介绍了联合学习的图文档级关系抽取方法,在第\ref{subsec:entity-centric-graph}节中介绍了以实体为中心的图文档级关系抽取方法,在第\ref{subsec:heterogeneous-graph}节中介绍了基于异构图的图文档级关系抽取方法,在第\ref{subsec:layered-graph}节中介绍了基于分层网络的图文档级关系抽取方法,在第\ref{subsec:optimal-graph}节中介绍了基于最优图结构的图文档级关系抽取方法。
\subsubsection{早期的图文档级关系抽取方法}\label{subsec:early-graph}
\begin{figure}[t!]
\footnotesize
\begin{dependency}[theme = simple]
\begin{deptext}[column sep=0.1em]
The \& p56Lck \& inhibitor \& {\bf Dasatinib} \& was \& shown \& to \& enhance \& apoptosis \& induction \& in \& otherwise \& GC-resistant \& CLL \& cells \\
\end{deptext}
\deproot{6}{ROOT}
\depedge{3}{1}{DET}
\depedge{3}{2}{NN}
\depedge{6}{3}{NSUBJPASS}
\depedge{3}{4}{ABBREV}
\depedge{6}{5}{AUXPASS}
\depedge{6}{8}{XCOMP}
\depedge{10}{9}{NN}
\depedge{8}{10}{DOBJ}
\depedge{13}{12}{ADVMOD}
\depedge{15}{13}{AMOD}
\depedge{15}{14}{NN}
\depedge{10}{15}{PREP\_IN}
\node (prepre) [xshift=-6.5em,yshift=-0.5em] {};
\node (nextsent) [xshift=-21em,yshift=-2.5em] {};
\draw[->] (prepre) -- (nextsent) ;
\node (nextsentlab) [xshift=-10em,yshift=-1.5em] {\tiny\textsc{NEXTSENT}};
\begin{deptext}[column sep=-0.2em]
\\
\\
\& \& \& \& \& \& \& \& \& \& \& \& \& \& \& \& \& \& \\
\& \& \& \& \& \& \& \& \& \& \& \& \& \& \& \& \& \& \\
\& \& \& \& \& \& \& \& \& \& \& \& \& \& \& \& \& \& \\
\& \& \& \& \& \& \& \& \& \& \& \& \& \& \& \& \& \& \\
This \& shows \& that \& {\bf Notch } \& -mediated \& resistance \& of \& a \& mouse \& lymphoma \& cell \& line \& could \& be \& overcome \& by \& inhibiting \& p56Lck \& . \\
\end{deptext}
\deproot[edge below]{2}{ROOT}
\depedge[edge below]{2}{1}{DET}
\depedge[edge below]{15}{3}{COMPLM}
\depedge[edge below]{5}{4}{HYPHEN}
\depedge[edge below]{6}{5}{AMOD}
\depedge[edge below]{15}{6}{NSUBJPASS}
\depedge[edge below]{12}{8}{DET}
\depedge[edge below]{12}{9}{NN}
\depedge[edge below]{12}{10}{NN}
\depedge[edge below]{12}{11}{NN}
\depedge[edge below]{6}{12}{PREP\_OF}
\depedge[edge below]{15}{13}{AUX}
\depedge[edge below]{15}{14}{AUXPASS}
\depedge[edge below]{2}{15}{CCOMP}
\depedge[edge below]{15}{17}{AGENT}
\depedge[edge below]{17}{18}{DOBJ}
\end{dependency}
\vspace{-4em}
\caption{Quirk和Poon\citing{quirk-poon-2017-distant}构建的两个句子的示例文档图。边表示传统的句内依赖关系,以及相邻句子的词根之间的连接。为了简单起见,省略了相邻单词之间的边缘或表示话语关系}
\label{fig_quirk-poon}
\end{figure}
Quirk和Poon\citing{quirk-poon-2017-distant} 引入了文档图的概念。它提供了一种统一的方法,通过将单词表示为节点,将一些启发式的关系(例如,依赖关系,邻接关系等)表示为边,来导出对待预测的关系进行分类的特征,图\ref{fig_quirk-poon}是这种文档图的一个示例。
这为文档级关系抽取的所有基于图的方法铺平了道路。
Peng等人\citing{peng-etal-2017-cross} 决定将这种图表示作为其框架的主干,其中包含一种新的图形长短期记忆模型。
在经典的长短期记忆模型体系结构中,每个单元只有一个前置点(因此只有一个遗忘门)。图形长短期记忆模型的情况并非如此,通过从树形长短期记忆模型 \cite{tai-etal-2015-improved} 中获得灵感,它可以具有多个前置点,包括通过不同边与同一单词连接的点,并为每个单元添加与前置点数量一样多的遗忘门。
从输入文本获得的单词嵌入被作为图形长短期记忆模型的输入,该图捕捉每个单词的上下文表示。
然后,实体的上下文表示通过这种图形的连接进行组合,并由关系分类器使用。
在多单词实体的情况下,Peng等人计算其单词表示的平均值来获得实体的嵌入向量,尽管现在大多采用logsumexp操作来获得更好的结果,但这种方法在当时是首创。
至于图形长短期记忆模型的反向传播,他们将文档图拆分为两个有向无环图。
一个有向无环图包含从左到右的线性连接链接相邻的单词以及其他前向指向依赖项(前向传递),而另一个有向无环图则涵盖从右到左的线性连接链接相邻的单词和后向指向依赖性(后向传递) \par
Christopoulou等人\citing{christopoulou-etal-2018-walk} 提出了一种仅用于句子级关系抽取的基于图的随机行走的神经网络,同时处理多对关系,并将句子表示为向无环图,这种方法的详细过程参见图 \ref{fig_christopoulou}。
他们后来在将他们的方法扩展到文档级别,引入部分连接的文档图而不是以前的完全连接的文档,使得文档级关系抽取向前迈出了一大步。
与仅包含实体节点和单个边缘类型的句子级图相比,这种新的文档图由异构类型的节点和边组成,当实体提及可用时,这种方法可以使用多实例学习来进一步提高模型的性能。
节点之间的连接基于预定义的文档级交互,目标是使用图中的其他现有边生成实体到实体的边表示,从而推断实体到实体关系。
在这项任务中,Christopoulou等人\citing{christopoulou-etal-2019-connecting}还发现,文档级信息有助于找到句内关系。
同年年初,同一团队 \cite{sahu2019inter}中提出应用图卷积网络实现消息传递。
在该方法中,利用依赖语法边、相邻句子和单词边、自节点边以及共引用边来构造文档图,以连接句子的依赖树。
Guo等人\citing{guo-etal-2019-attention}还提出通过注意力引导来扩展关系抽取的图卷积网络结构,以有效地关注任务的相关子图,而不修剪一些重要信息。\par
\begin{figure}
\centering
\includegraphics[width=0.8\textwidth]{misc/graph_model.pdf}
\caption{Christopoulou\citing{christopoulou-etal-2018-walk} 等人用于句子级关系抽取的基于图的随机行走的神经网络。该模型对句子进行编码,并将其输入迭代算法,以生成目标实体节点之间的边缘表示。为简洁起见,未显示某些节点连接}
\label{fig_christopoulou}
\end{figure}
根据Quirk和Poon\citing{quirk-poon-2017-distant} 引入的依赖图,Gupta等人\citing{Gupta_Rajaram_Schütze_Runkler_2019} 捕捉了两个实体之间的最短依赖路径,同时考虑了句内和句间关系。它们使用双向循环神经网络来表示在依赖语法树上给定实体对最短依赖路径上的每个单词。
他们提出的方法,基于句子间依赖的神经网络,通过将句子解析树的根节点连接到后续树的根,结合最短依赖路径来处理句子间关系。此外,他们采用了一种增强依赖路径,其中双向循环神经网络对句子间最短依赖路径上每个单词的依赖子树进行建模,然后提取显著的语义特征。
在大多数情况下,增强依赖路径模型比最短依赖路径模型更好,然而,他们没有在DocRE的基准数据集上进行测试。
当将他们的方法与 \cite{peng-etal-2017-cross}进行比较时,他们指出,由于其非循环结构架构,他们的系统更简单、更高效。\par
此外,Minh Tran等人\citing{minh-tran-etal-2020-dots}发现基于图的过往模型只关注图的边缘表示,而忽略了节点的表示。
因此,这些模型错过了实体及其提及中包含的潜在重要线索,并阻止模型利用节点和边缘表示之间的关系,以及利用实体的表示向量之间的相似性找到相同实体的节点。
因此,他们扩展了Christopoulou等人\citing{christopoulou-etal-2019-connecting}的EoG模型。
他们通过合并三个损失来提高模型表现:一个用于节点表示,一个用于结点边缘表示一致性,一个用于实体提及表示一致性。\par
\subsubsection{基于联合学习的图文档级关系抽取}\label{subsec:joined-graph}
Luan等人的工作\citing{luan-etal-2019-general}主要集中在联合学习中执行不同的信息抽取任务。
他们首先提出了一个句子级信息抽取系统,使用动态跨度图同时执行命名实体识别,关系抽取和共指消解。
由于模型可以随着新信息添加到输入文本中而更新,因此它能够传播实体共指和关系类型置信度,这有助于跨度表示的迭代细化。
这与以前的模型形成了对比。
在以前的模型中,任务之间的唯一交互发生在共享的第一层长短期记忆模型中。\par
Wang等人\citing{WANG2021107274}使用一种新颖的文法结构理论来建立有效的语义联想,以及一套证据推理方法来选择合适的证据,以此来训练他们的话语感知神经关系抽取模型。
通过将关系抽取和证据提取进行联合学习,这种方法缓解了关系抽取的缺乏证据和推理能力的问题。\par
在类似的方向上,Xie等人\citing{xie2022eider}提出了一种通过证据提取来增强文档级关系抽取的能力。
在训练步骤中,对模型进行关系抽取和证据提取的联合训练,而在推理过程中,对原始文档和提取证据的预测结果进行组合,这鼓励模型专注于重要句子,同时减少信息损失,强迫模型在句子中进行更多推理,使其能够包含更多关于关系的知识,从而使模型具有更高的性能。
最近的一些工作 \cite{SagDRE, duan-etal-2022-just} 将文档图和证据提取结合到一起,利用语法信息来辅助文档图的构建和证据的提取。但是他们将两者孤立的进行训练,而没有考虑到它们的相互融合。
\par
\subsubsection{以实体为中心的图文档级关系抽取}\label{subsec:entity-centric-graph}
与以实体为中心的注意力模型相似,基于图的文档级关系抽取模型也对实体信息做了扩展。
Zeng等人\citing{GAIN}提出了图聚合和推理网络,该网络结合了由提及级别和实体级图组成的双图设计。
图聚合和推理网络捕捉不同提及之间的复杂互动,并聚合属于同一实体的互动。
这是通过三种类型的边来实现的:一种是执行共指解析的实体内边,一种是对句子中实体之间的交互进行建模的实体间边,以及一种文档边(所有提及节点都连接到文档节点)。
通过建立这些关系,文档节点可以有效地处理所有提及,并促进文档和单个提及之间的交互。
它还解决了长距离依赖的挑战,因为文档节点可以作为图卷积神经网络传递消息的枢纽(见图 \ref{fig_GAIN})。但是这种方法也有一个显著的缺点,那就是它的计算复杂度过高,无法处理大规模数据集。\par
\begin{figure}
\centering
\includegraphics[width=0.8\linewidth]{misc/model.pdf}
\caption{图聚合和推理网络的结构\citing{GAIN}。首先,上下文编码器获得每个单词的上下文化表示。然后,利用提及节点和文档节点构建提及级图。在应用图卷积网络之后,构建了实体级图,其中识别实体之间的路径以进行推理。最后,分类模块利用收集的信息对目标关系进行预测。不同的实体有不同的颜色}
\label{fig_GAIN}
\end{figure}
为了考虑共指信息,Xue等人\citing{y2020-coreferential}提出了基于图推理网络的文档级关系提取(CorefDRE),通过提及代词聚类直接指示模型学习共指信息。
他们使用提取所有提及代词对,并使用预训练模型计算每个提及代词对的可信度,以减少代词带来的噪声。
CorefDRE首先利用提及代词对及其可信度得分,结合代词节点、提及节点和各种类型的边,构建提及代词可信图。
然后,它将图卷积网络应用于提及代词可信图,以捕获提及和代词的有意义的表示,同时也抑制了可能的噪音,将其转化为同构实体图。
最后,模型聚合图中的节点和边表示,获得用于有效分析和理解的综合表示。\par
与Xue等人\citing{y2020-coreferential}类似,Li等人\citing{LI2022109146}介绍了一种基于自监督仿射计算对单词和实体进行聚类的共指图。
这些聚类作为一个节点阵列,能够捕获跨句推理的线索,然后将它们转换为图。
该图将共指图与Zeng等人\citing{GAIN}提出的提及图相结合,使其成为实体图。
这种模型采用了关系图卷积网络和噪声抑制机制 \cite{y2020-coreferential},产生了同构实体图,这使得即使这种方法允许增强长距离关系的建模,两个图的合并仍然不会引入不希望的噪声。\par
\subsubsection{基于异构图的图文档级关系抽取}\label{subsec:heterogeneous-graph}
基于异构图的图文档级关系抽取与基于分层网络的方法有些相似,但是基于异构图的方法更强调使用不同的图形,而不是使用分层网络来辅助文档级关系抽取。
Zhang等人\citing{zhang-etal-2020-document}提出了第一种双层异构图,有效地将这顺序信息和结构信息结合起来,以促进多跳推理和最终预测。
该模型主要由一个结构建模层组成,考虑了对文档固有结构进行全面编码,包括文档中单词的顺序、语法和层次结构。
关系推理层通过在不同实体之间传播关系信息来促进多跳关系推理。\par
然而,这种模型中的大多数构建了所有实体对之间的关系信息,而不知道它们之间是否存在关系。
因此,Xu等人\citing{Xu2020DocumentLevelRE}提出使用重构器来迫使他们的基于异构的图自注意网络更加关注具有标注关系的实体对的学习。
重构器对连接两个实体节点的路径进行嵌入,生成一系列的节点表示,当实体对之间存在标注关系时,最大化路径的概率。这样可以进一步提高模型的性能。 \par
借鉴前人的工作,Wang等人\citing{zhang-etal-2020-document} 提出了一种多层异构图神经网络模型。它构造了一个多层异构图,包括单词级图、提及级图和实体级图。前两个图分别使用面向节点类型和边缘类型的异构图注意力网络进行消息传递。
然后,实体级图采用基于门控的路径推理机制来提取多跳关系。
这种方式和我们介绍的基于分层网络的方法就非常相似了。\par
\subsubsection{基于分层网络的图文档级关系抽取}\label{subsec:layered-graph}
为了区分句内推理和句间推理,Kim等人\citing{app10031181} 在其全局关系提取器中使用了一种分而治之的方法,通过使用两个独立的模型来提取局部和全局关系并构建知识图来完全避免这个问题。
全局关系提取器由一个基于长短期记忆的句子级关系抽取模块和一个负责从局部关系生成知识图的知识图构造器模块组成;两个模型都是交替训练的。\par
Li等人\citing{li-etal-2021-mrn} 采用基于局部和全局提及的推理网络来区分近距离和远距离实体提及的影响。
他们添加了一个新的共同预测器,利用局部和全局实体表示来联合推理近实体和远距离实体之间的关系。
该模型包括一个二维窗口卷积,用于捕捉关系的实体对之间的局部提及的交互。
此外,模型还添加了一个注意力模块,用于捕捉每对实体提及之间的全局交互,这些实体提及彼此交互以提供局部和全局上下文之间的信息。
该模型获得了很高的性能,证明了句内关系和句间关系之间的相互作用对文档级关系抽取的模型的有效性。\par
在类似的思想下,Zeng等人\citing{zeng-etal-2021-sire} 强调了文档级关系抽取中处理句内关系和句间关系的常见做法。
由于二者高度相似,这导致在预测这些不同关系类型时缺乏区分性。
而且并非所有的实体对都可以通过路径连接,一些逻辑推理路径可能无法完全捕获在图中,这导致在许多实体对无法被逻辑推理覆盖。
他们的方法将句内推理和句间推理分开。
对于句内关系,他们使用句子级编码器来表示每一个同时出现的实体。通过聚合所有共现实体的关系表示,它们获得了一个最终表示,该表示鼓励句内实体对在其特定上下文中强调局部模式。
为了捕捉句子间的关系,继他们之前的工作 \cite{GAIN}之后,他们采用了文档级编码器和提及级图,使模型能够捕捉全局和局部上下文。
为了选择性地识别可能的跨句关系的句子,他们使用证据选择器,它鼓励句子间实体对选择性地关注为其跨句关系提供支持证据的句子。\par
\subsubsection{基于最优图结构的图文档级关系抽取}\label{subsec:optimal-graph}
Nan等人\citing{nan-etal-2020-reasoning}发现使用共同引用和规则构建图并不总是导致最优的图结构。
因此,他们建议将图结构视为一个潜在变量,并以端到端的方式对其进行归纳,以增强整个文档中的信息聚合。
他们的潜在结构优化模型由一个节点构造函数和一个动态推理器组成,节点构造函数将节点作为每次提及的上下文表示,动态推理器从迭代优化的节点中生成文档级结构。\par
Huang等人\citing{huang-etal-2021-three}专注于研究在流行数据集中识别关系需要多少句子。
他们发现,在DocRED数据集中,当段落平均由八句话组成时,96.1\%的例子需要不超过三句话作为支持证据,87.7\%的例子甚至只需要两句或更少。
CDR和GDA数据集也进行了类似的计算。
研究人员给出的一种可能的解释是,考虑到人类工作记忆的局限性,关系抽取任务的性质自然局限于有限数量的实体和上下文信息。正如Barreyro等人\citing{barreyro2012working} 所述,工作记忆在推理任务中尤为重要,但其分离信息块的能力通常限制在四句话左右。
因此,在数据中观察到的三句话信息块的共同模式可能是我们用于相互理解的潜意识策略。
利用这些假设,Huang等人设计了三个启发式规则来从每个文档中提取路径,旨在近似支持证据:连续路径(头和尾实体在三个连续的句子中)、多跳路径(头实体和尾实体分别相隔在长距离的句子中,但可以通过与不同句子中的和头实体和尾实体同时出现的枢轴实体进行连接)和默认路径(所有成对的句子,其中一个包含头实体,另一个包含尾实体)。
即使他们的方法看起来过于简单,但当论文发表时,他们通过将其与双向长短其记忆模型相结合,比一些最先进的方法获得了更好的结果\citing{nan-etal-2020-reasoning,GAIN},这表明明确选择最佳路径比完全依赖基于图的模型要好。\par
\subsubsection{基于图的文档级关系抽取总结}\label{subsec:graph-neural-network}
基于图的文档级关系抽取方法有着广泛的应用,他们相比于基于注意力的方法有着明显的优势,因为它们可以将关系推理的结构信息结合到图结构中,从而更好地捕捉长距离关系。
然而,这些方法要么使用启发式的图结构,无法捕获原文中的顺序信息\citing{GAIN, Xu2020DocumentLevelRE};要么分别使用依赖性和依存信息捕捉不同粒度的信息来预测不同的任务\citing{SagDRE, duan-etal-2022-just},但没有将它们结合到一起。
在我们这项研究中,我们通过结合依存和依赖信息,并使用依存树增强依赖图来克服以上缺点。通过引入不同的语法,我们的模型可以融合不同粒度的信息,更好地捕捉长距离关系。
\section{本章小结}
在这一章中,我们深入探讨了围绕文档级关系抽取任务的现有文献的大体方法和他们对应的优缺点。
除了传统的基于序列的方法,我们将基于注意力的方法和基于图的方法各自分为五种。可以观察到,这两类方法有很多相通之处,比如他们都重视实体信息,各自提出一些假设来丰富实体信息;二者都重视文档的结构信息,都利用结构信息来辅助推理。
但是,基于图的方法不仅有更优秀的性能,也有着更好的解释性。通过利用语法信息将文档转化为文档图,我们可以更好的捕捉实体对之间的关系,同时缩短实体对之间的距离,简化它们之间交互的同时也能保存足够多的信息。
因此本研究立足于图形的方法来改进文档级关系抽取任务。
\chapter{基于语法树的文档级关系抽取研究}
为了充分利用文档中的语法信息,本文融合了依存语法和依赖语法来改进文档级关系抽取。
我们主要采用依赖图和依存树来合并额外的语法信息,并使用依存树中的信息来进一步增强依赖图的表示。
依赖语法和依存语法描述了语法信息的互补但不同的方面。图 \ref{fig_syn_a}中的依赖图主要用于整合单个句子内的句法信息,该信息与原始纯文本具有很强的互补性,而图 \ref{fig_syn_b}中的依存树则分层合理地组织单个句子的不同单词。\par
我们算法的总体架构如图 \ref{fig_overview}所示。
我们利用依赖语法和依存语法来构建依赖图和依存树,并利用预训练模型对文档中的单词进行编码。
然后,我们使用树形长短期记忆模型来聚合来自依存树的信息,并通过图神经网络利用依赖图的信息,同时利用依存树来改进依赖图。
我们通过可学习权重来调节依赖图和依存树的关系,以更好的利用这两种语法信息。
\section{单词嵌入}
\begin{figure}[t]
\centering{\includegraphics[height=0.5\linewidth]{misc/overview.pdf}}
\caption{整体算法的概述。我们使用依存语法的结果来增强依赖图,并通过动态加权融合获得实体对之间的关系}
\label{fig_overview}
\end{figure}
给定一份文档$D$,我们在每次实体提及之前和之后都会首先插入一个特殊的标记“$*$”\citing{zhang-etal-2017-position}。然后,我们将来自文档$D$的单词馈送到预训练模型中,以获得上下文化表示 $\mathcal{H}=\{h_1, \dots, h_T\} \in \mathcal{R}^{T \times d}$,其中$d$是训练模型嵌入后token的数量,$d$是token嵌入的维度:
\begin{equation}
\mathcal{H} = PLM \{x_{1,1},\cdots, x_{I,P_I}\}
\label{PLM}
\end{equation}
$x_{i, j}$是文档中$i^{th}$句子的$j^{th}$单词,PLM可以是预训练的BERT模型\citing{BERT}或长短期记忆模型。
\section{基于依存语法树的文档级关系抽取}
\begin{figure}[t]
\includegraphics[width=0.5\textwidth]{misc/constituency.png}
\caption{依存树将句子组织成树结构,不仅可以引入额外的层次语法信息,还可以在任意粒度上探索子内容。非叶节点颜色为绿色}
\label{fig_syn_b}
\end{figure}
在通过预训练模型获得单词级嵌入之后,我们的模型利用依存语法树来获得分层语法信息,来补偿过往模型预训练的依赖语法树中的不精确性。
具体来说,我们利用基于文档$\mathcal{D}$的依存树,并使用树形长短期记忆模型 \cite{miwa-bansal-2016-end, duan-etal-2022-just}来合并每一个句子的依存树根节点的信息。
首先,我们将每个句子解析为相应的依存树 \footnote{依存语法树和依赖语法树通过Stanza库获得,这是目前最流行的依存语法树和依赖语法树库之一 \href{https://stanfordnlp.github.io/stanza/} { https://stanfordnlp.github.io/stanza/}}。
我们可以从图 \ref{fig_syn_b}中看到,每个依存树都描述了一种分层表示整个句子的语法结构方法。使用依存树,我们不仅可以包含额外的层次语法信息,还可以对具有任意粒度的句子进行编码。\par
为了用树形长短期记忆模型表示依存树,我们首先用零来初始化隐藏状态$h_j$和存储单元状态$c_j$。叶节点的输入向量用它们在预训练语言模型内的相应表示进行初始化,而非叶节点被设置为零。
然后,我们使用树形长短期记忆模型 \cite{miwa-bansal-2016-end}将叶节点的特征一直传播到句子的根节点。依存树中任意节点$j$的输入门$i_j$、输出门$o_j$和遗忘门$f_{jk}$计算如下:
\begin{equation}
i_j = \sigma(W_ix_j +\sum_{l \in Child(j)}h_{l}W_{il}+b_i)
\end{equation}
\begin{equation}
o_j = \sigma(W_ox_j +\sum_{l \in Child(j)}h_{l}W_{ol}+b_o)
\end{equation}
\begin{equation}
f_{jk} = \sigma(W_fx_j +\sum_{l \in Child(k)}h_{jl}W_{kl}+b_f)
\end{equation}
其中$\sigma$是sigmoid函数,$W, b$是可训练的参数。
$x_j$表示节点$j$的输入向量,$Child(j)$表示依存树中节点$j$的子节点。\par
每个节点的综合结果$u_j$计算如下:
\begin{equation}
u_j = \tanh(W_ux_j +\sum_{l \in Child(j)}h_{l}W_{ul}+b_u)
\end{equation}
\par
最后,我们更新隐藏状态$h_j$和存储单元状态$c_j$,
\begin{equation}
c_j = i_j \odot u_j + \sum_{l \in Child(j)} f_{jl} \odot c_l
\end{equation}
\begin{equation}
h_j = o_j \odot \tanh(c_j)
\end{equation}
\par
在实践中,我们递归地更新每个节点的隐藏状态和存储单元状态。我们使用句子的根的特征向量作为整个句子的特征向量。
对于具有$I$个句子的文档,我们可以获得所有的句子向量$\{s_I\}_{I=1}^{I}$。
由于并非所有的句子都包含用于关系推理的相关信息,我们在句子向量上使用多头注意力层来识别最相关的句子。
我们将此过程表述为:
\begin{equation}
V_{doc} = [s_1, s_2, \dots, s_I]
\end{equation}
\begin{equation}
S,\ A = Attn(W_{t1}(e_s-e_o), W_{t2} V_{doc}, W_{t3} V_{doc})
\label{Attn}
\end{equation}
其中$W_{t1}、W_{t2}$和$W_{t3}$是可训练的权重,$Attn$表示注意力层,$A$是注意力得分,$S$是通过注意力层的句子向量。
然后,我们将加权句子与实体对相结合,计算关系$r$的得分$z_{const}$:
\begin{equation}
z_s = tanh(W_{(s1)}e_s+W_{(s2)}S)
\end{equation}
\\
\begin{equation}
z_o = tanh(W_{(o1)}e_o+W_{(o2)}S)
\end{equation}
\\
\begin{equation}
z_{const} = z_s^\top W_{s, o}z_o+b_{const}
\end{equation}
其中$W、b$是可训练的参数。
在这里,我们获得了基于关注度得分$a$和句子向量$S$的依存树的关系得分$z_{const}$,以增强依赖图。\par
\section{基于依赖语法树的文档级关系抽取}
在获得上述表示后,我们构建了一个依赖语法图来聚合语法关联词的信息。
文档中的每个句子都被输入到依赖语法分析器中,该分析器生成依赖语法树,我们同样利用Stanza库来完成这一语法分析器的识别。
然后我们将依赖语法树转换为依赖语法图。
在这一部分,我们添加了一个文档节点,以缩短实体对之间的距离,更好地聚合长距离句子的信息。\par
我们的依赖语法图包含四种节点:非根单词节点、根单词节点,实体提及节点和文档节点。具体地,文档中的每个单词对应于单词节点,并且对于不是依赖语法树中的句子根的单词,其编码特征对应于其节点特征。
对于句子词根,我们特别利用公式 \ref{Attn}中获得的词根特征$S$来对抗可能的错误解析。
我们使用多层感知器(MLP)将在公式 \ref{Attn}中原始特征与方程中的$S$融合,这是因为依赖语法图中的句子根应该包括整个句子的信息。
对于实体提及的节点,通过对该实体提及中的单词的特征进行平均来计算节点特征。
文档节点在这里作为包括每个句子词根的信息并强调有利句子的节点,被计算为每个句子向量的加权平均值,权重是公式 \ref{Attn}中实体对的注意力得分。\par
\begin{figure}[t]
\includegraphics[width=0.5\textwidth]{misc/dependency.png}
\caption{依赖语法树描述单个句子中单词之间的依赖语法关系。利用这样的语法信息可以显著地补充原始的纯文本,并捕捉相邻单词之间的关系。我们的模型将依赖语法树转换为依赖语法图}
\label{fig_syn_a}
\end{figure}
依赖语法图中有四种类型的边。
其中三种边是双向边,一个是单向边。
第一种边是双向依赖边,这种边在语法树中的每对连接的单词之间,我们在这对单词之间添加双向依赖性语法边。
然后,第二种边是相邻句子之间的边。
由于相邻句子之间存在密切的上下文关系,我们在相邻句子的依赖语法树根节点之间添加双向边。
第三种边存在与句子根节点和文档节点之间。
由于文档中的每个句子都服务于该文档的同一主题,因此在依赖语法树根节点和文档节点之间添加了双向边。
最后一种边缘是单向的,存在于不相邻的句子根节点之间,用于捕获长距离信息和嵌入序列信息。\par
双向边的权重为1,以表示它们的强连接。
而非相邻句子根节点$i$到$j$的权重$ADJ_{i, j}$由它们的特征向量相似度计算出来:
\begin{equation}
\label{edge weight}
ADJ_{i,j} = \frac{S_i \cdot S_j}{||S_i|| \cdot ||S_j||}
\end{equation}
其中$S_i$和$S_j$是公式 \ref{Attn}中的句子向量$i$和$j$。
使用这些学习到的权重,我们的模型可以自动获得从文档前面句子的根节点到文档后面句子的根节点的逻辑连接,并融合依赖性和依存语法之间的信息,从而以不同的角度聚合信息。
\par
在获得依赖图的相邻矩阵$ADJ$后,我们使用卷积图神经网络来进行特征聚合和实体增强。
\begin{equation}
q^{l+1} = GCN(q^{l}, ADJ)
\end{equation}
其中$q^l$是层$l$的输入特征,$q^{l+1}$是输出特征。\par
然后通过基于logsumexp\citing{jia-etal-2019-document}合并该实体的所有提及的嵌入来获得实体表示$entity_i$:
\begin{equation}
\label{logsumexp}
entity_i = log \sum_{j} exp(m_{i,j})
\end{equation}
其中$m_{i, j}$是$j^{th}$提及$entity_i$的嵌入。\par
除了特定实体的嵌入之外,我们还提取了两个目标实体之间的最短路径\ $path_{s, o}$,以补充依赖图上的实体对$(e_s,e_o)$。
\begin{equation}
path_{s,o} = [ e_s, node_1, node_2, \cdots, node_n, e_o ]
\end{equation}
为了提高效率,我们将所选路径的最大长度限制为14,这意味着除了头部和尾部实体之外,最多将选择12个路径节点。
任何长于12的路径都将选择前12个节点,而小于12的路径将用零张量填充。此外,我们还使用多层感知器来探索实体对之间的关系。
\begin{equation}
pair_{s,o} = LeakyRelu(W_{p1}e_s + W_{p2}e_o)
\end{equation}
\par
通过以上步骤,可以获得通过依赖语法补全的实体表示和上下文表示。按照过往的方法 \cite{mou-etal-2016-natural},我们将它们全部连接起来,以增强这个实体对的特征:
\begin{equation}
I_{s,o} = [e_s;e_o;pair_{s,o};path_{s,o}]
\end{equation}
我们基于依赖图计算关系得分$z_{dep}$:
\begin{equation}
z_{dep} = W_{(d2)} \sigma (W_{(d1)}I_{s,o} + b_{(d1)}) + b_{(d2)}
\end{equation}
其中$W, b$是可训练的参数。\par
\section{融合两种不同语法树结果的文档级关系抽取}
大多数现有的关系提取模型输出$P(R_i|e_s, e_o, D)$的概率作为实体对$(e_s, e_o)$对于关系$R_i$的预测值, 这需要预先确定的全局阈值来将概率转换为关系标签。
一些方法使用启发式阈值或学习在验证集上具有最高F1分数的全局阈值。
然而,全局阈值可能不是对所有情况都是最优的,并且会引入误差。
为了解决这个问题,Zhou等人\citing{Zhao2022DocumentlevelRE}引入了一个额外的阈值类来区分正类和负类。
然而,这种基于概率分布的方法可能会因为关系标签的长尾分布受到影响,其中大多数标签仅与少量训练示例相关联。
即使预测是正确的(高于阈值),基于概率分布的损失(如交叉熵损失)仍可能引起大的损失。
这是因为具有更多训练示例的主导类将对整个模型产生更强的影响,从而导致过度拟合主导类。\par
Hinge损失\citing{Gentile1998LinearHL} 的许多变体已被提出,以克服各个领域中多类学习任务的长尾问题。
Hinge损失会训练一个最大裕度分类器,而不是对概率分布进行建模。
\par
为了使得Hinge损失能够应用于我们的多标签分类任务,我们跟随 \cite{SagDRE} 的思路,通过定义一种全新的标签来解决这个问题。
给定一对实体$(e_s, e_o)$, 我们首先将它们的关系标签划分为正类$P$和负类$N$。
正类$P$包含存在于两个实体之间的关系。
当这两个实体之间没有关系时,正类集合$P$可以是空的。
负类集合$N$包含两个实体之间不存在的关系。在这里一组新标签被定义为
\begin{equation}
t_i = \left\{
\begin{aligned}
1 & , & R_i \in P \\
-1 & , & R_i \in N
\end{aligned}
\right.
\end{equation}\par
在获得这个标签之后,我们将依赖语法图和依存语法树获得的两个分数组合为它们的动态加权和\citing{kendall2018multi},权重$\eta$是可以自动调节获得的。
\begin{equation}
\label{eta}
z_{final} = z_{dep} + \eta z_{const}
\end{equation}
\par
然后,我们将获得的新标签应用于损失函数中\citing{SagDRE}。
\begin{equation}
\label{loss}
\mathcal{L} = \sum_{1 \le i \le C} max(0, \alpha-t_i(z^i_{final} - z^s_{final}))
\end{equation}
其中$\alpha>0$是损失函数的超参数,来控制模型的过渡拟合,$C$是类的数量。$z^i_{final}, z^s_{final}$ 分别是$non\mathcal{NA}, \mathcal{NA}$类的预测结果。
在这种情况下,该模型旨在做出“足够好”的预测,而不是“完美”的预测。因此,该模型避免了过度拟合任何类,尤其是对占主导地位的类。\par
\section{本章小结}
在这一部分,我们介绍了我们是如何融合依赖语法和依存语法来改进文档级关系抽取。
我们观察到,依赖语法更适合构建实体对之间的路径,而依存语法更适合聚合句子级信息。
因此,我们遵循先前的研究,将依赖语法树转换为依赖语法图,并提取实体对之间的路径。
然而,由于预训练模型中学习的语法与依赖树的黄金语法之间的差距严重影响了文档级关系抽取的性能,我们建议利用依存树来聚合句子级别的信息,以弥补依赖树中的差距。
具体来说,我们使用单层感知器来将依存树中的句子根信息插入到依赖语法图中,以替换依赖语法图中的原始句子根。
此外,为了更好地考虑依赖图中的句子交互,我们添加了一个文档级节点并链接每个句子根,以减少实体对的距离,更好地捕捉远距离关系。
\chapter{基于语法树的文档级关系抽取实验结果}
为了全面的评估我们的模型,我们在来自不同领域的三个文档级数据集上评估了我们的算法模型。
我们在第 \ref{sec:dataset}节介绍了这些数据集,在第\ref{sec:implementation}中介绍了我们的实现细节,在第 \ref{sec:docred}和 \ref{sec:medical}节说明了我们的结果。
然后,我们在第 \ref{sec:weight}节分析了两种不同的语法树权重,并在第 \ref{sec:inter}节进行了消融实验,在第\ref{sec:distance}节分析了依赖语法树路径距离。
最后,我们在第 \ref{sec:case}节进行了案例研究,并总结了我们的研究结果。
\section{文档级关系抽取抽取数据集说明}\label{sec:dataset}
\begin{table}[h]
\caption{三个公共数据集的统计数据}\label{table_datasets}
\begin{tabular}{cccc}
\hline
统计数据 & DocRED & CDR & GDA \\ \hline
\# 训练集 & 3053 & 500 & 23353 \\
\# 验证集 & 1000 & 500 & 5839 \\
\# 测试集 & 1000 & 500 & 1000 \\
\# 关系数量 & 96 & 2 & 2 \\
\# 平均每篇文章的句子数量 & 8.0 & 9.7 & 10.2 \\ \hline
\end{tabular}
\end{table}
尽管文档级关系抽取方法可能因为要提取的关系类型(基因-疾病关系,一般类型的关系等)而有所不同,但大多数关系抽取方法都是在通用数据集和医学数据集上进行评估的。
因此我们选择了一个通用数据集和两个医学数据集来评估我们的模型,表 \ref{table_datasets}列出了这些数据集的统计数据。
\begin{itemize}
\item \textbf{DocRED}\citing{DOCRED} 是一个从维基百科中人为标注的大型数据集。
它包含从维基百科中采样的5053个黄金注释文档,132275个实体、56354个关系事实和96个关系类,每篇平均长度为196.7个单词,并且超过40.7\%的关系对是跨句关系事实。
实体部分包括经典的实体标签,如PERSON、ORGANIZATION和LOCATION;而实体关系部分使用了96种关系类型,涵盖了广泛的科目, 包括科学(33.3\%)、艺术(11.5\%)、时间(8.3\%)、个人生活(4.2\%)等。
\item \textbf{CDR}\citing{li2016biocreative} 是一个生物医学的文档级关系抽取数据集,由1500篇PubMed的摘要组成。
这些摘要被随机分为三个相等的部分进行训练、验证和测试。
这个数据集的预测任务是预测化学品和疾病之间的二元关系。
\item \textbf{GDA}\citing{GDA}
也是一个生物医学的文档级关系抽取数据集,包含30192篇摘要。
这个大型数据集是通过对公开数据库收集的基因-疾病关联中的30192篇摘要(测试集为1000篇,其余按80:20的比例在训练集和验证集之间划分)进行远程监督构建的。
这个数据集的预测任务是预测基因和疾病之间的二元关系。
\end{itemize}
\section{算法实现细节说明}\label{sec:implementation}
我们的模型是在Pytorch\citing{paszke2019pytorch}上实现的,并使用stanza\citing{qi2020stanza}来提取依存和依赖语法。
对于所有实验,我们的学习率设置为5e-5,权重衰减为1e-4。
依赖关系图的卷积图神经网络的层数被设置为3,并且输出维度为128。
依存树中每个节点的隐藏状态和单元状态共享256的维度。
整个模型由AdamW优化。
\section{DocRED数据集实验结果说明与分析}\label{sec:docred}
我们将我们的模型与DocRED数据集中基于图的方法和基于注意力的方法进行了比较。对于基于注意力的方法,我们将所提出的方法与BERT\citing{DOCRED}、ATLOP\citing{zhou2021document}、EIDER\citing{xie2022eider}和自训练方法DREEAM\citing{ma-etal-2023-DREEAM}进行了比较。
基于图的模型包括LSR\citing{nan-etal-2020-reasoning}、HeterGSAN\citing{zhang-etal-2020-document}、DRE\citing{xu-etal-2021-discriminative}、CorefDRE\citing{xue2022corefdre}、GAIN\citing{GAIN}、SagDRE\citing{SagDRE}和LARSON\citing{duan-etal-2022-just}。
我们在$\mathrm{BERT}_{base}$和$\mathrm{DeBERTa}_{Large}$上训练我们的模型。我们不仅报告了F1和Ign-F1分数(不包括训练集和测试集共享的关系示例的F1分数),还报告了Intra-F1(仅考虑句内关系的F1分数)和Inter-F1(仅考虑句子间关系的F1分数)。\par
\begin{table}
\caption{在DocRED数据集的验证集和测试集上关系预测的结果}
\begin{tabular}{@{}llllcccccc@{}}
\toprule
\multicolumn{4}{c}{\multirow{2}{*}{\textbf{Model}}} & \multicolumn{4}{c}{\textbf{dev}} & \multicolumn{2}{c}{\textbf{test}} \\ \cmidrule(l){5-10}
\multicolumn{4}{c}{} & \textbf{IgnF1} & \textbf{F1} & \textbf{Intra F1} & \textbf{Inter F1} & \textbf{IgnF1} & \textbf{F1} \\ \midrule
\multicolumn{4}{l}{$\mathrm{BERT}_{base}$\citing{DOCRED}} & - & 54.16 & 61.61 & 47.15 & - & 53.20 \\
\multicolumn{4}{l}{$\mathrm{LSR-BERT}_{base}$\citing{nan-etal-2020-reasoning}} & 52.43 & 59.00 & 65.26 & 52.05 & 56.97 & 59.05 \\
\multicolumn{4}{l}{$\mathrm{GAIN-BERT}_{base}$\citing{GAIN}} & 59.14 & 61.22 & 67.10 & 53.90 & 59.00 & 61.24 \\
\multicolumn{4}{l}{$\mathrm{HeterGSAN-BERT}_{base}$\citing{Xu2020DocumentLevelRE}} & 58.13 & 60.18 & - & - & 57.12 & 59.45 \\
\multicolumn{4}{l}{$\mathrm{DRN-BERT}_{base}$\citing{xu-etal-2021-discriminative}} & 59.33 & 61.09 & - & - & 59.15 & 61.37 \\
\multicolumn{4}{l}{$\mathrm{ATLOP-BERT}_{base}$\citing{zhou2021document}} & 59.22 & 61.09 & - & - & 59.31 & 61.30 \\
\multicolumn{4}{l}{$\mathrm{CorefDRE-BERT}_{base}$\citing{xue2022corefdre}} & 60.85 & 63.06 & - & - & 60.78 & 60.82 \\
\multicolumn{4}{l}{$\mathrm{EIDER-BERT}_{base}$\citing{xie2022eider}} & 60.51 & 62.48 & 68.47 & 55.21 & 60.42 & 62.47 \\
\multicolumn{4}{l}{$\mathrm{SagDRE-BERT}_{base}$\citing{SagDRE}} & 60.32 & 62.06 & - & - & 60.11 & 62.32 \\
\multicolumn{4}{l}{$\mathrm{LARSON-BERT}_{base}$\citing{duan-etal-2022-just}} & 61.05 & 63.01 & 68.63 & 55.75 & 60.71 & 62.83 \\
\multicolumn{4}{l}{$\mathrm{DREEAM-BERT}_{base}$\citing{ma-etal-2023-DREEAM}} & 60.51 & 62.55 & - & - & 60.03 & 62.49 \\
\multicolumn{4}{l}{$\mathrm{\textbf{FCDS-BERT}}_{base}$} & \textbf{62.61} & \textbf{64.42} & \textbf{68.79} & \textbf{57.24} & \textbf{62.08} & \textbf{64.21} \\ \midrule
\multicolumn{4}{l}{$\mathrm{ATLOP-DeBERTa}_{Large}$\citing{zhou2021document}} & 62.16 & 64.01 & 68.45 & 59.63 & 62.12 & 64.08 \\
\multicolumn{4}{l}{$\mathrm{\textbf{FCDS-DeBERTa}}_{Large}$} & \textbf{64.12} & \textbf{66.17} & \textbf{70.19} & \textbf{58.73} & \textbf{64.03} & \textbf{65.86} \\ \midrule \\
\end{tabular}
\label{results_docred}
\end{table}
表 \ref{results_docred}中列出的实验结果表明,我们的模型可以在一般领域的文档级关系抽取数据中取得领先的性能。在Ign F1和F1分数方面,所提出的模型在测试集上分别以2.29\%和1.94\%的优势优于基于依赖图的方法SagDRE\citing{SagDRE},这表明依赖语法和依存语法的组合对于文档级关系提取是有用的。
我们的模型将测试集上的IgnF1分数提高了1.56\%,而最先进的方法LARSON\citing{duan-etal-2022-just}使用依存树来预测DocRE的证据,并分别使用依存和依赖语法。这一进展证实了不同粒度的信息可以帮助DocRE中的关系提取。\par
\section{医学数据集实验结果说明与分析}\label{sec:medical}
\begin{table}[]
% \caption{table: results in CDR and GDA}
\caption{CDR和GDA测试集上关系提取的结果}
\centering
\begin{tabular}{lcc}
\hline
Model & CDR & GDA \\ \hline
LSR-BERT\citing{nan-etal-2020-reasoning} & 64.80 & 82.20 \\
SciBERT\citing{zhou2021document} & 65.10 & 82.50 \\
ATLOP-SciBERT\citing{zhou2021document} & 69.40 & 83.90 \\
EIDER-SciBERT\citing{xie2022eider} & 70.63 & 84.54 \\
SagDRE-SciBERT\citing{SagDRE} & 71.80 & - \\
LARSON-SciBERT\citing{duan-etal-2022-just} & 71.59 & 86.02 \\
DREEAM-SciBERT\citing{ma-etal-2023-DREEAM} & 71.55 & 84.51 \\
$\mathrm{\textbf{FCDS-SciBERT}}$ & \textbf{72.62} & \textbf{87.39} \\ \hline
\end{tabular}
\label{CDR_GDA}
\end{table}
除了一般的领域文档级关系抽取方法外,我们还在两个生物医学领域数据集CDR和GDA上将我们的模型与各种先进的方法进行了比较,包括LSR\citing{nan-etal-2020-reasoning}、sciBERT\citing{zhou2021document}、ATLOP\citing{zhou2021document}、EIDER\citing{xie2022eider}、SagDRE\citing{SagDRE}和LARSON\citing{duan-etal-2022-just}。\par
实验结果列于表 \ref{CDR_GDA}中。
总之,我们的模型在两个测试数据集上实现了显著的改进(CDR上为0.93\%,GDA上为1.27\%)。GDA和CDR的句子比DocRED多,因此我们的模型可以处理复杂的文档,进一步证明了它的通用性。 \par
此外,为了评估改进的显著性,我们在三个数据集中进行了两样本t检验,将我们的方法与其他五种方法进行了比较。所获得的p值如表 \ref{p}所示。可以看出,所有值都小于0.05,表明我们的方法有显著改善。
\begin{table}[]
\caption{在所有数据集上进行两样本t检验。在DocRED数据集上使用BERT进行单词嵌入,在CDR和GDA上使用SciBERT进行单词嵌入}
\begin{tabular}{lcc}
\hline
Model\ \textbackslash \ Metric & IgnF1 & F1 \\ \hline
LSR\citing{nan-etal-2020-reasoning} & 0.0146 & 0.0129 \\
ATLOP\citing{zhou2021document} & 0.0240 & 0.0213 \\
EIDER\citing{xie2022eider} & 0.0337 & 0.0313 \\
LARSON\citing{duan-etal-2022-just} & 0.0470 & 0.0439 \\
DREEAM\citing{ma-etal-2023-DREEAM} & 0.0352 & 0.0341 \\ \hline
\end{tabular}
\label{p}
\end{table}
\section{两种不同的语法树权重分析}\label{sec:weight}
\begin{figure}[!t]
\centering{\includegraphics[width=\linewidth]{misc/learningCurve.png}}
\caption{$\eta$在DocRED、CDR和GDA数据集上的学习曲线}
\label{fig_learning}
\end{figure}
为了全面了解我们方法的每个组成部分是如何对最终性能做出贡献的,我们进行了消融实验,以分析不同句法的功能。在图 \ref{fig_learning}中,我们绘制了方程中$\eta$的学习曲线。我们可以观察到$\eta$从初始值1.0开始减少,这表明依赖图在这个过程中发挥着更重要的作用,这可能是因为依赖图结合了依存语法树的特征并捕获了细粒度信息。 \par
\section{消融实验结果说明与分析}\label{sec:inter}
\begin{table}[]
\caption{在DocRED的验证集中对我们的模型进行消融实验}
\begin{tabular}{llc}
\hline
Ablation & \multicolumn{1}{c}{F1} & \multicolumn{1}{l}{IgnF1} \\ \hline
原方法 & 64.42 & 62.61 \\
不对两种语法进行融合 & 62.59 & 60.63 \\
取消文档级节点 & 62.78 & 60.92 \\
取消依存语法树 & 62.15 & 60.22 \\
取消依赖语法树 & 61.63 & 59.41 \\
\hline
\end{tabular}
\label{fig_ablation}
\end{table}
我们一次移除我们模型中的一部分,并使用表 \ref{fig_ablation}中DocRED数据集中的验证集集评估结果模型。对于“不对两种语法进行融合”的情况,我们没有使用依存语法树来增强依赖语法图,并观察到F1和IgnF1分数分别减少了0.78\%和0.94\%,这表明融合语法对文档级关系抽取有利。\par
然后,我们分别从文档级节点、依赖语法图和依存语法树之中删除一个。
对于删除文档节点,我们观察到F1和IgnF1分别减少了0.59\%和0.65\%。
我们推测文档节点减少了实体对之间的距离,这有助于文档级关系抽取。
对于删除依赖图,只有依存语法树被合并用于关系预测。我们可以观察到F1分数下降了2.16\%. 当我们移除依存语法树时,也会出现类似的趋势,其中F1下降到62.15\%。因此,依赖语法图和依存语法树对我们的模型都很重要。\par
\section{依赖语法树路径距离分析}\label{sec:distance}
\begin{table}
\caption{DocRED、CDR、GDA数据集中具有文档节点和不具有文档节点的实体距离的平均/最大/最小长度和标准差}
\resizebox{\textwidth}{!}{
\begin{tabular}{ccclcclcc}
\hline
& \multicolumn{2}{c}{DocRED} & & \multicolumn{2}{c}{CDR} & & \multicolumn{2}{c}{GDA} \\ \cline{2-3} \cline{5-6} \cline{8-9}
& 具有文档节点 & 不具有文档节点 & & 具有文档节点& w/o 不具有文档节点 & & 具有文档节点 & 不具有文档节点 \\ \hline
平均长度 \& 标准差d & 6.19 $\pm$ 1.02 & 7.23 $\pm$ 1.55 & & 5.96 $\pm$ 2.26 & 6.44 $\pm$ 2.23 & & 6.82 $\pm$ 1.99 & 7.38 $\pm$ 2.43 \\
最大长度 & 7 & 9 & & 8& 12 & & 11 & 14 \\
最小长度 & 4 & 4 & & 4 & 4 & & 3 & 4 \\
\hline
\end{tabular}}
\label{attr}
\end{table}
为了检验文档节点对减少实体对之间距离的影响,我们分析了在表 \ref{attr}中的三个数据集中添加文档级节点前后实体距离的变化。通过随机选择600个案例,我们评估了有和没有文档节点的实体距离的平均值、最大值、最小值和标准差。我们的发现表明,平均实体距离减少了,这表明文档节点可以通过简化实体之间的交互来改进文档级关系抽取。
\section{案例研究} \label{sec:case}
为了更好地理解算法并启发未来的工作,我们进行了一个案例研究来研究我们算法预测的瓶颈。\par
图 \ref{fig_case_a} 中展示第一个例子是一个成功的依赖语法图,它说明了依赖语法如何帮助模型完成文档级关系抽取。在这种情况下,依赖语法分析器成功地解析了两句话中的依赖语法,并提取了重要的关键字来帮助预测。通过提取短路径“Yellow is released on 2014/02/14.”,模型只需要一个简单的句子级模型可以完成预测。
图 \ref{fig_case_b} 中展示的第二个例子说明了我们的方法背后的动机,这是为了减轻依赖分析器的不准确和为实体选择关键字失败的情况。尽管依赖语法对文档级关系抽取来说是一个有用的工具,但它有时无法识别实体的相关关键字。在这种情况下,最短路径“Yellow is was Chppa Boi”远未完成预测,而路径中未选择真正的关键字“producted”。
此外,依赖语法解析器中的错误会导致信息的严重缺乏。
为了解决这个问题,我们利用依存语法树并融合来自依赖语法图和依存语法的信息,它分层地组织单个句子的不同单词,并可以将句子级别的信息自然地聚合到句子根节点。
通过这样做,句子根节点可以获得根节点本身和句子级信息,同时增加路径的信息,减轻依赖解析器的不准确度。\par
\begin{figure}[!t]
\includegraphics[width=\linewidth]{misc/case1.pdf}
\caption{ 在这个例子中,依赖语法图通过提取实体\textbf{Yellow} 和\textbf{2014/02/14}之间的最短路径:“\textbf{Yellow} is released on \textbf{2014/02/14}”,在文档级关系抽取中发挥了积极作用}
\label{fig_case_a}
\end{figure}
\begin{figure}[t]
\includegraphics[width=\linewidth]{misc/case2.pdf}
\caption{在这个例子中,依赖语法图在文档级关系抽取中扮演着矛盾的角色。它提取的实体对\textbf{Yellow}和其作者\textbf{Chppa Boi}之间的最短路径为:”\textbf{Yellow} is was \textbf{Chppa Boi}“。然而,由于依赖语法解析器的不准确,模型无法捕获到关键字 \textbf{produced},因此很难预测实体之间的真实关系}
\label{fig_case_b}
\end{figure}
\section{本章小结} \label{sec:conclusion}
在本章中,我们在三个不同的数据集上评估了我们提出的算法。我们发现,我们的模型在三个测试数据集上实现了显著的改进,在三个数据集中进行了两样本t检验,表明我们的方法有显著改善。我们还分析了不同语法的功能,并发现文档节点对实体距离的影响。最后,我们进行了一个案例研究来研究我们算法预测的瓶颈。\par
\chapter{结论}
在这项工作中,我们提出了一种新的文档级关系提取模型。
我们的模型利用了两种类型的额外语法信息,即依赖语法和依存语法。
我们采用图卷积网络和树形长短期记忆模型对这两类信息进行编码。
此外,通过使用依存语法树来增强依赖语法图,并在依赖语法图中添加文档节点,可以提高依赖语法图的表达能力,从而更好地捕捉长距离相关性。
在三个公共文档级关系提取数据集上的实验表明,我们的模型优于现有方法。\par
由于我们的研究重点是语法对文档级关系提取的影响,可能的未来的工作应该进一步分析依赖语法图和依存语法树等不同语法信息的不同影响。我们的模型在很大程度上依赖语法图,它提供了一种图形结构来连接语法相关的单词,并缩短两个实体之间的距离,但为什么依赖语法更有用,更受大多数研究人员的青睐,还有待进一步研究。
另一方面,依存语法树是长期以来缺乏足够研究的语法。我们使用这些树来选择有利的句子,但还需要探索更有用的方法。\par
此外,提取重要句子和融合语法信息的影响不仅存在于文档级关系提取中,也存在于许多其他文档级任务(如阅读理解和文档检索)中。可能的未来工作可以进一步研究这些文档级任务的关联性。最后,提高基于图的方法的效率也会带来一些新的可能,这是因为目前大多数的图方法虽然取得了不错的结果,但是大多数图方法都是计算密集型的方法。\par
\thesisacknowledgement
在攻读计算机学士学位期间,首先热烈感谢我的导师康昭教授。经过风风雨雨的研究,我得到了他的无私关怀和支持。在此特别表达感谢之情。我还要感谢我的一直以来的帮助者们,包括学院的老师、同学、同事,以及所有支持和关心我的人。我也要感谢我的家人,他们给予我强大的内心支持和生活的安定和稳定。
% Uncomment to list all the entries of the database.
%\bibliography command
%\nocite{*}
%\thesisbibliography{reference}
%
% Uncomment following codes to load bibliography database with native
%\bibliography command.
\bibliographystyle{thesis-uestc}
\bibliography{reference}
\begin{comment}
\thesistranslationoriginal
\section{Double Graph Based Reasoning for Document-level Relation Extraction}
\subsection{Abstract}
Document-level relation extraction aims to extract relations among entities within a document. Different from sentence-level relation extraction, it requires reasoning over multiple sentences across paragraphs. In this paper, we propose Graph Aggregation-and-Inference Network (GAIN), a method to recognize such relations for long paragraphs. GAIN constructs two graphs, a heterogeneous mentionlevel graph (MG) and an entity-level graph (EG). The former captures complex interaction among different mentions and the latter aggregates mentions underlying for the same entities. Based on the graphs we propose a novel path reasoning mechanism to infer relations between entities. Experiments on the public dataset, DocRED, show GAIN achieves a significant performance improvement (2.85 on F1) over the previous state-of-the-art. \par
\subsection{Introduction}
The task of identifying semantic relations between entities from text, namely relation extraction (RE), plays a crucial role in a variety of knowledge-based applications, such as question answering and large-scale knowledge graph construction. Previous methods focus on sentence-level RE, which predicts relations among entities in a single sentence. However, sentence-level RE models suffer from an inevitable limitation – they fail to recognize relations between entities across sentences. Hence, extracting relations at the document-level is necessary for a holistic understanding of knowledge in text. \par
There are several major challenges in effective relation extraction at the document-level. Firstly, the subject and object entities involved in a relation may appear in different sentences. Therefore a relation cannot be identified based solely on a single sentence. Secondly, the same entity may be mentioned multiple times in different sentences. Crosssentence context information has to be aggregated to represent the entity better. Thirdly, the identification of many relations requires techniques of logical reasoning. This means these relations can only be successfully extracted when other entities and relations, usually spread across sentences, are identified implicitly or explicitly. As Figure 1 shows, it is easy to recognize the intra-sentence relations (Maryland, country, U.S.), (Baltimore, located in the administrative territorial entity, Maryland), and (Eldersburg, located in the administrative territorial entity, Maryland), since the subject and object appear in the same sentence. However, it is non-trivial to predict the inter-sentence relations between Baltimore and U.S., as well as Eldersburg and U.S., whose mentions do not appear in the same sentence and have long-distance dependencies. Besides, the identification of these two relation instances also requires logical reasoning. For example, Eldersburg belongs to U.S. because Eldersburg is located in Maryland, which belongs to U.S..\par
Recently, Yao et al. proposed a largescale human-annotated document-level RE dataset, DocRED, to push sentence-level RE forward to document-level and it contains massive relation facts. Figure 1 shows an example from DocRED. We randomly sample 100 documents from the DocRED dev set and manually analyze the bad cases predicted by a BiLSTM-based model proposed by Yao et al.. As shown in Table 1, the error type of inter-sentence and that of logical reasoning take up a large proportion of all bad cases, with 53.5\% and 21.0\% respectively. Therefore, in this paper, we aim to tackle these problems to extract relations from documents better.\par
Previous work in document-level RE do not consider reasoning, or only use graph-based or hierarchical neural network to conduct reasoning in an implicit way. In this paper, we propose a Graph Aggregation-and-Inference Network (GAIN) for document-level relation extraction. It is designed to tackle the challenges mentioned above directly. GAIN constructs a heterogeneous Mention-level Graph (MG) with two types of nodes, namely mention node and document node, and three different types of edges, i.e., intra-entity edge, inter-entity edge and document edge, to capture the context information of entities in the document. Then, we apply Graph Convolutional Network on MG to get a document-aware representation for each mention. Entity-level Graph (EG) is then constructed by merging mentions that refer to the same entity in MG, on top of which we propose a novel path reasoning mechanism. This reasoning mechanism allows our model to infer multi-hop relations between entities. \par
In summary, our main contributions are as follows:
\begin{enumerate}
\item We propose a novel method, Graph Aggregation-and-Inference Network (GAIN), which features a double graph design, to better cope with document-level RE task.
\item We introduce a heterogeneous Mention-level Graph (MG) with a graph-based neural network to model the interaction among different mentions across the document and offer document-aware mention representations.
\item We introduce an Entity-level Graph (EG) and propose a novel path reasoning mechanism for relational reasoning among entities.
\end{enumerate}
We evaluate GAIN on the public DocRED dataset. It significantly outperforms the previous state-of-the-art model by 2.85 F1 score. Further analysis demonstrates the capability of GAIN to aggregate document-aware context information and to infer logical relations over documents.\par
\subsection{Current Challenge}
Document-level relation extraction is a quite challenging task, since (1) a document may be made up of many sentences, in which long-distance dependency exists; (2) each entity usually has multiple mentions distributed across different sentences, which requires a better way to aggregate information; (3) some relational prediction demands reasoning.\par
For example, we use the model BiLSTM in to extract relations in the document shown in Figure2. Although it can find out \textit{Martinique} is \textit{located in the administrative territorial entity}, \textit{France}, which belongs to \textit{Europe continent}, it fails to deduce that \textit{Martinique} also belongs to \textit{Europe continent} with information from both sentence $1$ and $7$. To further explore the limitation of current models, we further randomly extract $100$ documents in DocRED dev set and analyze the bad cases of the prediction results. As is shown in Table1, the model has poor performance in inter-sentence relations and those requiring reasoning. Inspired by the statistical results, we proposed our model GAIN to improve performance in inter-sentence and inferential relations prediction.\par
\thesistranslationchinese
\section{基于双图推理的文档级关系提取}
\subsection{摘要}
文档级关系提取旨在提取文档中实体之间的关系。
与句子级关系提取不同,它需要跨段落对多个句子进行推理。
在本文中,我们提出了图聚合和推理网络(GAIN),这是一种识别长段落这种关系的方法。图聚合和推理网络构造了两个图,一个是异构的实体提及级图(MG),另一个是实体级图(EG)。前者捕捉不同提及之间的复杂互动,后者聚合相同实体的潜在提及。基于这两个图,我们提出了一种新的路径推理机制来推断实体之间的关系。在公共数据集DocRED上的实验表明,与之前的最先进技术相比,图聚合和推理网络实现了显著的性能改进(F1分数提高2.85\%)。\par
\subsection{引言}
从文本中识别实体之间的语义关系,即关系提取,在各种基于知识的应用中发挥着至关重要的作用,如问答和大规模知识图构建。
以前的方法侧重于句子级关系提取,它预测单个句子中实体之间的关系。然而,句子级关系提取模型不可避免地受到限制——因为它们无法识别句子中实体之间的关系。
因此,在文档级别提取关系对于全面理解文本中的知识是必要的。\par
在文档级关系提取中存在几个主要挑战。首先,关系中涉及的主体和客体可能出现在不同的句子中,因此不能仅仅根据一句话来确定关系。第二,同一实体可能在不同的句子中被多次提及。因此跨句上下文信息必须被聚合以更好地表示实体。第三,识别许多关系需要逻辑推理技术。这意味着只有当其他实体和关系(通常分布在句子中)被隐式或显式识别时,这些关系才能成功提取。如图1所示,由于主语和宾语出现在同一句话中,因此很容易识别句内关系(马里兰州,国家,美国)、(巴尔的摩,位于马里兰州行政领土实体)和(埃尔德斯堡,位于马里兰州行政领土实体)。然而,预测巴尔的摩和美国以及埃尔德斯堡和美国之间的句间关系是比较困难的,因为它们的提及不出现在同一个句子中,并且具有远距离依赖关系。此外,这两个关系实例的识别也需要逻辑推理。例如,埃尔德斯堡属于美国,因为埃尔德斯堡位于马里兰州,属于美国。\par
最近,Yao等人提出了一个大规模的人类注释文档级关系提取数据集DocRED,将句子级关系提取推进到文档级,其中包含大量的关系事实。图1显示了DocRED数据集的一个示例。我们从DocRED验证集中随机抽取100个文档,并手动分析姚等人提出的基于双向长短期记忆模型预测的不良案例。如表1所示,句间错误类型和逻辑推理错误类型在所有不良案例中占很大比例,分别为53.5\%和21.0\%。因此,在本文中,我们旨在解决这些问题,以便更好地从文档中提取关系。\par
以前在文档级关系提取中的工作不考虑推理,或者只使用基于图或层次的神经网络以隐含的方式进行推理。在本文中,我们提出了一种用于文档级关系提取的图聚合和推理网络。它旨在直接应对上述挑战。图聚合和推理网络构造了一个具有两种类型的节点(即提及节点和文档节点)和三种不同类型的边(即实体内边、实体间边和文档边)的异构提及级图(MG),以捕获文档中实体的上下文信息。然后,我们在提及级图上应用图卷积网络来获得每个提及的文档感知表示。然后,通过合并提及级图中引用同一实体的提及来构建实体级图(EG),在此基础上,我们提出了一种新的路径推理机制。这种推理机制允许我们的模型推断实体之间的多跳关系。\par
总之,我们的主要贡献如下:\par
\begin{enumerate}
\item 为了更好地处理文档级的关系提取任务,我们提出了一种新的方法——图聚合和推理网络(GAIN),该方法采用了双图设计。
\item 我们引入了一种具有基于图的神经网络的异构提及水平图(MG),以对文档中不同提及之间的交互进行建模,并提供文档感知提及表示。
\item 我们引入了一种实体级图(EG),并提出了一种新的实体间关系推理的路径推理机制。
\end{enumerate}
我们在公共的DocRED数据集上评估图聚合和推理网络。它明显优于之前最先进的模型,并且提高了2.85的F1分数。进一步的分析证明了图聚合和推理网络在聚合文档感知上下文信息并推断文档上的逻辑关系的优秀能力。\par
\subsection{当前的挑战}
文档级关系提取是一项极具挑战性的任务,这可以归为三个原因:(1)文档可能由许多句子组成,其中存在远距离依赖关系;(2) 每个实体通常有多个提及,并且分布在不同的句子中,这需要更好的方式来聚合信息;(3) 一些关系预测需要推理。\par
例如,我们使用双向长短期记忆模型来提取图2所示文档中的关系。虽然它可以发现马提尼克是法国的行政领土实体,法国属于欧洲大陆。但无法联系句子1和7的信息,它无法推断马提尼克也属于欧洲大陆。为了进一步探索当前模型的局限性,我们进一步随机提取DocRED验证集中的100个文档,并分析预测结果的不良情况。如表1所示,该模型在句间关系和需要推理的关系中表现不佳。受统计结果的启发,我们提出了我们的图聚合和推理网络,以提高句间关系和推理关系预测的性能。\par
\end{comment}
\end{document}