25
Improving Coreference Resoluti on by Learning Entity-Level Di stributed Representations Kevin Clark In ACL 2016 読読読読読読 読読読読 @ 読読読 NLP 2016 Christopher D. Manni ng 1 読読読読読読読読読読読読読

Improving Coreference Resolution by Learning Entity-Level Distributed Representations

Embed Size (px)

Citation preview

Page 2: Improving Coreference Resolution by Learning Entity-Level Distributed Representations

Overview

• クラスタマージ型の共参照解析器を NN でモデリング• Mention pair と cluster pair のスマートな分散表現

– Mention pair 表現 : 小さな素性セット+3層 DNN– Cluster pairs 表現 : 二つのクラスタ間の全ての mention

pair の情報をプーリングで集約• シンブル?な素性セット+ DNN +頑張ってスムーズに学習+クラスタ内の情報はきちんと吸い上げる → 最高精度(英語と中国語)

2

Page 3: Improving Coreference Resolution by Learning Entity-Level Distributed Representations

クラスタマージ型共参照解析

3

Mention ranking• スコア最大の先行詞を選ぶ• 簡単、効率的

Cluster ranking• スコア最大のクラスタとマージ

• 既にクラスタ化したmentionの情報(大域的情報)を使う

m

m1m1

m1 m1

NA

m

m1m1

m1 m1

NA

m1

Page 4: Improving Coreference Resolution by Learning Entity-Level Distributed Representations

クラスタマージ型共参照解析

4

Mention ranking• スコア最大の先行詞を選ぶ• 簡単、効率的

Cluster ranking• スコア最大のクラスタとマージ

• 既にクラスタ化したmentionの情報(大域的情報)を使う

m

m1m1

m1 m1

NA

m

m1m1

m1 m1

NA

m1

Pretraining

Page 5: Improving Coreference Resolution by Learning Entity-Level Distributed Representations

トピック• クラスタマージ型共参照解析器の NN によるモデリング• NN パラメータの効果的なトレーニング

→ Mention ranking モデルをプレトレーニングや候補の枝刈りに使う• クラスタをマージする順序

→ Mention ranking モデルのスコアに基づく easy-first strategy

• 大域素性を含むモデルの適切な学習→ Learning-to-Search (Daumé III et al., 2005, 2009)

5

Page 6: Improving Coreference Resolution by Learning Entity-Level Distributed Representations

Model Overview

• Mention ranking と Cluster ranking の二段構成

6

------------------------------------

𝑚1 ,𝑚2 ,𝑚3 ,𝑚4

Mention detector (Raghunathan et al. (2010))

(𝑎 ,𝑚 )𝑎∈𝒜 (𝑚 )∪ {𝑁𝐴 }

Mention-pair 表現Mention-pair encoder

𝑠𝑚 (𝑎 ,𝑚 )

Mention-pair ranker

𝑠𝑚 (𝑁𝐴 ,𝑚 )

DNN

単層 NN

𝑟𝑚 (𝑎 ,𝑚 )

メンションのペアが共参照かどうか

Page 7: Improving Coreference Resolution by Learning Entity-Level Distributed Representations

Model Overview

• Mention ranking と Cluster ranking の二段構成

7

------------------------------------

𝑚1 ,𝑚2 ,𝑚3 ,𝑚4

Mention detector (Raghunathan et al. (2010))

(𝑎 ,𝑚 )𝑎∈𝒜 (𝑚 )∪ {𝑁𝐴 }

Mention-pair 表現Mention-pair encoder

𝑠𝑚 (𝑎 ,𝑚 )

Mention-pair ranker

𝑠𝑚 (𝑁𝐴 ,𝑚 )

DNN

単層 NN

𝑟𝑚 (𝑎 ,𝑚 )

メンションのペアが共参照かどうか

𝑚4 ,𝑚1 ,𝑚2 ,𝑚3

の降順でソートEasy-first ordering

シングルトンクラスタから始めて、この順に順に とその先行詞のクラスタのマージを考える

Page 8: Improving Coreference Resolution by Learning Entity-Level Distributed Representations

Model Overview

• Mention ranking と Cluster ranking の二段構成

8

------------------------------------

𝑚1 ,𝑚2 ,𝑚3 ,𝑚4

Mention detector (Raghunathan et al. (2010))

(𝑎 ,𝑚 )𝑎∈𝒜 (𝑚 )∪ {𝑁𝐴 }

Mention-pair 表現Mention-pair encoder

𝑠𝑚 (𝑎 ,𝑚 )

Mention-pair ranker

𝑠𝑚 (𝑁𝐴 ,𝑚 )

DNN

単層 NN

𝑟𝑚 (𝑎 ,𝑚 )

メンションのペアが共参照かどうか

𝑚4 ,𝑚1 ,𝑚2 ,𝑚3

の降順でソートEasy-first ordering

𝑐∈ {𝑐∨𝑎∈𝑐 ,𝑎∈𝒜 (𝑚 ) }(𝑐 ,𝑐𝑚 )

Cluster-pair 表現Cluster-pair encoder

𝑠𝑐 (𝑐𝑚 ,𝑐 )

Cluster-pair ranker 単層 NN

プーリング𝑟𝑐 (𝑐𝑚 ,𝑐 )

クラスタペアをマージすべきかどうか

Page 9: Improving Coreference Resolution by Learning Entity-Level Distributed Representations

Model Overview

9

------------------------------------

𝑚1 ,𝑚2 ,𝑚3 ,𝑚4

Mention detector (Raghunathan et al. (2010))

(𝑎 ,𝑚 )𝑎∈𝒜 (𝑚 )∪ {𝑁𝐴 }

Mention-pair 表現Mention-pair encoder

𝑠𝑚 (𝑎 ,𝑚 )

Mention-pair ranker

𝑠𝑚 (𝑁𝐴 ,𝑚 )

DNN

単層 NN

𝑟𝑚 (𝑎 ,𝑚 )

𝑚4 ,𝑚1 ,𝑚2 ,𝑚3

の降順でソートEasy-first ordering

𝑐∈ {𝑐∨𝑎∈𝑐 ,𝑎∈𝒜 (𝑚 ) }(𝑐 ,𝑐𝑚 )

Cluster-pair 表現Cluster-pair encoder

𝑠𝑐 (𝑐𝑚 ,𝑐 )

Cluster-pair ranker 単層 NN

プーリング𝑟𝑐 (𝑐𝑚 ,𝑐 )

最もスコアの高いアクションを選択(をマージ、もしくは何もマージしない)

Page 10: Improving Coreference Resolution by Learning Entity-Level Distributed Representations

Model Overview

10

先行詞素性 mention 素性

(m1, m3) 表現

Cluster 1

m1m2

Cluster 2

m3m4

(m1, m4) 表現(m2, m3) 表現(m2, m4) 表現

Cluster-pair 表現

Cluster ペアのスコア

Mention-pair encoder

Mention ペアのスコア

Mention-pair 表現Mention-pair ranker

※Mention ranking モデルでエンコーダをプレトレーニングする

メンションのペアが共参照かどうか

クラスタペアをマージすべきかどうか

doc 素性

Cluster-pair encoder

Cluster-pair ranker

Page 11: Improving Coreference Resolution by Learning Entity-Level Distributed Representations

Mention-pair encoder

11

全結合の3層ReLU レイヤー

単語ベクトルの初期ベクトルは 50 次元の Word2Vec

1000 次元

500 次元500 次元

Page 12: Improving Coreference Resolution by Learning Entity-Level Distributed Representations

Mention-pair encoder に使う素性• 埋め込み素性

– 単語:主辞、親、最初の単語、最後の単語、前後2単語– 単語平均:前後5単語、 mention 構成単語、文、文書

• その他– Mention のタイプ: (pronoun, nominal, proper, or list)– Mention の位置(正規化されたインデックス番号)– 文書ジャンル– Mention 間の距離:文距離、間の mention 数、オーバーラップ– 話者( Raghunathan et al. (2010) )

• 同じ話者による mention かどうか• ある mention が他の mention の話者かどうか

– 文字列マッチ:主辞、完全一致、部分一致12

Page 13: Improving Coreference Resolution by Learning Entity-Level Distributed Representations

Mention ranking model

• Mention-pair encoder のプレトレーニング• Candidate pruning for cluster ranking model

– ( m の前方の mention 集合)で の値が高い だけを返すようにする• Easy-first search のためのスコアリング

– クラスタマージを行う際に が高い m から順にマージを考える13

Mention ペア表現

Page 14: Improving Coreference Resolution by Learning Entity-Level Distributed Representations

Mention ranking model

• Loss

14

Mention ペア表現

と共参照関係にある mention

mistake-specific cost function

グリッドサーチします

Page 15: Improving Coreference Resolution by Learning Entity-Level Distributed Representations

Pretraining of mention ranking model

15

150 epoch

50 epochと共参照関係にない mention

Page 16: Improving Coreference Resolution by Learning Entity-Level Distributed Representations

Cluster-pair encoder

• 二つのクラスタ間の全 mention ペア表現を考える• 二種類のプーリングを連結

–Max pooling–Avg. pooling

16

Page 17: Improving Coreference Resolution by Learning Entity-Level Distributed Representations

Cluster ranking model

• Mention の順序付け– Easy-first ordering : で降順にソート

• 状態• 動作集合

– 1回の動作により、次の状態 が決まる– ,

• ポリシーネットワーク

17

最初はシングルトンクラスタの集合

の各操作に確率を割り当てる

m の前方にある mention が属すクラスタ

Page 18: Improving Coreference Resolution by Learning Entity-Level Distributed Representations

Learning-to-search (Daumé et al. 2005, 2009)

• Cluster ranking model の各状態での観測はそれまでのアクション系列に依存する• ゴールド系列だけで学習するのではなく、途中まではシステムのアクション、途中から正しいアクション、という系列を使って Loss を計算する• 学習時に、「過去の系列が間違っている」というテスト時に起こりうる状況を取り入れる

18

Page 19: Improving Coreference Resolution by Learning Entity-Level Distributed Representations

Learning-to-search (Daumé et al. 2005, 2009)

19

-

を最も高めるアクション

Page 20: Improving Coreference Resolution by Learning Entity-Level Distributed Representations

Experiments and evaluations• 実験設定

– データ: CoNLL 2012 shared task dataset (English & Chinese)– 評価: MUC, B3, Entity-based CEAF に関する F1 の平均

• Mention ranking model での feature ablations

• Mention ranking model における異なる訓練方法の評価– 二種類のプレトレーニング方法

• それぞれの要素技術の評価– Pretraining of mention ranking model– Easy-first strategy– Learning-to-search algorithm

• 既存研究との比較20

Page 21: Improving Coreference Resolution by Learning Entity-Level Distributed Representations

Model performance withfeature ablations

21

Page 22: Improving Coreference Resolution by Learning Entity-Level Distributed Representations

Pretraining methods formention ranking model

• Mention ranking model それ自体もプレトレーニングが重要 ( All-pairs も Top-pairs も必要)

22

Page 23: Improving Coreference Resolution by Learning Entity-Level Distributed Representations

各要素技術の効果• Cluster ranking model を直接学習せず、 mention

ranking model でプレトレーニングする方が良い• Easy-first はちょっと効果あり(ノイズが乗りにくい?)• Learning-to-search もちょっと効果あり(ノイズに強い?)

23

Page 24: Improving Coreference Resolution by Learning Entity-Level Distributed Representations

Comparison to previous work

• CoNLL 2012 では、全てのスコアで現時点の最高性能– Mention ranker の時点で既に勝っている

24

Page 25: Improving Coreference Resolution by Learning Entity-Level Distributed Representations

Conclusion

• クラスタマージ型の共参照解析器を NN でモデリング• Mention pair と cluster pair のスマートな分散表現

– Mention pair 表現 : 小さな素性セット+3層 DNN– Cluster pairs 表現 : 二つのクラスタ間の全ての mention

pair の情報をプーリングで集約• シンプルな素性セット+ DNN +頑張ってスムーズに学習+クラスタ内の情報はきちんと吸い上げる → 最高精度(英語と中国語)

25