19
Submodular Optimization-based Diverse Paraphrasing and its Effectiveness in Data Augmentation 読む人:今野 颯人 乾・鈴木研究室 M1 1 2019/09/28 最先端NLP勉強会2019

Submodular Optimization-based Diverse Paraphrasing and its ... · n劣モジュラ関数:劣モジュラ性を持った集合関数 n劣モジュラ性 ∀a⊆b⊆!,∀c∈!∖b:

  • Upload
    others

  • View
    0

  • Download
    0

Embed Size (px)

Citation preview

Page 1: Submodular Optimization-based Diverse Paraphrasing and its ... · n劣モジュラ関数:劣モジュラ性を持った集合関数 n劣モジュラ性 ∀a⊆b⊆!,∀c∈!∖b:

Submodular Optimization-based Diverse Paraphrasing

and its Effectiveness

in Data Augmentation

読む人:今野 颯人乾・鈴木研究室 M1

12019/09/28 最先端NLP勉強会2019

Page 2: Submodular Optimization-based Diverse Paraphrasing and its ... · n劣モジュラ関数:劣モジュラ性を持った集合関数 n劣モジュラ性 ∀a⊆b⊆!,∀c∈!∖b:

概要n 入力文sからEnc-Decによりk個の言い換え文を得る

n 応用先:Data augmentation,対話エージェントn 目的:従来より多様性のある言い換え文を得たいn 提案手法:劣モジュラ関数最大化として定式化n 評価:従来よりも元の文に忠実かつ多様な文を

生成することに成功Data Augmentationでの効果も検証

22019/09/28 最先端NLP勉強会2019

Encoder Decoder入力文 s言い換え文1

言い換え文k

Page 3: Submodular Optimization-based Diverse Paraphrasing and its ... · n劣モジュラ関数:劣モジュラ性を持った集合関数 n劣モジュラ性 ∀a⊆b⊆!,∀c∈!∖b:

実際の入出力

2019/09/28 最先端NLP勉強会2019 3

従来よりも多様

Page 4: Submodular Optimization-based Diverse Paraphrasing and its ... · n劣モジュラ関数:劣モジュラ性を持った集合関数 n劣モジュラ性 ∀a⊆b⊆!,∀c∈!∖b:

モチベーションn 言い換えの質を決める2つの要素:Fidelity,Diversity- Fidelity:元の文に忠実か(意味的類似性)-Diversity:語彙的にどのくらい異なるか(多様性)

n 従来の手法:top-k beam search-構文が類似,単語レベルの変化のみ,-Diversityが低い

n 目的:Fidelityを落とさずにDiversityを向上させたいn 提案手法:Fidelity,Diversityを最大化するために

劣モジュラ関数最大化として定式化

2019/09/28 最先端NLP勉強会2019 4

Page 5: Submodular Optimization-based Diverse Paraphrasing and its ... · n劣モジュラ関数:劣モジュラ性を持った集合関数 n劣モジュラ性 ∀a⊆b⊆!,∀c∈!∖b:

提案手法n まずはSEQ2SEQをcross entropy lossで学習n デコード時のtime-step t ごとに出力文の集合𝑉(#)からFidelityとDiversityが高い文の部分集合𝑋∗を選ぶ- 𝑉(#):t時点での出力文(確率付き)の集合- 𝑋∗:提案手法で絞った文の集合

• 𝑋∗ ≤ 𝐾, 𝑋∗ ⊆ 𝑉• 𝐾は獲得したい言い換えの数

2019/09/28 最先端NLP勉強会2019 5

提案手法

Page 6: Submodular Optimization-based Diverse Paraphrasing and its ... · n劣モジュラ関数:劣モジュラ性を持った集合関数 n劣モジュラ性 ∀a⊆b⊆!,∀c∈!∖b:

提案手法n 𝑉(#)から𝑋∗へ絞りたいn 集合関数 ℱ:2, → ℝ を作成- ℱ(𝑋):部分集合𝑋に対してスコア付けする関数- ℱ(𝑋)のスコアが高い=文の部分集合𝑋のFidelityとDiversityが高い(ように集合関数ℱを作成)

n ℱ(𝑋)のスコアが高い部分集合𝑋∗を選択

n 目的: 𝑋∗ = argmax5⊆,ℱ 𝑋 を求める2019/09/28 最先端NLP勉強会2019 6

生成確率上位

𝑉(#)出力文1出力文2

出力文N出力文N+1

……

出力文1出力文2

出力文N

出力文2出力文4出力文7出力文21

𝑋∗𝑋∗ ≤ 𝐾

ℱによるスコア付け

生成確率上位N個

ℱのスコアが高い部分集合

Page 7: Submodular Optimization-based Diverse Paraphrasing and its ... · n劣モジュラ関数:劣モジュラ性を持った集合関数 n劣モジュラ性 ∀a⊆b⊆!,∀c∈!∖b:

組み合わせ爆発の問題

n 𝑋∗ = argmax5⊆,ℱ 𝑋 を求めたいn しかしℱ(𝑋)を最大化する部分集合𝑋∗を選ぶのは困難-冪集合2,から最適解となる部分集合を選ぶ- NP困難な最適化問題

n 台集合の要素数や 𝑋 の上限値𝐾が大きくなると解の候補は爆発的に大きくなる

n ℱが非負で非単調減少の劣モジュラ関数ならば貪欲法で最適解の63.2%(1 − 1/𝑒)に近似できる

2019/09/28 最先端NLP勉強会2019 7

Page 8: Submodular Optimization-based Diverse Paraphrasing and its ... · n劣モジュラ関数:劣モジュラ性を持った集合関数 n劣モジュラ性 ∀a⊆b⊆!,∀c∈!∖b:

貪欲法による近似解

2019/09/28 最先端NLP勉強会2019 8

𝑆 = {}からスタートし𝑆 = 𝑘となるまで「貪欲」に要素を

1つずつ増やしていく

ℱは非負で非単調減少の劣モジュラ関数

𝑋∗ = argmax5⊆,ℱ 𝑋 の近似解を得る

Page 9: Submodular Optimization-based Diverse Paraphrasing and its ... · n劣モジュラ関数:劣モジュラ性を持った集合関数 n劣モジュラ性 ∀a⊆b⊆!,∀c∈!∖b:

n 劣モジュラ関数:劣モジュラ性を持った集合関数n 劣モジュラ性

∀𝐴 ⊆ 𝐵 ⊆ 𝑉,∀𝑗 ∈ 𝑉 ∖ 𝐵:ℱ 𝐴 ∪ 𝑗 − ℱ 𝐴 ≥ ℱ 𝐵 ∪ 𝑗 − ℱ 𝐵

例)カバー関数

劣モジュラ関数

2019/09/28 最先端NLP勉強会2019 9参考文献:河原吉伸,機械学習における劣モジュラ性の利用と組合せ論的アルゴリズム,オペレーションズ・リサーチ2013年5号

サイズとともに増加が緩やかとなる

𝑆I 𝑆J

𝑆K𝑓 𝑆I, 𝑆J = 8𝑓 𝑆I = 6

𝑓 𝑆I, 𝑆K − 𝑓 𝑆I > 𝑓 𝑆I, 𝑆J, 𝑆K − 𝑓 𝑆I, 𝑆J11 − 8 = 310 − 6 = 4

Page 10: Submodular Optimization-based Diverse Paraphrasing and its ... · n劣モジュラ関数:劣モジュラ性を持った集合関数 n劣モジュラ性 ∀a⊆b⊆!,∀c∈!∖b:

n 文の部分集合𝑋のFidelityとDiversityが高いとℱ(𝑋)のスコアが高いように集合関数ℱを作成

n ℱ 𝑋 = 𝜆ℒ 𝑋, 𝑠 + 1 − 𝜆 𝒟 𝑋- ℒ 𝑋, 𝑠 : Fidelityの良さを表す集合関数

ℒ 𝑋, 𝑠 = ℒI 𝑋, 𝑠 + ℒJ 𝑋, 𝑠- 𝒟 𝑋 : Diversityの良さを表す集合関数

𝒟 𝑋 = 𝒟I 𝑋 + 𝒟J 𝑋• 𝑠:入力文,𝜆 ∈ [0,1]

n ℒI 𝑋, 𝑠 , ℒJ 𝑋, 𝑠 , 𝒟I 𝑋 , 𝒟J 𝑋 は全て非負で非単調減少の劣モジュラ関数

劣モジュラ関数の作成

2019/09/28 最先端NLP勉強会2019 10

Page 11: Submodular Optimization-based Diverse Paraphrasing and its ... · n劣モジュラ関数:劣モジュラ性を持った集合関数 n劣モジュラ性 ∀a⊆b⊆!,∀c∈!∖b:

劣モジュラ関数の作成①:Fidelity

2019/09/28 最先端NLP勉強会2019 11

n ℱ 𝑋 = 𝜆ℒ 𝑋, 𝑠 + 1 − 𝜆 𝒟 𝑋n Fidelity:ℒ 𝑋, 𝑠 = ℒI 𝑋, 𝑠 + ℒJ 𝑋, 𝑠

n ℒI 𝑋, 𝑠 = 𝜇I ∑]∈5∑^_I` 𝛽^ 𝑥^cdefg ∩ 𝑠^cdefg-元の文と言い換えのN-grams重複度

n ℒJ 𝑋, 𝑠 = 𝜇J ∑]∈5I]∑ij∈] argmax𝜓 𝑣ij, 𝑣im

-元の文と言い換えの単語レベル類似度

Page 12: Submodular Optimization-based Diverse Paraphrasing and its ... · n劣モジュラ関数:劣モジュラ性を持った集合関数 n劣モジュラ性 ∀a⊆b⊆!,∀c∈!∖b:

劣モジュラ関数の作成②:Diversity

2019/09/28 最先端NLP勉強会2019 12

n ℱ 𝑋 = 𝜆ℒ 𝑋, 𝑠 + 1 − 𝜆 𝒟 𝑋n Diversity:𝒟 𝑋 = 𝒟I 𝑋 + 𝒟J 𝑋

n 𝒟I 𝑋 = 𝜇K ∑^_I` 𝛽^ ⋃]∈5 𝑥^cdefg-部分集合𝑋でのN-gramsの異なり度合い

n 𝒟J 𝑋 = 𝜇o ∑]j∈, p ∑]m∈5 1 − qrs#tsu#f^vw ]j,]m]j x ]m

-部分集合𝑋での編集距離

Page 13: Submodular Optimization-based Diverse Paraphrasing and its ... · n劣モジュラ関数:劣モジュラ性を持った集合関数 n劣モジュラ性 ∀a⊆b⊆!,∀c∈!∖b:

提案手法

2019/09/28 最先端NLP勉強会2019 13

Diversity Fidelity

ℱ 𝑋 = 1 − 𝜆 𝒟 𝑋 + 𝜆ℒ 𝑋, 𝑠

𝑘個の言い換えを得る→ 𝑋 ≤ 𝑘

Page 14: Submodular Optimization-based Diverse Paraphrasing and its ... · n劣モジュラ関数:劣モジュラ性を持った集合関数 n劣モジュラ性 ∀a⊆b⊆!,∀c∈!∖b:

検証

n 1. 言い換え文のQualityは良いか?- Fidelityを損なうことなくDiversityを向上させられるか

n 2. Data Augmentationとして有効か?-2つのタスクで検証

• Intent-Classification • Question Classification

2019/09/28 最先端NLP勉強会2019 14

Page 15: Submodular Optimization-based Diverse Paraphrasing and its ... · n劣モジュラ関数:劣モジュラ性を持った集合関数 n劣モジュラ性 ∀a⊆b⊆!,∀c∈!∖b:

n 評価指標:N-distinctn Dataset:-Quora-question pair dataset- Twitter URL paraphrasing dataset

検証①言い換えのQuality:Diversity

2019/09/28 最先端NLP勉強会2019 15従来よりも多様性のある文を生成

Page 16: Submodular Optimization-based Diverse Paraphrasing and its ... · n劣モジュラ関数:劣モジュラ性を持った集合関数 n劣モジュラ性 ∀a⊆b⊆!,∀c∈!∖b:

n 評価指標:BLUE,METEOR,TER-plusn Dataset:-Quora-question pair dataset- Twitter URL paraphrasing dataset

検証①言い換えのQuality:Fidelity

2019/09/28 最先端NLP勉強会2019 16Fidelityを損なわずに文を生成

Page 17: Submodular Optimization-based Diverse Paraphrasing and its ... · n劣モジュラ関数:劣モジュラ性を持った集合関数 n劣モジュラ性 ∀a⊆b⊆!,∀c∈!∖b:

検証②Data Augmentation:n Transfer Learningで分類問題のData Augmentationとして使用-言い換え文生成モデルはQuora-Div question pairsで学習

n Intent-classification:YahooL31,SNIPSn Question Classification:TREC

2019/09/28 最先端NLP勉強会2019 17Data Augmentationにより精度向上

Page 18: Submodular Optimization-based Diverse Paraphrasing and its ... · n劣モジュラ関数:劣モジュラ性を持った集合関数 n劣モジュラ性 ∀a⊆b⊆!,∀c∈!∖b:

まとめ

n 言い換え文のクオリティに重要なFidelityとDiversityについて劣モジュラ関数最大化として定式化

n 従来の手法よりも高品質な言い換え文を生成n Data-AugmentationによりIntent-ClassificationとQuestion Classificationで有用性が示された

n Codeも公開済み:- https://github.com/malllabiisc/DiPS

2019/09/28 最先端NLP勉強会2019 18

Page 19: Submodular Optimization-based Diverse Paraphrasing and its ... · n劣モジュラ関数:劣モジュラ性を持った集合関数 n劣モジュラ性 ∀a⊆b⊆!,∀c∈!∖b:

感想

n 近似しているにも関わらずdecodeに時間がかかりそう

n Data Augmentationで有効であるかはTransfer Learning次第?-今回の実験設定ではIntent-classificationとQuestion-classificationにquestionが含まれているため,question pairsで学習したのが上手くいった

2019/09/28 最先端NLP勉強会2019 19