77
機械学習における連続最適化の新しいトレンド 冨岡 亮太 1 共同研究者: 鈴木 大慈 1 杉山 将 2 1 東京大学 2 東京工業大学 2011-01-20 @ NEC 冨岡 亮太 (東大) 1 / 66

機械学習における連続最適化の新しいトレンドttic.uchicago.edu/~ryotat/talks/nectalk11.pdf · 機械学習における連続最適化の新しいトレンド 冨岡亮太1

  • Upload
    others

  • View
    0

  • Download
    0

Embed Size (px)

Citation preview

Page 1: 機械学習における連続最適化の新しいトレンドttic.uchicago.edu/~ryotat/talks/nectalk11.pdf · 機械学習における連続最適化の新しいトレンド 冨岡亮太1

. . . . . .

.

.

. ..

.

.

機械学習における連続最適化の新しいトレンド

冨岡亮太 1

共同研究者: 鈴木大慈 1 杉山将 2

1 東京大学2 東京工業大学

2011-01-20 @ NEC

冨岡亮太 (東大) 1 / 66

Page 2: 機械学習における連続最適化の新しいトレンドttic.uchicago.edu/~ryotat/talks/nectalk11.pdf · 機械学習における連続最適化の新しいトレンド 冨岡亮太1

. . . . . .

イントロ

Outline

.

. .1 イントロ

.

. .

2 準備

.

. .

3 手法 1: Prox作用素

.

. .

4 手法 2: Legendre変換

.

. .

5 手法 3: Operator Splitting

.

. .

6 まとめ

.

. .

7 Appendix

冨岡亮太 (東大) 2 / 66

Page 3: 機械学習における連続最適化の新しいトレンドttic.uchicago.edu/~ryotat/talks/nectalk11.pdf · 機械学習における連続最適化の新しいトレンド 冨岡亮太1

. . . . . .

イントロ

標準形はお好き?

例)線形計画 (LP)

.

主問題

.

.

.

. ..

.

.

(P) min c⊤x ,

s.t. Ax = b, x ≥ 0.

.

双対問題

.

.

.

. ..

.

.

(D) max b⊤y ,

s.t. A⊤y ≤ c.

2次計画 (QP),2次錐計画 (SOCP),半正定値計画 (SDP),etc...

良い点:既存の(ある程度)高性能なソルバーが利用できる.

悪い点:問題のモデル化に制限,問題の書き換えが必要.

冨岡亮太 (東大) 3 / 66

Page 4: 機械学習における連続最適化の新しいトレンドttic.uchicago.edu/~ryotat/talks/nectalk11.pdf · 機械学習における連続最適化の新しいトレンド 冨岡亮太1

. . . . . .

イントロ

モデル化に制限が生じる例:ℓp-正則化

minimizew

12∥y − Xw∥2 + λ

n∑j=1

|wj |p.

p = 2: 正則化最小二乗法⇒ 逆行列で一発.

1 < p < 2: ?p = 1: Lasso ⇒ 2次計画.

−3 −2 −1 0 1 2 30

1

2

3

4

|x|0.01

|x|0.5

|x|x2

冨岡亮太 (東大) 4 / 66

Page 5: 機械学習における連続最適化の新しいトレンドttic.uchicago.edu/~ryotat/talks/nectalk11.pdf · 機械学習における連続最適化の新しいトレンド 冨岡亮太1

. . . . . .

イントロ

それでも標準形が好まれる理由(これを解決します)

.

. .1 微分不可能性: 微分不可能性<制約付き最適化

.

SVM (微分不可能)

.

.

.

. ..

.

.

minw

Cm∑

i=1

ℓH(yi ⟨x i , w⟩) +12∥w∥2

max(0,1−yz)

.

SVM (2次計画)

.

.

.

. ..

.

.

minw

Cm∑

i=1

ξi +12∥w∥2,

s.t. yi ⟨x i , w⟩ ≥ 1 − ξi

(i = 1, . . . , m).

(制約の数=サンプル数)

.

.

.

2 実装がめんどくさい

冨岡亮太 (東大) 5 / 66

Page 6: 機械学習における連続最適化の新しいトレンドttic.uchicago.edu/~ryotat/talks/nectalk11.pdf · 機械学習における連続最適化の新しいトレンド 冨岡亮太1

. . . . . .

イントロ

微分不可能性を持つ凸最適化問題の例

SVM(ロスが微分不可能)

minimizew

Cm∑

i=1

ℓH(yi ⟨x i , w⟩) +12∥w∥2

Lasso(正則化項が微分不可能)

minimizew

L(w) + λn∑

j=1

|wj |

max(0,1−yz)

冨岡亮太 (東大) 6 / 66

Page 7: 機械学習における連続最適化の新しいトレンドttic.uchicago.edu/~ryotat/talks/nectalk11.pdf · 機械学習における連続最適化の新しいトレンド 冨岡亮太1

. . . . . .

イントロ

マルチタスク学習 (Evgeniou et al 05)

minimizew1,w2,w12

L(w1 + w12)︸ ︷︷ ︸タスク 1 のロス

+ L(w2 + w12)︸ ︷︷ ︸タスク 2 のロス

+λ(∥w1∥ + ∥w2∥ + ∥w12∥)

冨岡亮太 (東大) 7 / 66

Page 8: 機械学習における連続最適化の新しいトレンドttic.uchicago.edu/~ryotat/talks/nectalk11.pdf · 機械学習における連続最適化の新しいトレンド 冨岡亮太1

. . . . . .

イントロ

マルチカーネル学習 (Bach et al 05; Suzuki & Tomioka 09)

M個の情報源があり,それぞれについて入力サンプル xi と xj の内積が km(xi , xj) (m = 1, . . . , M)と計算できるとき,それらをいかに組み合わせて予測するか?

最適化問題

minimizef 1,f 2,...,f M

CN∑

i=1

ℓH

(yi

∑Mm=1 fm(xi)

)+ λ

M∑m=1

∥f m∥

それぞれの情報源について,表現定理より予測関数

fm(xi) =N∑

j=1

km(xi , xj)α(m)j .

正則化項だけでなくロスも微分不可能.

冨岡亮太 (東大) 8 / 66

Page 9: 機械学習における連続最適化の新しいトレンドttic.uchicago.edu/~ryotat/talks/nectalk11.pdf · 機械学習における連続最適化の新しいトレンド 冨岡亮太1

. . . . . .

イントロ

行列穴埋め

部分的に観測された行列の未観測部分を低ランク性の仮定を使って予測する問題.⇒協調フィルタリング.

minimizeX

12∥Ω(X − Y )∥2 + λ

r∑j=1

σj(X )

︸ ︷︷ ︸特異値の線形和

.

Ωは見えている部分だけを取り出す操作.

−3 −2 −1 0 1 2 30

1

2

3

4

|x|0.01

|x|0.5

|x|x2

冨岡亮太 (東大) 9 / 66

Page 10: 機械学習における連続最適化の新しいトレンドttic.uchicago.edu/~ryotat/talks/nectalk11.pdf · 機械学習における連続最適化の新しいトレンド 冨岡亮太1

. . . . . .

イントロ

行列の空間上の判別問題

判別ラベル 予測関数

y ∈ −1, +1 ⇐ f (X ) = ⟨W , X ⟩ + b

Multivariate Time Series

s

Time

enso

rs

Second order statistics

Se

Second order statisticsSensors

5

10

15

20

25nsor

s

5 10 15 20 25 30 35 40 45

30

35

40

45

Sen

冨岡亮太 (東大) 10 / 66

Page 11: 機械学習における連続最適化の新しいトレンドttic.uchicago.edu/~ryotat/talks/nectalk11.pdf · 機械学習における連続最適化の新しいトレンド 冨岡亮太1

. . . . . .

イントロ

テンソルの穴埋め

S e n s o r s T i m eF eat uresF a c t o r s( l o a d i n g s )

C o r e( i n t e r a c t i o n s )I 1 I 2 I 3 I 1 I 2I 3r 1 r 2 r 3r 1 r 2 r 3

T u c k e r d e c o m p o s i t i o n

冨岡亮太 (東大) 11 / 66

Page 12: 機械学習における連続最適化の新しいトレンドttic.uchicago.edu/~ryotat/talks/nectalk11.pdf · 機械学習における連続最適化の新しいトレンド 冨岡亮太1

. . . . . .

イントロ

アジェンダ

(割と)簡単に微分不可能な最適化問題を解くテクニック

Prox作用素 (proximity operator)凸関数の共役 (Legendre変換)Operator splitting

冨岡亮太 (東大) 12 / 66

Page 13: 機械学習における連続最適化の新しいトレンドttic.uchicago.edu/~ryotat/talks/nectalk11.pdf · 機械学習における連続最適化の新しいトレンド 冨岡亮太1

. . . . . .

準備

Outline

.

. .1 イントロ

.

. .

2 準備

.

. .

3 手法 1: Prox作用素

.

. .

4 手法 2: Legendre変換

.

. .

5 手法 3: Operator Splitting

.

. .

6 まとめ

.

. .

7 Appendix

冨岡亮太 (東大) 13 / 66

Page 14: 機械学習における連続最適化の新しいトレンドttic.uchicago.edu/~ryotat/talks/nectalk11.pdf · 機械学習における連続最適化の新しいトレンド 冨岡亮太1

. . . . . .

準備

凸集合

Rn の部分集合 V は凸集合

⇔ V の任意の 2点 x , y を結ぶ線分が V に入っている.つまり

∀x , y ∈ V , ∀λ ∈ [0, 1], λx + (1 − λ)y ∈ V .

x

y

冨岡亮太 (東大) 14 / 66

Page 15: 機械学習における連続最適化の新しいトレンドttic.uchicago.edu/~ryotat/talks/nectalk11.pdf · 機械学習における連続最適化の新しいトレンド 冨岡亮太1

. . . . . .

準備

凸関数

関数 f : Rn → R ∪ +∞が(拡張値)凸関数

⇔関数 f の“弦”がつねに関数自身より上にある.つまり

∀x , y ∈ Rn, ∀λ ∈ [0, 1], f ((1 − λ)x + λy) ≤ (1 − λ)f (x) + λf (y)

# <が成り立つ場合を strictly convexと言う.

x

f(x)

y

f(y)1−λλ

冨岡亮太 (東大) 15 / 66

Page 16: 機械学習における連続最適化の新しいトレンドttic.uchicago.edu/~ryotat/talks/nectalk11.pdf · 機械学習における連続最適化の新しいトレンド 冨岡亮太1

. . . . . .

準備

拡張値凸関数 -なぜ+∞を許すか

f (x) = +∞を許すと定義域(or制約)を含めて扱える.例)1/x は x > 0で凸,

f (x) =

1/x (x > 0),

+∞ (otherwise).

と定義すればよい.

.

定義(定義関数)

.

.

.

. ..

.

.

凸集合 Cの定義関数 δC を以下のように定義する.

δC(x) =

0 (x ∈ C),

+∞ (otherwise).

このように定義した δC は凸関数.冨岡亮太 (東大) 16 / 66

Page 17: 機械学習における連続最適化の新しいトレンドttic.uchicago.edu/~ryotat/talks/nectalk11.pdf · 機械学習における連続最適化の新しいトレンド 冨岡亮太1

. . . . . .

準備

凸最適化問題

拡張値凸関数 f として

minimizex∈Rn

f (x).

制約付き問題

minimizex∈Rn

f (x) + δC(x).

正則化付き最小化問題

minimizex∈Rn

L(x) + φλ(x)︸ ︷︷ ︸=:f (x)

.

冨岡亮太 (東大) 17 / 66

Page 18: 機械学習における連続最適化の新しいトレンドttic.uchicago.edu/~ryotat/talks/nectalk11.pdf · 機械学習における連続最適化の新しいトレンド 冨岡亮太1

. . . . . .

手法 1: Prox 作用素

Outline

.

. .1 イントロ

.

. .

2 準備

.

. .

3 手法 1: Prox作用素

.

. .

4 手法 2: Legendre変換

.

. .

5 手法 3: Operator Splitting

.

. .

6 まとめ

.

. .

7 Appendix

冨岡亮太 (東大) 18 / 66

Page 19: 機械学習における連続最適化の新しいトレンドttic.uchicago.edu/~ryotat/talks/nectalk11.pdf · 機械学習における連続最適化の新しいトレンド 冨岡亮太1

. . . . . .

手法 1: Prox 作用素

Proximal Minimization (Rockafellar 76)

.

. .1 x0を適当に初期化する.

.

. .2 以下を繰り返す.

x t+1 = argminx

(f (x) +

12ηt

∥x − x t∥2)

良い点: f が凸関数であれば必ず収束.しかも速い(超 1次)

∥x t+1 − x∗∥ ≤ 11 + σηt

∥x t − x∗∥

(Tomioka et al. 11)悪い点: そもそも f (x)の最小化が難しい時,上の最小化を各ステップやるのはつらい.

冨岡亮太 (東大) 19 / 66

Page 20: 機械学習における連続最適化の新しいトレンドttic.uchicago.edu/~ryotat/talks/nectalk11.pdf · 機械学習における連続最適化の新しいトレンド 冨岡亮太1

. . . . . .

手法 1: Prox 作用素

勾配法

各ステップで f (x)を x t の周りで線形化して Proximal Minimizationする.

x t+1 = argminx

(∇f (x t)(x − x t) +

12ηt

∥x − x t∥2)

= x t − ηt∇f (x t)

安定性の条件: ηt ≤ 1/L(f ).L(f )は微分∇f のリプシッツ定数:

∥∇f (y) −∇f (x)∥ ≤ L(f )∥y − x∥.

f が 2階微分可能な場合は L(f )=ヘシアンの最大固有値の上限.

xtxt+1x*

冨岡亮太 (東大) 20 / 66

Page 21: 機械学習における連続最適化の新しいトレンドttic.uchicago.edu/~ryotat/talks/nectalk11.pdf · 機械学習における連続最適化の新しいトレンド 冨岡亮太1

. . . . . .

手法 1: Prox 作用素 0th Generation Prox Method

0G:射影付き勾配法 (Bertsekas 99; Nesterov 03)

目的関数を線形化,δC は束縛条件の定義関数,

x t+1 = argminx

(∇f (x t)(x − x t) + δC(x) +

12ηt

∥x − x t∥2)

= argminx

(δC(x) +

12ηt

∥x − (x t − ηt∇f (x t))∥2)

= projC(x t − ηt∇f (x t)).

安定性の条件は制約のない場合と同様: ηt ≤ 1/L(f ).収束の速さ

f (xk ) − f (x∗) ≤ L(f )∥x0 − x∗∥2

2k

もちろん射影 projC が効率的に計算できることが必要.

−2 −1.5 −1 −0.5 0 0.5 1 1.5 2−2

−1.5

−1

−0.5

0

0.5

1

1.5

2

冨岡亮太 (東大) 21 / 66

Page 22: 機械学習における連続最適化の新しいトレンドttic.uchicago.edu/~ryotat/talks/nectalk11.pdf · 機械学習における連続最適化の新しいトレンド 冨岡亮太1

. . . . . .

手法 1: Prox 作用素 1st Generation Prox Method

Proximal Operator: 射影の一般化

proxφλ(z) = argmin

x

(φλ(x) +

12∥x − z∥2

)

凸集合への射影: projC(z) = proxδC(z).

Soft-Threshold (φλ(x) = λ∥x∥1)

proxλ(z) = argminx

(λ∥x∥1 +

12∥x − z∥2

)

=

zj + λ (zj < −λ),

0 (−λ ≤ zj ≤ λ),

zj − λ (zj > λ).

λ−λ z

ST(z)

何らかの意味で分離可能な φλは Proxが簡単に計算できる.微分不可能でも解析的に計算できる.

冨岡亮太 (東大) 22 / 66

Page 23: 機械学習における連続最適化の新しいトレンドttic.uchicago.edu/~ryotat/talks/nectalk11.pdf · 機械学習における連続最適化の新しいトレンド 冨岡亮太1

. . . . . .

手法 1: Prox 作用素 1st Generation Prox Method

1G: Iterative Shrinkage Thresholding (IST)

x t+1 = argminx

(∇L(x t)(x − x t) + φλ(x) +

12ηt

∥x − x t∥2)

= argminx

(φλ(x) +

12ηt

∥x − (x t − ηt∇L(x t))∥2)

= proxληt(x t − ηt∇L(x t)).

安定性の条件,収束性は射影付き勾配法と同じ.(Beck & Teboulle 09)

f (xk ) − f (x∗) ≤ L(f )∥x0 − x∗∥2

2k

Prox作用素 proxλが計算できれば実装簡単.

Forward-Backward Splittingとも呼ばれる (Lions & Mercier 76)

冨岡亮太 (東大) 23 / 66

Page 24: 機械学習における連続最適化の新しいトレンドttic.uchicago.edu/~ryotat/talks/nectalk11.pdf · 機械学習における連続最適化の新しいトレンド 冨岡亮太1

. . . . . .

手法 1: Prox 作用素 1st Generation Prox Method

ISTを用いた行列穴埋め (Mazumder et al. 10)

ロス:

L(X ) =12∥Ω(X − Y )∥2.

微分:

∇L(X ) = Ω⊤(Ω(X − Y ))

正則化項:

φλ(X ) = λ

r∑j=1

σj(X ) (特異値の線形和).

Prox作用素 (Singular ValueThresholding):

proxλ(Z ) = U max(S − λI , 0)V⊤.反復式:

X t+1 = proxληt

((I − ηtΩ

⊤Ω)(X t) + ηtΩ⊤Ω(Y t)

)

ηt = 1の時,予測値で穴埋め,観測値で上書き,Soft-Thresholdかける,の繰り返し.冨岡亮太 (東大) 24 / 66

Page 25: 機械学習における連続最適化の新しいトレンドttic.uchicago.edu/~ryotat/talks/nectalk11.pdf · 機械学習における連続最適化の新しいトレンド 冨岡亮太1

. . . . . .

手法 1: Prox 作用素 2nd Generation Prox Method

FISTA: ISTの加速版 (Beck & Teboulle 09; Nesterov 07)

.

. .1 x0を適当に初期化,y1 = x0,s1 = 1とする.

.

. . 2 x t を更新:

x t = proxληt(y t − ηt∇L(y t)).

.

.

.

3 y t を更新:

y t+1 = x t +

(st − 1st+1

)(x t − x t−1),

ただし,st+1 =(1 +

√1 + 4s2

t)/

2.

ステップあたりの計算量は ISTとほぼ同じ.収束性はO(1/k2).どこの点で勾配ステップを取るべきか予測している感じ?

冨岡亮太 (東大) 25 / 66

Page 26: 機械学習における連続最適化の新しいトレンドttic.uchicago.edu/~ryotat/talks/nectalk11.pdf · 機械学習における連続最適化の新しいトレンド 冨岡亮太1

. . . . . .

手法 1: Prox 作用素 2nd Generation Prox Method

加速の効果

0 2000 4000 6000 8000 1000010-8

10-6

10-4

10-2

100

102

ISTAMTWISTFISTA

Without acceleration

With acceleration

反復数

Beck & Teboulle 2009 SIAM J. IMAGING SCIENCESVol. 2, No. 1, pp. 183-202より

冨岡亮太 (東大) 26 / 66

Page 27: 機械学習における連続最適化の新しいトレンドttic.uchicago.edu/~ryotat/talks/nectalk11.pdf · 機械学習における連続最適化の新しいトレンド 冨岡亮太1

. . . . . .

手法 1: Prox 作用素 3rd Generation Prox Method

3G?: もっとタイトな下限を作るアイディア

IST:x t+1 = argmin

x

(∇L(x t)(x − x t) + φλ(x) +

12ηt

∥x − x t∥2)

x tx t+1 x tx t+1

IST:現在の点 x t で下限を作る. DAL:次の点 x t+1で下限を作る.

冨岡亮太 (東大) 27 / 66

Page 28: 機械学習における連続最適化の新しいトレンドttic.uchicago.edu/~ryotat/talks/nectalk11.pdf · 機械学習における連続最適化の新しいトレンド 冨岡亮太1

. . . . . .

手法 1: Prox 作用素 3rd Generation Prox Method

次の点で下限を作るには?

下限の傾き y をパラメータとして最適化する:

x t+1 = argminx

(L(x) + φλ(x) +

12ηt

∥x − x t∥2)

= argminx

(max

y(⟨x , y⟩ − L∗(y)) + φλ(x) +

12ηt

∥x − x t∥2)

⇓ Minと Maxの順番を入れ替えて計算する

.

DAL (Tomioka et al 11)

.

.

.

. ..

.

.

x t+1 = proxληt

(x t − ηty t) ,

ただし,

y t = argmaxy

(−L∗(y) − 1

ηtΦ∗

ληt

(x t − ηty

))冨岡亮太 (東大) 28 / 66

Page 29: 機械学習における連続最適化の新しいトレンドttic.uchicago.edu/~ryotat/talks/nectalk11.pdf · 機械学習における連続最適化の新しいトレンド 冨岡亮太1

. . . . . .

手法 1: Prox 作用素 3rd Generation Prox Method

DALの利点 (ℓ1-正則化の場合)

(1) Prox作用素は解析的に計算可能

x t+1 = proxηtλ

(x t − ηty t)

(2)内部最適化は微分可能

y t = argmaxy

(−L∗(y)︸ ︷︷ ︸微分可能

− 12ηt

∥proxληt(x t − ηty)∥2︸ ︷︷ ︸

非ゼロ成分の数に比例

)

−λ 0 λ

φλ∗ (w) Φλ

∗ (w)

冨岡亮太 (東大) 29 / 66

Page 30: 機械学習における連続最適化の新しいトレンドttic.uchicago.edu/~ryotat/talks/nectalk11.pdf · 機械学習における連続最適化の新しいトレンド 冨岡亮太1

. . . . . .

手法 1: Prox 作用素 3rd Generation Prox Method

DALを用いた行列の空間上の判別問題

判別ラベル 予測関数

y ∈ −1, +1 ⇐ f (X ) = ⟨W , X ⟩ + b

Multivariate Time Series

s

Time

enso

rs

Second order statistics

Se

Second order statisticsSensors

5

10

15

20

25nsor

s

5 10 15 20 25 30 35 40 45

30

35

40

45

Sen

最適化問題:

minimizeW

m∑i=1

ℓLR(yi f (X i)) + λ ∥W∥tr︸ ︷︷ ︸低ランク化

ロジスティック損失:

ℓLR(zi) = log(1 + exp(−zi))

冨岡亮太 (東大) 30 / 66

Page 31: 機械学習における連続最適化の新しいトレンドttic.uchicago.edu/~ryotat/talks/nectalk11.pdf · 機械学習における連続最適化の新しいトレンド 冨岡亮太1

. . . . . .

手法 1: Prox 作用素 3rd Generation Prox Method

DALを用いた行列の空間上の判別問題 (Tomioka et al 10)

0 50 100 150

0.0001

0.001

0.01

0.1

1

CPU time (s)

Rel

ativ

e du

ality

gap

AGIPPGM−DAL

– AG:加速付き IST – IP:内点法– PG:射影勾配法 – M-DAL:提案法

冨岡亮太 (東大) 31 / 66

Page 32: 機械学習における連続最適化の新しいトレンドttic.uchicago.edu/~ryotat/talks/nectalk11.pdf · 機械学習における連続最適化の新しいトレンド 冨岡亮太1

. . . . . .

手法 2: Legendre 変換

Outline

.

. .1 イントロ

.

. .

2 準備

.

. .

3 手法 1: Prox作用素

.

. .

4 手法 2: Legendre変換

.

. .

5 手法 3: Operator Splitting

.

. .

6 まとめ

.

. .

7 Appendix

冨岡亮太 (東大) 32 / 66

Page 33: 機械学習における連続最適化の新しいトレンドttic.uchicago.edu/~ryotat/talks/nectalk11.pdf · 機械学習における連続最適化の新しいトレンド 冨岡亮太1

. . . . . .

手法 2: Legendre 変換

凸関数の作り方

線形関数の point-wise maximumは凸関数.

f (x) = maxi=1,...,k

(⟨ai , x⟩ − bi) .

冨岡亮太 (東大) 33 / 66

Page 34: 機械学習における連続最適化の新しいトレンドttic.uchicago.edu/~ryotat/talks/nectalk11.pdf · 機械学習における連続最適化の新しいトレンド 冨岡亮太1

. . . . . .

手法 2: Legendre 変換

凸共役 (Fenchel-Legendre変換)

f ∗(y) = supx∈Rn

(⟨y , x⟩ − f (x)) .

のように定義される f ∗を関数 f の凸共役と呼ぶ.

f(x)

f(x)=log(1+exp(−x))

f*(y)0−1

f*(−y)=ylog(y)+(1−y)log(1−y)

冨岡亮太 (東大) 34 / 66

Page 35: 機械学習における連続最適化の新しいトレンドttic.uchicago.edu/~ryotat/talks/nectalk11.pdf · 機械学習における連続最適化の新しいトレンド 冨岡亮太1

. . . . . .

手法 2: Legendre 変換

注意: f (x)は凸でなくてもよい

f (x)が凸関数であってもなくても f ∗(y)は凸関数.

f*(y)f(x)

冨岡亮太 (東大) 35 / 66

Page 36: 機械学習における連続最適化の新しいトレンドttic.uchicago.edu/~ryotat/talks/nectalk11.pdf · 機械学習における連続最適化の新しいトレンド 冨岡亮太1

. . . . . .

手法 2: Legendre 変換

凸共役の性質

定義より

∀x , y ∈ Rn, f (x) + f ∗(y) ≥ ⟨y , x⟩ .

x がある y に関して ⟨y , x⟩ − f (x)を最大化するならば

f ∗(y) = ⟨y , x⟩ − f (x).

つまり,

f (x) = f ∗∗(x) = supy

(⟨y , x⟩ − f ∗(y)) .

f(x)

f(x)=log(1+exp(−x))

f*(y)

f*(−y)=ylog(y)+(1−y)log(1−y)

−1

冨岡亮太 (東大) 36 / 66

Page 37: 機械学習における連続最適化の新しいトレンドttic.uchicago.edu/~ryotat/talks/nectalk11.pdf · 機械学習における連続最適化の新しいトレンド 冨岡亮太1

. . . . . .

手法 2: Legendre 変換

凸でない f の場合 f = f ∗∗

f(x)

f*(y)

f ∗が微分可能 ⇔ f が strictly convex.

冨岡亮太 (東大) 37 / 66

Page 38: 機械学習における連続最適化の新しいトレンドttic.uchicago.edu/~ryotat/talks/nectalk11.pdf · 機械学習における連続最適化の新しいトレンド 冨岡亮太1

. . . . . .

手法 2: Legendre 変換

Uzawa’s method (Dual ascent;双対分解)

最適化問題(あえて制約付き問題として書く):

minimizex∈Rn,z∈Rm

f (z) + g(x),

subject to z = Ax .

ラグランジアン:

L(x , z, α) = f (z) + g(x) + α⊤(z − Ax).

ラグランジアンの最小化は凸共役の計算

−f ∗(−α) = minz

(f (z) +

⟨αt , z

⟩),

−g∗(A⊤α) = minx

(g(x) −

⟨A⊤αt , x

⟩).

冨岡亮太 (東大) 38 / 66

Page 39: 機械学習における連続最適化の新しいトレンドttic.uchicago.edu/~ryotat/talks/nectalk11.pdf · 機械学習における連続最適化の新しいトレンド 冨岡亮太1

. . . . . .

手法 2: Legendre 変換

Uzawa’s method (Uzawa 58; Bertsekas 99)

ラグランジアンを x , z に関して最小化:z t+1 = argminz

(f (z) +

⟨αt , z

⟩),

x t+1 = argminx(g(x) −

⟨A⊤αt , x

⟩).

ラグランジュ乗数αt を更新:αt+1 = αt + ηt(z t+1 − Ax t+1).

ラグランジュ乗数の更新は双対での勾配法 (dual ascent)に対応良い点: シンプル!悪い点: 凸共役 f ∗, g∗が微分できないとき劣勾配法 (sub-gradient ascent)収束するの?

宇澤弘文

primal

dual

冨岡亮太 (東大) 39 / 66

Page 40: 機械学習における連続最適化の新しいトレンドttic.uchicago.edu/~ryotat/talks/nectalk11.pdf · 機械学習における連続最適化の新しいトレンド 冨岡亮太1

. . . . . .

手法 2: Legendre 変換

Uzawa’s methodを用いた行列穴埋め (Cai et al. 08)

minimizeX

12λ

∥z − y∥2︸ ︷︷ ︸Strictly convex

+(τ∥X∥tr +

12∥X∥2︸ ︷︷ ︸

Strictly convex

),

subject to Ω(X ) = z .

⇓ラグランジアン:

L(X , z ,α) =1

2λ∥z − y∥2︸ ︷︷ ︸=f (z)

+(τ∥X∥tr +

12∥X∥2︸ ︷︷ ︸

=g(x)

)+ α⊤(z − Ω(X )).

Uzawa’s method:X t+1 = proxτ

(Ω⊤(αt)

)(Singular-Value Thresholding)

z t+1 = y − λαt

αt+1 = αt + ηt(z t+1 − Ω(X t+1))

冨岡亮太 (東大) 40 / 66

Page 41: 機械学習における連続最適化の新しいトレンドttic.uchicago.edu/~ryotat/talks/nectalk11.pdf · 機械学習における連続最適化の新しいトレンド 冨岡亮太1

. . . . . .

手法 2: Legendre 変換

Uzawa’s methodを用いた行列穴埋め (Cai et al. 08)

minimizeX

12λ

∥z − y∥2︸ ︷︷ ︸Strictly convex

+(τ∥X∥tr +

12∥X∥2︸ ︷︷ ︸

Strictly convex

),

subject to Ω(X ) = z .

⇓ラグランジアン:

L(X , z ,α) =1

2λ∥z − y∥2︸ ︷︷ ︸=f (z)

+(τ∥X∥tr +

12∥X∥2︸ ︷︷ ︸

=g(x)

)+ α⊤(z − Ω(X )).

Uzawa’s method:X t+1 = proxτ

(Ω⊤(αt)

)(Singular-Value Thresholding)

z t+1 = y − λαt

αt+1 = αt + ηt(z t+1 − Ω(X t+1))

冨岡亮太 (東大) 40 / 66

Page 42: 機械学習における連続最適化の新しいトレンドttic.uchicago.edu/~ryotat/talks/nectalk11.pdf · 機械学習における連続最適化の新しいトレンド 冨岡亮太1

. . . . . .

手法 2: Legendre 変換

拡張ラグランジュ法 (Augmented Lagrangian Method)

拡張ラグランジアン

Lη(x , z , α) = f (z) + g(x) + α⊤(z − Ax) +η

2∥z − Ax∥2.

拡張ラグランジュ法:

拡張ラグランジアンを x , z に関して最小化:(x t+1, z t+1) = argmin

x∈Rn,z∈RmLηt (x , z, αt).

ラグランジュ乗数を更新:αt+1 = αt + ηt(z t+1 − Ax t+1).

良い点: ペナルティ項を追加(双対は必ず微分可能になる)悪い点: x と z の間に絡みが発生!(別々に最小化できない)

冨岡亮太 (東大) 41 / 66

Page 43: 機械学習における連続最適化の新しいトレンドttic.uchicago.edu/~ryotat/talks/nectalk11.pdf · 機械学習における連続最適化の新しいトレンド 冨岡亮太1

. . . . . .

手法 2: Legendre 変換

実は

拡張ラグランジュ法をまじめにやると双対側で ProximalMinimization

αt+1 = argminα∈Rm

(f ∗(−α) + g∗(A⊤α)︸ ︷︷ ︸双対目的関数の符号反転

+1

2ηt∥α − αt∥2

)

をやっているのと等価.

DAL (Dual Augmented Lagrangian)はその逆.拡張ラグランジュを不真面目に解くと双対側で色々な手法が出てくる.

冨岡亮太 (東大) 42 / 66

Page 44: 機械学習における連続最適化の新しいトレンドttic.uchicago.edu/~ryotat/talks/nectalk11.pdf · 機械学習における連続最適化の新しいトレンド 冨岡亮太1

. . . . . .

手法 2: Legendre 変換

対応関係

主問題 双対

厳密 拡張ラグランジアン Proximal MinimizationProximal Minimization DAL

近似 Alternating Minimization Al-gorithm

Forward-Backward Splitting(ISTと等価)

(Tseng 91)Alternating Direction Methodof Multipliers

Douglas-Rachford Splitting

(Gabay & Mercier 76) (Lions & Mercier 76)

冨岡亮太 (東大) 43 / 66

Page 45: 機械学習における連続最適化の新しいトレンドttic.uchicago.edu/~ryotat/talks/nectalk11.pdf · 機械学習における連続最適化の新しいトレンド 冨岡亮太1

. . . . . .

手法 2: Legendre 変換

Alternating Direction Method of Multipliers (ADMM;Gabay & Mercier 76)

拡張ラグランジアンを x に関して最小化:x t+1 = argmin

x∈RnLηt (x , z t , αt).

拡張ラグランジアンを z に関して最小化:z t+1 = argmin

z∈RmLηt (x

t+1, z , αt).

ラグランジュ乗数を更新:αt+1 = αt + ηt(z t+1 − Ax t+1).

今更新した x t+1が z t+1の計算に入っているところがポイント.

冨岡亮太 (東大) 44 / 66

Page 46: 機械学習における連続最適化の新しいトレンドttic.uchicago.edu/~ryotat/talks/nectalk11.pdf · 機械学習における連続最適化の新しいトレンド 冨岡亮太1

. . . . . .

手法 2: Legendre 変換

ADMM (Gabay & Mercier 76)

書き直すとx t+1 = argmin

x∈Rn

(g(x) +

ηt

2∥z t − Ax + αt/ηt∥2

)z t+1 = argmin

z∈Rm

(f (z) +

ηt

2∥z − Ax t+1 + αt/ηt∥2

)αt+1 = αt + ηt(z t+1 − Ax t+1).

z に関する最小化は Prox作用素 proxf(簡単).

x に関する最小化は行列 Aが変数を絡ませるのでちょっと難しい.1反復あたりのコストが同じなら FBSより明らかに速い(理論的には不明)

双対側での Douglas Rachford Splittingと等価⇒ステップサイズ ηによらず ADMMは安定.(Lions & Mercier 76; Eckstein & Bertsekas 92)

冨岡亮太 (東大) 45 / 66

Page 47: 機械学習における連続最適化の新しいトレンドttic.uchicago.edu/~ryotat/talks/nectalk11.pdf · 機械学習における連続最適化の新しいトレンド 冨岡亮太1

. . . . . .

手法 2: Legendre 変換

ADMM (Gabay & Mercier 76)

書き直すとx t+1 = argmin

x∈Rn

(g(x) +

ηt

2∥z t − Ax + αt/ηt∥2

)z t+1 = argmin

z∈Rm

(f (z) +

ηt

2∥z − Ax t+1 + αt/ηt∥2

)αt+1 = αt + ηt(z t+1 − Ax t+1).

z に関する最小化は Prox作用素 proxf(簡単).

x に関する最小化は行列 Aが変数を絡ませるのでちょっと難しい.1反復あたりのコストが同じなら FBSより明らかに速い(理論的には不明)

双対側での Douglas Rachford Splittingと等価⇒ステップサイズ ηによらず ADMMは安定.(Lions & Mercier 76; Eckstein & Bertsekas 92)

冨岡亮太 (東大) 45 / 66

Page 48: 機械学習における連続最適化の新しいトレンドttic.uchicago.edu/~ryotat/talks/nectalk11.pdf · 機械学習における連続最適化の新しいトレンド 冨岡亮太1

. . . . . .

手法 2: Legendre 変換

テンソルの穴埋め問題へのADMMの適用

凸最適化の適用のポイント: テンソルの行列化 (Matricization)テンソルが Tucker分解の意味で低ランク⇔そのテンソルの行列化は(行列の意味で)低ランク

I 1 I 2 I 3 I 1 I 2 I 2 I 2I 3

M o d e 1 u n f o l d i n g

I 1 I 2 I 3 I 2 I 3 I 3 I 3I 1

M o d e 2 u n f o l d i n gX(1)

X(2)

冨岡亮太 (東大) 46 / 66

Page 49: 機械学習における連続最適化の新しいトレンドttic.uchicago.edu/~ryotat/talks/nectalk11.pdf · 機械学習における連続最適化の新しいトレンド 冨岡亮太1

. . . . . .

手法 2: Legendre 変換

テンソルの穴埋め問題へのADMMの適用

数学的な定式化:

minimizex ,z1,...,zK∈RN

12λ

∥Ωx − y∥2 +K∑

k=1

γk ∥Z k∥tr︸ ︷︷ ︸低ランク化

,

subject to Pkx = zk (k = 1, . . . , K ),

x は推定すべきテンソルをベクトルとして書いたもの.y ∈ RM は観測.(M ≪ N = n1n2 · · · nK )ベクトル化,行列化は要素の並び替え(線形変換)に過ぎない.

Pk⊤Pk = I(置換は直交変換).

すべてのモードが同時に低ランクになるように正則化.

冨岡亮太 (東大) 47 / 66

Page 50: 機械学習における連続最適化の新しいトレンドttic.uchicago.edu/~ryotat/talks/nectalk11.pdf · 機械学習における連続最適化の新しいトレンド 冨岡亮太1

. . . . . .

手法 2: Legendre 変換

テンソルの穴埋め問題へのADMMの適用

拡張ラグランジアン

Lη(x , Z kKk=1, αkK

k=1) =1

2λ∥Ωx − y∥2 +

K∑k=1

γk∥Z k∥tr

+K∑

k=1

(αk

⊤(Pkx − zk ) +η

2∥Pkx − zk∥2

).

x に関する最小化 Pk が直交行列なので解析的にO(N)で計算可能.

Z k(zk を行列として並べたもの)に関する最小化はトレースノルムに関する Prox作用素.ラグランジュ乗数ベクトルは制約の数(モードの数)だけ必要.

冨岡亮太 (東大) 48 / 66

Page 51: 機械学習における連続最適化の新しいトレンドttic.uchicago.edu/~ryotat/talks/nectalk11.pdf · 機械学習における連続最適化の新しいトレンド 冨岡亮太1

. . . . . .

手法 2: Legendre 変換

テンソル結果 1: 予測精度

0 0.1 0.2 0.3 0.4 0.5 0.6 0.7 0.8 0.9 1

10−4

10−2

100

102

Fraction of observed elements

Gen

eral

izat

ion

erro

r

As a Matrix (mode 1)As a Matrix (mode 2)As a Matrix (mode 3)ConstraintMixtureTucker (large)Tucker (exact)Optimization tolerance

提案手法 Constraintは 35%くらい見えればほぼ完璧に予測可能.ランクを前もって決める必要なし.既存手法 Tucker(EMアルゴリズム)はランクが合っていればOK.ランクが間違っていると汎化誤差が収束しない.

冨岡亮太 (東大) 49 / 66

Page 52: 機械学習における連続最適化の新しいトレンドttic.uchicago.edu/~ryotat/talks/nectalk11.pdf · 機械学習における連続最適化の新しいトレンド 冨岡亮太1

. . . . . .

手法 2: Legendre 変換

テンソル結果 2: 計算速度

0 0.1 0.2 0.3 0.4 0.5 0.6 0.7 0.8 0.9 10

10

20

30

40

50

Fraction of observed elements

Com

puta

tion

time

(s)

As a MatrixConstraintMixtureTucker (large)Tucker (exact)

しかも凸最適化は速い! (Tomioka et al. 10)

冨岡亮太 (東大) 50 / 66

Page 53: 機械学習における連続最適化の新しいトレンドttic.uchicago.edu/~ryotat/talks/nectalk11.pdf · 機械学習における連続最適化の新しいトレンド 冨岡亮太1

. . . . . .

手法 3: Operator Splitting

Outline

.

. .1 イントロ

.

. .

2 準備

.

. .

3 手法 1: Prox作用素

.

. .

4 手法 2: Legendre変換

.

. .

5 手法 3: Operator Splitting

.

. .

6 まとめ

.

. .

7 Appendix

冨岡亮太 (東大) 51 / 66

Page 54: 機械学習における連続最適化の新しいトレンドttic.uchicago.edu/~ryotat/talks/nectalk11.pdf · 機械学習における連続最適化の新しいトレンド 冨岡亮太1

. . . . . .

手法 3: Operator Splitting

凸最適化⇔方程式のゼロ点

.

最小化問題

.

.

.

. ..

.

.

minx

f (x) + g(x).

.

方程式のゼロ点

.

.

.

. ..

.

.

Find x such that

(Tf + Tg)(x) ∋ 0,

whereTf = ∂f ,Tg = ∂g (劣微分作用素).

例 (Prox作用素):

x = proxf (z) = argminx ′∈Rn

(f (x ′) +

12∥x ′ − z∥2

)⇔ Tf (x) + (x − z) ∋ 0

⇔ proxf (z) = (I + Tf )−1(z)

冨岡亮太 (東大) 52 / 66

Page 55: 機械学習における連続最適化の新しいトレンドttic.uchicago.edu/~ryotat/talks/nectalk11.pdf · 機械学習における連続最適化の新しいトレンド 冨岡亮太1

. . . . . .

手法 3: Operator Splitting

凸最適化⇔方程式のゼロ点

.

最小化問題

.

.

.

. ..

.

.

minx

f (x) + g(x).

.

方程式のゼロ点

.

.

.

. ..

.

.

Find x such that

(Tf + Tg)(x) ∋ 0,

whereTf = ∂f ,Tg = ∂g (劣微分作用素).

例 (Prox作用素):

x = proxf (z) = argminx ′∈Rn

(f (x ′) +

12∥x ′ − z∥2

)⇔ Tf (x) + (x − z) ∋ 0

⇔ proxf (z) = (I + Tf )−1(z)

冨岡亮太 (東大) 52 / 66

Page 56: 機械学習における連続最適化の新しいトレンドttic.uchicago.edu/~ryotat/talks/nectalk11.pdf · 機械学習における連続最適化の新しいトレンド 冨岡亮太1

. . . . . .

手法 3: Operator Splitting

Forward-Backward Splitting (⇔ IST) (Lions & Mercier 76)

minimizex

f (x) + g(x)

⇔ find x Tf (x) + Tg(x) ∋ 0⇔ find x ηTf (x) + ηTg(x) ∋ 0⇔ find x x + ηTf (x) ∋ x − ηTg(x)

⇔ find x (I + ηTf )(x) = (x − ηTg(x))

⇔ find x x = proxηf (x − ηTg(x))

⇓反復式:

x t+1 = proxηt f (xt − ηt∇g(x t))

Douglas Rachford Splittingも同様の方法で導出できる(複雑すぎるので省略)冨岡亮太 (東大) 53 / 66

Page 57: 機械学習における連続最適化の新しいトレンドttic.uchicago.edu/~ryotat/talks/nectalk11.pdf · 機械学習における連続最適化の新しいトレンド 冨岡亮太1

. . . . . .

手法 3: Operator Splitting

Forward-Backward Splitting (⇔ IST) (Lions & Mercier 76)

minimizex

f (x) + g(x)

⇔ find x Tf (x) + Tg(x) ∋ 0⇔ find x ηTf (x) + ηTg(x) ∋ 0⇔ find x x + ηTf (x) ∋ x − ηTg(x)

⇔ find x (I + ηTf )(x) = (x − ηTg(x))

⇔ find x x = proxηf (x − ηTg(x))

⇓反復式:

x t+1 = proxηt f (xt − ηt∇g(x t))

Douglas Rachford Splittingも同様の方法で導出できる(複雑すぎるので省略)冨岡亮太 (東大) 53 / 66

Page 58: 機械学習における連続最適化の新しいトレンドttic.uchicago.edu/~ryotat/talks/nectalk11.pdf · 機械学習における連続最適化の新しいトレンド 冨岡亮太1

. . . . . .

手法 3: Operator Splitting

Forward-Backward Splitting (⇔ IST) (Lions & Mercier 76)

minimizex

f (x) + g(x)

⇔ find x Tf (x) + Tg(x) ∋ 0⇔ find x ηTf (x) + ηTg(x) ∋ 0⇔ find x x + ηTf (x) ∋ x − ηTg(x)

⇔ find x (I + ηTf )(x) = (x − ηTg(x))

⇔ find x x = proxηf (x − ηTg(x))

⇓反復式:

x t+1 = proxηt f (xt − ηt∇g(x t))

Douglas Rachford Splittingも同様の方法で導出できる(複雑すぎるので省略)冨岡亮太 (東大) 53 / 66

Page 59: 機械学習における連続最適化の新しいトレンドttic.uchicago.edu/~ryotat/talks/nectalk11.pdf · 機械学習における連続最適化の新しいトレンド 冨岡亮太1

. . . . . .

手法 3: Operator Splitting

Forward-Backward Splitting (⇔ IST) (Lions & Mercier 76)

minimizex

f (x) + g(x)

⇔ find x Tf (x) + Tg(x) ∋ 0⇔ find x ηTf (x) + ηTg(x) ∋ 0⇔ find x x + ηTf (x) ∋ x − ηTg(x)

⇔ find x (I + ηTf )(x) = (x − ηTg(x))

⇔ find x x = proxηf (x − ηTg(x))

⇓反復式:

x t+1 = proxηt f (xt − ηt∇g(x t))

Douglas Rachford Splittingも同様の方法で導出できる(複雑すぎるので省略)冨岡亮太 (東大) 53 / 66

Page 60: 機械学習における連続最適化の新しいトレンドttic.uchicago.edu/~ryotat/talks/nectalk11.pdf · 機械学習における連続最適化の新しいトレンド 冨岡亮太1

. . . . . .

手法 3: Operator Splitting

Forward-Backward Splitting (⇔ IST) (Lions & Mercier 76)

minimizex

f (x) + g(x)

⇔ find x Tf (x) + Tg(x) ∋ 0⇔ find x ηTf (x) + ηTg(x) ∋ 0⇔ find x x + ηTf (x) ∋ x − ηTg(x)

⇔ find x (I + ηTf )(x) = (x − ηTg(x))

⇔ find x x = proxηf (x − ηTg(x))

⇓反復式:

x t+1 = proxηt f (xt − ηt∇g(x t))

Douglas Rachford Splittingも同様の方法で導出できる(複雑すぎるので省略)冨岡亮太 (東大) 53 / 66

Page 61: 機械学習における連続最適化の新しいトレンドttic.uchicago.edu/~ryotat/talks/nectalk11.pdf · 機械学習における連続最適化の新しいトレンド 冨岡亮太1

. . . . . .

手法 3: Operator Splitting

Forward-Backward Splitting (⇔ IST) (Lions & Mercier 76)

minimizex

f (x) + g(x)

⇔ find x Tf (x) + Tg(x) ∋ 0⇔ find x ηTf (x) + ηTg(x) ∋ 0⇔ find x x + ηTf (x) ∋ x − ηTg(x)

⇔ find x (I + ηTf )(x) = (x − ηTg(x))

⇔ find x x = proxηf (x − ηTg(x))

⇓反復式:

x t+1 = proxηt f (xt − ηt∇g(x t))

Douglas Rachford Splittingも同様の方法で導出できる(複雑すぎるので省略)冨岡亮太 (東大) 53 / 66

Page 62: 機械学習における連続最適化の新しいトレンドttic.uchicago.edu/~ryotat/talks/nectalk11.pdf · 機械学習における連続最適化の新しいトレンド 冨岡亮太1

. . . . . .

手法 3: Operator Splitting

Forward-Backward Splitting (⇔ IST) (Lions & Mercier 76)

minimizex

f (x) + g(x)

⇔ find x Tf (x) + Tg(x) ∋ 0⇔ find x ηTf (x) + ηTg(x) ∋ 0⇔ find x x + ηTf (x) ∋ x − ηTg(x)

⇔ find x (I + ηTf )(x) = (x − ηTg(x))

⇔ find x x = proxηf (x − ηTg(x))

⇓反復式:

x t+1 = proxηt f (xt − ηt∇g(x t))

Douglas Rachford Splittingも同様の方法で導出できる(複雑すぎるので省略)冨岡亮太 (東大) 53 / 66

Page 63: 機械学習における連続最適化の新しいトレンドttic.uchicago.edu/~ryotat/talks/nectalk11.pdf · 機械学習における連続最適化の新しいトレンド 冨岡亮太1

. . . . . .

まとめ

Outline

.

. .1 イントロ

.

. .

2 準備

.

. .

3 手法 1: Prox作用素

.

. .

4 手法 2: Legendre変換

.

. .

5 手法 3: Operator Splitting

.

. .

6 まとめ

.

. .

7 Appendix

冨岡亮太 (東大) 54 / 66

Page 64: 機械学習における連続最適化の新しいトレンドttic.uchicago.edu/~ryotat/talks/nectalk11.pdf · 機械学習における連続最適化の新しいトレンド 冨岡亮太1

. . . . . .

まとめ

メッセージ

ブラックボックス最適化から中身を考慮した最適化へ

微分不可能でも怖くない

Prox作用素や凸共役を計算しよう

冨岡亮太 (東大) 55 / 66

Page 65: 機械学習における連続最適化の新しいトレンドttic.uchicago.edu/~ryotat/talks/nectalk11.pdf · 機械学習における連続最適化の新しいトレンド 冨岡亮太1

. . . . . .

Appendix

Outline

.

. .1 イントロ

.

. .

2 準備

.

. .

3 手法 1: Prox作用素

.

. .

4 手法 2: Legendre変換

.

. .

5 手法 3: Operator Splitting

.

. .

6 まとめ

.

. .

7 Appendix

冨岡亮太 (東大) 56 / 66

Page 66: 機械学習における連続最適化の新しいトレンドttic.uchicago.edu/~ryotat/talks/nectalk11.pdf · 機械学習における連続最適化の新しいトレンド 冨岡亮太1

. . . . . .

Appendix

凸共役の性質 (contd.)

凸共役(Legendre変換)と畳み込み:

(f + g)∗(y) = infα

(f ∗(y − α) + g∗(α)) .

最小化と凸共役:

infx

f (x) = − supx

(⟨0, x⟩ − f (x)) = −f ∗(0).

Fenchel双対:

infx

(f (x) + g(x)) = −(f + g)∗(0) = supα

(−f ∗(−α) − g∗(α)) .

冨岡亮太 (東大) 57 / 66

Page 67: 機械学習における連続最適化の新しいトレンドttic.uchicago.edu/~ryotat/talks/nectalk11.pdf · 機械学習における連続最適化の新しいトレンド 冨岡亮太1

. . . . . .

Appendix

凸共役の性質 (contd.)

凸共役(Legendre変換)と畳み込み:

(f + g)∗(y) = infα

(f ∗(y − α) + g∗(α)) .

最小化と凸共役:

infx

f (x) = − supx

(⟨0, x⟩ − f (x)) = −f ∗(0).

Fenchel双対:

infx

(f (x) + g(x)) = −(f + g)∗(0) = supα

(−f ∗(−α) − g∗(α)) .

冨岡亮太 (東大) 57 / 66

Page 68: 機械学習における連続最適化の新しいトレンドttic.uchicago.edu/~ryotat/talks/nectalk11.pdf · 機械学習における連続最適化の新しいトレンド 冨岡亮太1

. . . . . .

Appendix

凸共役の性質 (contd.)

凸共役(Legendre変換)と畳み込み:

(f + g)∗(y) = infα

(f ∗(y − α) + g∗(α)) .

最小化と凸共役:

infx

f (x) = − supx

(⟨0, x⟩ − f (x)) = −f ∗(0).

Fenchel双対:

infx

(f (x) + g(x)) = −(f + g)∗(0) = supα

(−f ∗(−α) − g∗(α)) .

冨岡亮太 (東大) 57 / 66

Page 69: 機械学習における連続最適化の新しいトレンドttic.uchicago.edu/~ryotat/talks/nectalk11.pdf · 機械学習における連続最適化の新しいトレンド 冨岡亮太1

. . . . . .

Appendix

Fenchel双対定理

infx

(f (Ax) + g(x)) = supα

(−f ∗(−α) − g∗(A⊤α)

).

等式制約付き最適化問題

minimizex∈Rn,z∈Rm

f (z) + g(x),

subject to Ax = z

の双対問題として導出できる.(http://www.ibis.t.u-tokyo.ac.jp/RyotaTomioka/Notes/DerivingDual)

凸共役の一覧表があれば機械的に双対問題を作れる点が美味しい.

冨岡亮太 (東大) 58 / 66

Page 70: 機械学習における連続最適化の新しいトレンドttic.uchicago.edu/~ryotat/talks/nectalk11.pdf · 機械学習における連続最適化の新しいトレンド 冨岡亮太1

. . . . . .

Appendix

Fenchel双対の例 (1): SVM

.

主問題

.

.

.

. ..

.

.

minw

f (y Xw) + φλ(x)f (z) =

m∑i=1

max(0, 1 − zi),

φλ(x) =λ

2∥x∥2.

.

双対問題

.

.

.

. ..

.

.

maxα

−f ∗(−α) − φ∗λ(X⊤(α y))

f ∗(−α)=

∑mi=1 −αi (0 ≤ α ≤ 1),

+∞ (oterwise),

φ∗λ(v) =

12λ

∥v∥2.

冨岡亮太 (東大) 59 / 66

Page 71: 機械学習における連続最適化の新しいトレンドttic.uchicago.edu/~ryotat/talks/nectalk11.pdf · 機械学習における連続最適化の新しいトレンド 冨岡亮太1

. . . . . .

Appendix

Fenchel双対の例 (2): 正則化付きロジスティック回帰 (Jaakkola & Haussler 99)

.

主問題

.

.

.

. ..

.

.

minw

f (y Xw) + φλ(x)f (z) =

m∑i=1

log(1 + exp(−zi)),

φλ(x) =λ

2∥x∥2.

.

双対問題

.

.

.

. ..

.

.

maxα

−f ∗(−α) − φ∗λ(X⊤(α y))

f ∗(−α)=m∑

i=1

αi log(αi)

+(1 − αi) log(1 − αi),

φ∗λ(v) =

12λ

∥v∥2,

(a) primal losses

O 1

Hinge LossLogistic Loss

(b) dual losses

O 1

Hinge LossLogistic Loss

冨岡亮太 (東大) 60 / 66

Page 72: 機械学習における連続最適化の新しいトレンドttic.uchicago.edu/~ryotat/talks/nectalk11.pdf · 機械学習における連続最適化の新しいトレンド 冨岡亮太1

. . . . . .

Appendix

Fenchel双対の例 (3): 線形計画

.

主問題

.

.

.

. ..

.

.

(P) min c⊤x ,

s.t. Ax = b, x ≥ 0.

.

主問題’

.

.

.

. ..

.

.

(P′) minx

f (Ax) + g(x)f (z) =

0 (z = b),

+∞ (otherwise),

g(x) =

c⊤x (x ≥ 0),

+∞ (otehrwise).

.

双対問題

.

.

.

. ..

.

.

(D) max b⊤y ,

s.t. A⊤y ≤ c.

.

双対問題’

.

.

.

. ..

.

.

(D′) maxy

−f (−y) − g(A⊤y)f ∗(y) = b⊤y ,

g∗(α) =

0 (α ≤ c),

+∞ (oterwise).

冨岡亮太 (東大) 61 / 66

Page 73: 機械学習における連続最適化の新しいトレンドttic.uchicago.edu/~ryotat/talks/nectalk11.pdf · 機械学習における連続最適化の新しいトレンド 冨岡亮太1

. . . . . .

Appendix

凸じゃない最適化は?

一般的に対処するのは困難基本的な方針は凸最適化を繰り返し解くこと

EMDifference of Convex (DC) programmingCCCP

冨岡亮太 (東大) 62 / 66

Page 74: 機械学習における連続最適化の新しいトレンドttic.uchicago.edu/~ryotat/talks/nectalk11.pdf · 機械学習における連続最適化の新しいトレンド 冨岡亮太1

. . . . . .

Appendix

文献

全体的なまとめ

Tomioka, Suzuki, & Sugiyama (2011) Augmented Lagrangian Methodsfor Learning, Selecting, and Combining Features. In Sra, Nowozin,Wright., editors, Optimization for Machine Learning, MIT Press.

Combettes & Pesquet (2010) Proximal splitting methods in signalprocessing. In Fixed-Point Algorithms for Inverse Problems in Scienceand Engineering. Springer-Verlag.

Boyd, Parikh, Peleato, & Eckstein (2010) Distributed optimization andstatistical learning via the alternating direction method of multipliers.

教科書

Rockafellar (1970) Convex Analysis. Princeton University Press.

Bertsekas (1999) Nonlinear Programming. Athena Scientific.

Nesterov (2003) Introductory Lectures on Convex Optimization: A BasicCourse. Springer.

冨岡亮太 (東大) 63 / 66

Page 75: 機械学習における連続最適化の新しいトレンドttic.uchicago.edu/~ryotat/talks/nectalk11.pdf · 機械学習における連続最適化の新しいトレンド 冨岡亮太1

. . . . . .

Appendix

文献

Proximal Point Algorithm/Augmented Lagrangian

Arrow, Hurwicz, & Uzawa (1958) Studies in Linear and Non-LinearProgramming. Stanford University Press.

Moreau (1965) Proximité et dualité dans un espace Hilbertien. Bul letinde la S. M. F.

Rockafellar (1976) Monotone operators and the proximal point algorithm.SIAM J Control Optim 14, 877–898.

Bertsekas (1982) Constrained Optimization and Lagrange MultiplierMethods. Academic Press.

Tomioka, Suzuki, & Sugiyama (2011) Super-Linear Convergence of DualAugmented Lagrangian Algorithm for Sparse Learning. Arxiv:0911.4046.

IST/FISTA

Nesterov (2007) Gradient Methods for Minimizing Composite ObjectiveFunction.

Beck & Teboulle (2009) A Fast Iterative Shrinkage-ThresholdingAlgorithm for Linear Inverse Problems. SIAM J Imag Sci 2, 183–202.冨岡亮太 (東大) 64 / 66

Page 76: 機械学習における連続最適化の新しいトレンドttic.uchicago.edu/~ryotat/talks/nectalk11.pdf · 機械学習における連続最適化の新しいトレンド 冨岡亮太1

. . . . . .

Appendix

文献

Operator Splitting

Lions & Mercier (1976) Splitting Algorithms for the Sum of Two NonlinearOperators. SIAM J Numer Anal 16, 964–979.

Gabay & Mercier (1976) A dual algorithm for the solution of nonlinearvariational problems via finite element approximation. Comput MathAppl 2, 17–40.

Eckstein & Bertsekas (1992) On the Douglas-Rachford splitting methodand the proximal point algorithm for maximal monotone operators.

マルチタスク/マルチカーネル

Evgeniou, Micchelli, & Pontil (2005) Learning Multiple Tasks with KernelMethods. JMLR 6, 615–637.

Bach, Thibaux, & Jordan (2005) Computing regularization paths forlearning multiple kernels. Advances in NIPS, 73–80.

Suzuki & Tomioka (2009) SpicyMKL. Arxiv:0909.5026.

冨岡亮太 (東大) 65 / 66

Page 77: 機械学習における連続最適化の新しいトレンドttic.uchicago.edu/~ryotat/talks/nectalk11.pdf · 機械学習における連続最適化の新しいトレンド 冨岡亮太1

. . . . . .

Appendix

文献

行列/テンソル

Srebro, Rennie, & Jaakkola (2005) Maximum-Margin MatrixFactorization. Advances in NIPS 17, 1329–1336.

Cai, Candès, & Shen (2008) A singular value thresholding algorithm formatrix completion.

Tomioka, Suzuki, Sugiyama, & Kashima (2010) A Fast AugmentedLagrangian Algorithm for Learning Low-Rank Matrices. In ICML 2010.

Tomioka, Hayashi, & Kashima (2010) On the extension of trace norm totensors. ArXiv:1010.0789.

Mazumder, Hastie, & Tibshirani (2010) Spectral RegularizationAlgorithms for Learning Large Incomplete Matrices. JMLR 11,2287–2322.

冨岡亮太 (東大) 66 / 66