9
Censoring Representation with Adversary D3岩澤

[Dl輪読会]Censoring Representation with Adversary

Embed Size (px)

Citation preview

Page 1: [Dl輪読会]Censoring Representation with Adversary

Censoring Representation with Adversary

D3岩澤

Page 2: [Dl輪読会]Censoring Representation with Adversary

書誌情報

• ICLR2016

• Harrison Edwards & Amos Storkey

•エディンバラ大学

• Citation:1

•余談:5月にアップデートされて文がだいぶ読みやすくなってる

Page 3: [Dl輪読会]Censoring Representation with Adversary

概要

• GANで利用されているAdversarial Trainingを画像生成以外に使う

•具体的には,表現に含まれるべきでない情報を取り出す

•含まれるべきでない例:• Fairness:黒人/白人という情報で推薦結果を変えない

• Image Anonymization:画像中に含まれる住所や氏名を消したい

Page 4: [Dl輪読会]Censoring Representation with Adversary

Fairness, Image Anonymizationの難しさ

•例えば黒人/白人に依存しない推薦結果を与えたい場合を考える

•この時、特徴にある黒人/白人という特徴量を落とせば一見良さそうだがそれでは不十分

•なぜなら、他の特徴量が黒人、白人に関する情報量を持ってる可能性があるから

•素性が、黒人/白人に依存しないようにする必要がある

Page 5: [Dl輪読会]Censoring Representation with Adversary

Fairness, Image Anonymizationの難しさ2

•データの価値とFairness/プライバシーは究極的に対立する

•画像から機微情報を消したい場合

•究極的には入力に依存しない特徴量を返す関数fを使えば機微情報は消える

•がデータの価値も同時に損なわれる

•データの価値とプライバシー保護のバランスをとることが大事

Page 6: [Dl輪読会]Censoring Representation with Adversary

提案手法

•上を最適化

•再構築誤差とクラス分類誤差は普通の誤差なのでFairness/Privacyを説明する

•以降Sとしては2値を考える• 例:黒人か白人か、機微情報を含むか含まないか

再構築誤差 Fairness/Privacy クラス分類誤差

Page 7: [Dl輪読会]Censoring Representation with Adversary

D(S,R)の学習: Adversarial Training

Page 8: [Dl輪読会]Censoring Representation with Adversary

アルゴリズム全体

Page 9: [Dl輪読会]Censoring Representation with Adversary

•興味持った方は,結果などは論文を参照したください!

• https://arxiv.org/abs/1511.05897