32
視視 × 視視視視視視 東東東東 東東東東東東東東東東東東 東東 東東 losnueveto ros

視覚×言語の最前線(ステアラボ人工知能シンポジウム2017)

Embed Size (px)

Citation preview

Page 1: 視覚×言語の最前線(ステアラボ人工知能シンポジウム2017)

視覚 × 言語の最前線

東京大学 大学院情報理工学系研究科牛久 祥孝losnuevetoros

Page 2: 視覚×言語の最前線(ステアラボ人工知能シンポジウム2017)

画像キャプション生成

A giraffe standing next to a tree in a fence.

A yellow train on the tracks near a train station.

A dog laying on the side of a zoo enclosure.

With a cat laying on top of a laptop computer.

A man in the beach with a surfboard. Black and white dog on the grass in a frisbee.

[Ushiku+, ICCV 2015]

Page 3: 視覚×言語の最前線(ステアラボ人工知能シンポジウム2017)

キャプションからの画像生成

This bird is blue with white and has a very short beak.

( この鳥は白の入った青色で、とても短いくちばしをもっています。 )

This flower is white and yellow in color, with petals that are wavy and smooth.

( この花は白と黄色で、波打った滑らかな花びらをもっています。 )

[Zhang+, 2016]

Page 4: 視覚×言語の最前線(ステアラボ人工知能シンポジウム2017)

ビジュアル質問応答[Fukui+, EMNLP 2016]

Page 5: 視覚×言語の最前線(ステアラボ人工知能シンポジウム2017)

今日の講演

• 先程までの例は最近の結果1. 画像キャプション生成2. キャプションからの画像生成3. ビジュアル質問応答

• 本講演:これらの分野の重要な 3 論文を紹介1. Every Picture Tells a Story:

Generating Sentences from Images[Farhadi+, ECCV 2010]

2. Generative Adversarial Text to Image Synthesis[Reed+, ICML 2016]

3. VQA: Visual Question Answering[Antol+, ICCV 2015]

Page 6: 視覚×言語の最前線(ステアラボ人工知能シンポジウム2017)

自己紹介~2014.3 博士 (情報理工学 )、東京大学

• 画像キャプション生成

• 大規模画像認識

2014.4~2016.3 NTT コミュニケーション科学基礎研究所研究員

2016.4~ 東京大学 大学院情報理工学系研究科知能機械情報学専攻 講師 (原田・牛久研究室 )

Page 7: 視覚×言語の最前線(ステアラボ人工知能シンポジウム2017)

こっそり (?) 宣伝

• コンピュータビジョン勉強会@関東– Computer Vision についての勉強会

輪読、論文読み会、 LT–参加者の大半は社会人–当然学生も歓迎

• MIRU2017 若手プログラム– 2017 年 8 月 7 日~ 8 月 11 日@広島–画像の認識・理解シンポジウム( MIRU )内開

催–若手同士で「研究の立ち上げ」

Page 8: 視覚×言語の最前線(ステアラボ人工知能シンポジウム2017)

論文 1Every Picture Tells a Story: Generating Sentences from Images[Farhadi+, ECCV 2010]

Page 9: 視覚×言語の最前線(ステアラボ人工知能シンポジウム2017)

この論文のどこがすごいか?

• 世界初の画像キャプション生成論文–データセットの提供–既存手法がない中でパイプラインを提案

• 深層学習の流行より前の研究「画像から文章を作成する技術の実現性は、ディープラーニングの登場前、想像すらされていませんでした。」 [ 武井 , 2016] といった記述は誤り

Page 10: 視覚×言語の最前線(ステアラボ人工知能シンポジウム2017)

データセットの収集

• PASCAL Sentence Dataset の提供– 1000 枚の画像、 5 キャプション / 画像– キャプションは Amazon Mechanical Turk (AMT) で

収集

• その後のより大規模なデータセットのお手本に– Flickr 8k/30k

それぞれ 8000/30000 枚の画像、 5 キャプション / 画像

– Abstract Scene Dataset [Zitnick+Parikh, CVPR 2013]10000 枚のクリップアート、 6 キャプション / 画像

– MS COCO [Lin+, 2014]10 万超の画像、 5 キャプション / 画像

One jet lands at an airport while another takes off next to it.Two airplanes parked in an airport.Two jets taxi past each other.Two parked jet airplanes facing opposite directions.two passenger planes on a grassy plain

Page 11: 視覚×言語の最前線(ステアラボ人工知能シンポジウム2017)

パイプライン

既存キャプション再利用アプローチ

0. データセットの画像+キャプションに <object, action, scene> を手作業で付与1. 画像の <object, action, scene> を MRF で推定

2. <object, action, scene> が同じキャプションを 検索して利用

<Horse, Ride, Field>

Page 12: 視覚×言語の最前線(ステアラボ人工知能シンポジウム2017)

キャプション生成結果の例

Page 13: 視覚×言語の最前線(ステアラボ人工知能シンポジウム2017)

その後の展開

• 2 大アプローチが台頭–既存キャプションの検索アプローチ

本論文はこちらに分類される–新規キャプションの生成アプローチ

画像認識技術と機械翻訳技術の融合

• ディープラーニングによる流行–画像認識–機械翻訳が深層学習で実現可能に→参入障壁が低下 Google NIC [Vinyals+, CVPR 2015]

Page 14: 視覚×言語の最前線(ステアラボ人工知能シンポジウム2017)

論文 2Generative Adversarial Text to Image Synthesis[Reed+, ICML 2016]

Page 15: 視覚×言語の最前線(ステアラボ人工知能シンポジウム2017)

この論文のどこがすごいか?

文から鮮明な画像の生成を実現↑難しいタスク (下は [Mansimov+, ICLR 2016] の例)

※ 画像補完なら既にある [Hays+Efros, SIGGRAPH 2007]

Page 16: 視覚×言語の最前線(ステアラボ人工知能シンポジウム2017)

文からの画像生成=条件つき生成

まずは…Generative Adversarial Networks (GAN)[Goodfellow+, NIPS 2014]• 条件を持たない生成学習手法• Generator と Discriminator の敵対的学習

• 畳込み層をもつ場合… DCGAN [Radford+, ICLR 2016]

Generator乱数から画像を生成

Discriminator実画像と生成画像を見分ける

      はお前が生成したな!

Page 17: 視覚×言語の最前線(ステアラボ人工知能シンポジウム2017)

文からの画像生成=条件つき生成

まずは…Generative Adversarial Networks (GAN)[Goodfellow+, NIPS 2014]• 条件を持たない生成学習手法• Generator と Discriminator の敵対的学習

• 畳込み層をもつ場合… DCGAN [Radford+, ICLR 2016]

Generator乱数から画像を生成

Discriminator実画像と生成画像を見分ける

      はお前が生成したな!

Page 18: 視覚×言語の最前線(ステアラボ人工知能シンポジウム2017)

文からの画像生成=条件つき生成

まずは…Generative Adversarial Networks (GAN)[Goodfellow+, NIPS 2014]• 条件を持たない生成学習手法• Generator と Discriminator の敵対的学習

• 畳込み層をもつ場合… DCGAN [Radford+, ICLR 2016]

Generator乱数から画像を生成

Discriminator実画像と生成画像を見分ける

      はお前が生成したな!

Page 19: 視覚×言語の最前線(ステアラボ人工知能シンポジウム2017)

文からの画像生成=条件つき生成

まずは…Generative Adversarial Networks (GAN)[Goodfellow+, NIPS 2014]• 条件を持たない生成学習手法• Generator と Discriminator の敵対的学習

• 畳込み層をもつ場合… DCGAN [Radford+, ICLR 2016]

Generator乱数から画像を生成

Discriminator実画像と生成画像を見分ける

      はお前が生成したな!

Page 20: 視覚×言語の最前線(ステアラボ人工知能シンポジウム2017)

文からの画像生成=条件つき生成

まずは…Generative Adversarial Networks (GAN)[Goodfellow+, NIPS 2014]• 条件を持たない生成学習手法• Generator と Discriminator の敵対的学習

学習が進むと:

• 畳込み層をもつ場合… DCGAN [Radford+, ICLR 2016]

Generator乱数から画像を生成

Discriminator実画像と生成画像を見分ける

むむむ…

Page 21: 視覚×言語の最前線(ステアラボ人工知能シンポジウム2017)

文で生成結果を変えるには

Generator と Discriminator に文を加える

・自然な画像・文に沿った画像を生成しようとする

・不自然な画像・文に合わない画像を識別しようとする

Page 22: 視覚×言語の最前線(ステアラボ人工知能シンポジウム2017)

生成できた画像の例

• 鳥 (CUB)/ 花 (Oxford-102) データセット–約 1 万の鳥 / 花画像と 5 キャプション / 画像– 200種類の鳥 /102種類の花

A tiny bird, with a tiny beak, tarsus and feet, a blue crown, blue coverts, and black cheek patch

Bright droopy yellow petals with burgundy streaks, and a yellow stigma

Page 23: 視覚×言語の最前線(ステアラボ人工知能シンポジウム2017)

その後の展開

StackGAN [Zhang+, 2016]

• 2段階の GAN からなるモデル• 1段目でぼやっとした画像を生成、 2段目で高解像 +詳細化

Page 24: 視覚×言語の最前線(ステアラボ人工知能シンポジウム2017)

キャプションからの画像生成

This bird is blue with white and has a very short beak.

( この鳥は白の入った青色で、とても短いくちばしをもっています。 )

This flower is white and yellow in color, with petals that are wavy and smooth.

( この花は白と黄色で、波打った滑らかな花びらをもっています。 )

[Zhang+, 2016]

Page 25: 視覚×言語の最前線(ステアラボ人工知能シンポジウム2017)

キャプションからの画像生成

This bird is blue with white and has a very short beak.

( この鳥は白の入った青色で、とても短いくちばしをもっています。 )

This flower is white and yellow in color, with petals that are wavy and smooth.

( この花は白と黄色で、波打った滑らかな花びらをもっています。 )

[Zhang+, 2016]

鳥 / 花に特化したデータセットでの結果→一般的な画像を生成するにはより一層のブレイクスルーが必要

Page 26: 視覚×言語の最前線(ステアラボ人工知能シンポジウム2017)

論文 3VQA: Visual Question Answering[Antol+, ICCV 2015]

Page 27: 視覚×言語の最前線(ステアラボ人工知能シンポジウム2017)

この論文のどこがすごいか?

• ビジュアル質問応答を分野として確立–ベンチマークデータセットの提供–ベースとなるパイプラインでの実験

–ポータルサイト (http://www.visualqa.org/) も運営

• VQA という言葉自身は new ではない– AMT で人力解決 [Bigham+, UIST 2010]–初の自動化(ディープラーニング不使用)

[Malinowski+Fritz, NIPS 2014]–類似用語: Visual Turing Test [Malinowski+Fritz,

2014]

Page 28: 視覚×言語の最前線(ステアラボ人工知能シンポジウム2017)

VQA Dataset の構築

AMT で質問と回答を収集• 10 万超の実画像、 3 万超のアニメ調画像• 計 70 万弱の質問+それぞれ 10 の模範回答

Page 29: 視覚×言語の最前線(ステアラボ人工知能シンポジウム2017)

VQA=多クラス分類問題

表現ベクトル通常のクラス識別

質問文What objects arefound on the bed?

応答bed sheets, pillow

画像 画像特徴量

質問特徴量

統合された表現ベクトル

Page 30: 視覚×言語の最前線(ステアラボ人工知能シンポジウム2017)

VQA Challengeコンペティション参加チームの解答例から

Q: What is the woman holding?GT A: laptopMachine A: laptop

Q: Is it going to rain soon?GT A: yesMachine A: yes

Q: Is the hydrant painted a new color?GT A: yesMachine A: no

Q: Why is there snow on one side of the stream and clear grass on the other?GT A: shadeMachine A: yes

Page 31: 視覚×言語の最前線(ステアラボ人工知能シンポジウム2017)

その後の展開

「統合された表現ベクトル」をどのように作るかを工夫する流れ• この論文:そのまま直列に並べる

• Attention で重みづけ和をとった画像特徴と質問特徴を単純に足す [Xu+Saenko, ECCV 2016]

• 双線形積とフーリエ変換を組み合わせる[Fukui+, EMNLP 2016]

• 要素毎の積と要素毎の和を直列に並べる[Saito+, ICME 2017]

𝑧 𝐼+𝑄

𝑥𝐼𝑥𝑄

この論文のベンチマークとパイプラインに沿った形なのはその後の論文で共通している点

Page 32: 視覚×言語の最前線(ステアラボ人工知能シンポジウム2017)

さいごに

• 2017 年:” AI” は 61歳1956 年のダートマス会議で分野が誕生

• AI の研究=玉ねぎの皮むき [Turing, 1956]

真の”知能” ?(強い AI? )

単一の機能 … 弱い AI数学の定理を自動で発見問診から病気を自動診断

チェスで人間に勝利かな漢字変換

クイズで人間に勝利将棋で人間に勝利

音声認識画像認識

囲碁で人間に勝利画像と言語の融合

これからもどんどん皮をむこう