33
人工知能が浸透した社会の 情報倫理学 吉備国際大学 大谷卓史 京都大学白眉 2015224

人工知能が浸透した社会の情報倫理学

Embed Size (px)

Citation preview

人工知能が浸透した社会の情報倫理学

吉備国際大学

大谷卓史

京都大学白眉センター2015年2月24日

まずは・・・情報倫理とは何か

• ICTによって「指針の空白」(policy vacuum)が生まれる– 「指針の空白」:従うべきルールがわからず判断ができない状態(J. Moor, D. Johnson)

– ICTが仲立ちとなる行為による「できること」の範囲の拡大と行為の性質・態様の変容

– 法律・慣習の適用の混乱と不在

• 「指針の空白」の原因:「概念の泥沼」(Conceptual Muddle)– ICTが可能にする行為の性質とその影響に関する概念の混乱

情報倫理をつくる

• 情報倫理:情報社会におけるルール・行動指針。– ICTの製品・サービスを企画開発し、利用する際にしたがうべきルール。

– 専門職倫理としては、ICT系学協会の倫理綱領(Code of Ethics)

• 情報倫理は、「指針の空白」を埋めることを目的に、なければ「つくる」もの。– 従来の習慣や取り決めによるルールが利用できる場合は、それに従う。

– 関係者が納得できるルールがない場合は、話し合ってルールをつくる。

情報倫理とは何か

• ICT専門職の倫理から情報化社会を生きる万人の倫理へ

– ICTが政治・経済・生活すべてに浸透した社会

– ICTが行為を媒介し、行為の性質や帰結に大きな影響を与える

情報倫理とは何か

• コミュニケーションとメディアの倫理としての情報倫理

• コミュニケーションは「私たち」をつくる

– コミュニケーションによって、私・私たちが何ものか世界がどうあるかを知る。

– コミュニケーションによって、私たち自身の知性や性格、態度などが形成される。

– コミュニケーションが、私たちを形成し私たちがつくる社会をつくる。

ところで。私たちはすでに・・・

• 人工知能(弱いAI)が浸透しつつある社会に生きているのではないでしょうか?

• まずは、現在の社会の情報倫理学的課題を考えます。

これもあれも弱いAI・・・

AIとサーチエンジン

• サーチエンジンのインデクシングとサーチは、AI研究で培われた自然言語処理のたまもの。

• AI研究も思考のアルゴリズムを発見するより

も、強力なコンピュータパワーと巨大データの蓄積と検索・解釈による知的かつ対話的な問題解決支援へと移行。

• 巨大データを前提とする機械学習(ディープラーニング)への(再)着目。

ロボットの知能はクラウドに・・・

• Pepperおよびグーグルカーなどの例にみるよ

うに、ロボットの知的処理は個体で実現するのではなく、クラウドサーバーとの通信で実現。

• Pepperおよびグーグルカーは、大規模クラウドデータ検索サービスのUI。

Cloud Robotics

EUのRoboEarthプロジェクト

クラウドロボティクスのイメージ(風間: 2013)

Google Driverless Car

ATR知能ロボティクス研究所の買い物支援ロボット

クラウドロボティクスの例

• Pepperの場合、

–ユーザーの感情を認識し、ユーザーに対応してパーソナライズされる。

–ユーザーの個人情報をクラウドに蓄積し分析し、より自然かつユーザーに適した対話を実現。

• グーグルカーの場合、

–地図・画像・運転記録データ・天気・交通情報を索引検索して空間位置情報を決定、意思決定。

–各車からの情報を共有して、統計的最適化を行って機械学習する。

各種のクラウド型AIサービス

IBM Watson(現在クラウドに移行中) しゃべってコンシェル(NTTドコモ)ちびまる子ちゃんver.

Microsoft Cortana Apple Siri

クラウドベースの各種AIサービス

KDDI総研[2014: 43]より。

クラウド型AIサービスの例

• しゃべってコンシェルの場合、– 音声でスマホ操作。

– 音声でデータベース検索、ネット検索、プログラム型検索で質問に回答。

– 入力音声は「ドコモクラウド」上で音声と内容を解析。

• Cortanaの場合(Windows10での対応)、– 音声でファイル検索・操作、Bingを検索。

– 会話やさまざまなデータをもとにユーザーにパーソナライズ。

– スマートフォン、タブレットで共通のCortanaを利用し、文脈を把握して継続して作業可能。

ビッグデータのプラットフォームとしてのサーチエンジンとAI

• サーチエンジン:ビッグデータの蓄積と分析のプラットフォーム

• AIやロボット:ビッグデータの入出力UI

KDDI総研(2014)より

サーチエンジンとクラウド型AI・ロボットの情報倫理学的課題はおそらく共通

• 広義のプライバシーと自律に係わる課題

• 多くのサービスは企業が提供するもので、需要の理解と消費者行動の誘導への応用が、プライバシーと自律の問題を引き起こす。

• インターネットの無料サービスの多くは、利用者情報が商品。

• たとえば・・・

サーチエンジンとAIのプライバシーと自律に係わる課題

• サービス利用による個人情報の収集・蓄積・分析→プロファイリングによる個人特定と人物像の解釈

• パーソナライズ技術や検索結果表示技術によるフィルタリング→環境(・気分)の解釈の操作、行動・人間関係の操作

• 情報セキュリティ課題と併せて、上記のプライバシー&自律の問題への配慮が必要。

プライバシー問題への対応

• Siri:音声認識向上のためのみ音声入力情報を利用すると明記。

• しゃべってコンシェル: 「ユーザー個人がどう使っ

ているか、個人情報と利用内容は紐付かない」。全体的利用動向は確認可能(関口 2012)

• Pepper:利用規約不明(Matsukawa 2014)。

• Cortana:ソーシャルメディアなどからユーザー個人情報を入手、徹底したパーソナライズ(小林2014)

そして、将来は・・・

• 2020年の情報倫理学的課題を類型的に整理すると・・・

• ここからは、「『激論!先端ICT の光と影』

ワークショップ~これからの研究に必要な倫理的・法的・社会的課題を考える~」(2014年11月7日)から。

2020年にどのような技術・社会が実現されるか?

• 自動走行車による(かなり)安全かつ低環境負荷の交通– 自動車・道路のセンサーネットワーク– 道路情報などの知識ベース活用– ルール・アルゴリズムにもとづく高度な自動制御(ex. 功利主義的アルゴリズム)

• (結構)高度な見守り・助言・支援システム– センサーネットワーク(位置情報や健康状態計測など)によるビッグデータ収集

– 健康・行動に関する統計的予測– 意思決定支援システム

• 学習者情報活用による生涯的な発達支援・選抜システム– オンライン学習によるビッグデータの収集– 学習者情報に基づく生涯発達の統計的予測– 学習者情報の労働市場における活用

映画・アニメから考える

Eagle Eye (2008)

角川エンタテイメントよりDVD発売。

Gattaca (1997)

ソニー・ピクチャーズ・エンターテイメントよりDVD発売

「虐殺器官」「harmony」2015年ノイタミナでアニメ化・放映予定。http://http://project-itoh.com/

「Eagle Eye」問題

• 人間の意思決定vsAIの意思決定→AIによる判断の責任帰属の問題

• アルゴリズムを与えた企業・人間の製造物責任(ex. 功利主義的アルゴリズム)(Lin 2014)

• AIへの権限・責任移譲(Kuflik 1999)→人間は自動走行車に乗って寝ていてOKなのか?

JohnsonとNoormanの勧告(Johnson and Noorman 2015)

• 原則:「人工的エージェントの行動の責任は人間が負うべきである」。

• 勧告1:「人工的エージェントは社会技術システム、つまり人工物と社会的実践の構築物であって、それらの相互作用を通じて特定の課題を達成すべく編成されていると理解すべきである」

• 勧告2:「責任問題は、人工的エージェント技術の開発初期段階で扱うべきである」

• 勧告3:「人工的エージェントが自律的であるという主張は、法的かつ明示的に特定されるべきである」

2015年2月追加情報。

拡張された「Gattaca」問題

• レモン問題の回避ニーズvs根本的不確実性

• 学習データのきめ細かい収集と統計的分析→個人の知的・社会的達成の高精度の統計的予測?

• 統計的傾向と決定論の取り違えの問題→遺伝子決定論と学習決定論

• Cf. Vedder 2004

「虐殺器官」「harmony」問題

• ユビキタス監視/看視社会の成立と利便性のトレードオフ

• 安全・安心は全面的監視の十分な理由になるか? (Solove 2011)

• プライバシーはなぜ必要か?隠し立てするべきものがなくても。

• 「計数されざる者」の自由(Eguchi 2001; Posner 2013; van den Hoven 2008)

• 看視における信頼(Goffman 1967=2012)

まとめ:自由・責任・プライバシーが問題?

• AIの意思決定への権限移譲問題→賠償責任と行為者性

• 統計的推論の誤適用問題→レモン回避欲求と不確実性の対立

• 監視/看視の高度化と全面化→「計数されざる者」の自由と福利(快・安全など)の対立

当面の情報倫理学の課題

• プライバシーの危害と迷惑、プライバシーの概念の解明

• 医療分野におけるインフォームド・コンセントとは異なる「同意」の意義と実装方針の解明

• プライバシーと自律の関係とそれらの限界の考察・・・プライバシーと自律は必然的な結びつきがあるのか、技術による認知・感情の操作、行動変容はどこまで倫理的に許容されるか

• 自律ロボットと人間の責任・・・人間が責任をもてるように設計すべき(Noorman and Johnson 2014; Johnson and Noorman 2015)

参考文献

• Eguchi, Satoshi(2001)"The Importance of Privacy in Education", The Second International Workshop for Foundations of Information Ethics, Hiroshima, February 27, 2001.

• Fried, Charles (1968) "Privacy," The Yale Law Journal, Vol. 77, No. 3, 475-493.

• Gavison, Ruth (1980) "Privacy and the Limits of Law," The Yale Law Journal, Vol. 89, No. 3, 421-471=(1999)「プライバシーと法の限界」奥田太郎訳, 『情報倫理学研究資料集I』.

• Goffman, Erving (1967) Interaction Ritual: Essays on Face-to-Face Behavior, Anchor Books =(2012)『儀礼としての相互行為: 対面行動の社会学 新訳版』浅野敏夫訳, 法政大学出版局.

• Goldberg, Ken (n.d.) “Cloud Robotics and Automation”

• Hoven, Jeroen van den (2008)"Information Technology, Privacy, and the Protection of Personal Data" in Hoven, Jeroen van den, and John Weckert, eds. 2008. Information Technology and Moral Philosophy, Cambridge Studies in Philosophy and Public Policy. Cambridge: Cambridge University.

参考文献

• Noorman, Merel and Johnson, Deborah G. (2014) “Negotiating Autonomy and Responsibility in Military Robots,” Ethics and Information Technology, Vol. 16, Nol.1, pp.51-62.

• Johnson, Deborah G. and Noorman, Merel (2015) “Recommendations for Future Development of Artificial Agents,” IEEE Technology and Society Magazine, Vol.33, No.4(Winter 2014), 22-28.

• Kuflik, Arther(1999) "Computers in Control: Rational Transfer of Authority or Irresponsible Abdication of Autonomy?" Ethics and Information Technology, Vol.1, No.3, 1999, pp.173-184=(2001)「管理するコンピュータ:それは合理的な「権限の委譲」か、無責任な「自律の放棄」か?」北口景子訳, 『情報倫理学研究資料集 III』.

• Lin, Patrick (2014) "Here’s a Terrible Idea: Robot Cars With Adjustable Ethics Settings," WIRED, 08.18.14 <http://www.wired.com/2014/08/heres-a-terrible-idea-robot-cars-with-adjustable-ethics-settings/>.(最終アクセス日:2014年11月5日)

参考文献

• Matsukawa, Takuro (2014) 「Engadget Fes 高木浩光 x やまもといちろうセキュリティ&プライバシー対談 #egfes(更新:動画追加)」『Engadget』2014年11月24日

• Moor, James H. (1999)"Using Genetic Information While Protecting the Privacy of the Soul," Ethics and Information Technology, Vo.1, No.4, 1999, pp.257-263.=(2001)「魂のプライバシーを守りながら遺伝情報を利用すること」樋口未来訳, 『情報倫理学研究資料集III』.

• Nagel, Thomas (1998) "CONCEALMENT AND EXPOSURE," Philosophy & Public Affairs, vol. 27 no. 1, 3-30.

• Posner, Richard (2013) "Privacy is Overratede" New York Daily News, April 28, 2013

参考文献

• Rachels, James (1975) "Why Privacy Important?" Philosophy & Public Affairs, Vol. 4, No. 4, 323-333.=(1999)「なぜプライバシーは重要なのか」松永喜代文訳, 『情報倫理学研究資料集I』

• Solove, Daniel (2011) Nothing to Hide: the false tradeoff between privacy and security, Yale University Press.

• Vedder, Anton (2004) "KDD: Privacy, Individuality and Fairness," in Spinello, Richard A. and Tavani, Herman T. eds. (2004) Readings in Cyberethics, Jones & Bartlett, 462-470

• Yegulalp, Serder (2013) “Watson as a service: IBM preps AI in the cloud,” Inforworld, Nov. 15, 2013

参考文献

• でじねこ.com(2014)「ソフトバンクがロボット事業に参入!記者会見のレポートまとめ」2014年6月5日.

• 原如宏(2012)「しゃべってコンシェルで利用者急増、ドコモクラウドをトコトン試す」『日経トレンディ』2012年6月28日.

• 東中竜一郎・貞光九月・内田渉・吉村健(2013)「しゃべってコンシェルにおける質問応答技術」『NTT技術ジャーナル』Vol. 25, No.2, 56-59.

• 風間博之(2013)「クラウドロボティクスが導く世界 スマートサービス基盤」NTTデータ,2013年1月31日.

• KDDI総研(2014)「I CT先端技術に関する調査報告書」総務省.

• 木村岳史(2014)「ロボット、究極のクラウド端末の夢」『日経コンピュータ』2014年7月10日.

参考文献

• 小林雅一(2014)「マイクロソフトの音声アシスタント「Cortana」が持つ意味---個々のユーザーにカスタマイズされた製品の時代へ」『現代ビジネス』2014年3月13日.

• NEC(2014)「ロボットが活躍する未来がそこに!”クラウドの頭脳”を得てさらに進化したコミュニケーション・ロボット」2014年1月28日.

• 関口聖(2012)「ドコモに聞く 利用件数は1億超、「しゃべってコンシェル」開発の舞台裏」『ケータイWatch』2012年7月25日.

• “Could Robotics,” Wikipedia.