重ね描き日記(rmaruy_blogあらため)

読書メモ、探求メモなど。

聴講メモ:機械学習と公平性に関するシンポジウム

機械学習と公平性に関するシンポジウム」に参加してきた。大ホールが半分以上(?)埋まるほどの盛況ぶりで、平日夜の開催だったとはいえ、ここまで関心が高いとは意外だった。メディア関係者も多く来ていたようなので、しっかりとしたレポートはそのうち読めると思う。ここでは、あくまで個人的な印象を、備忘録として残しておく。

企画趣旨、機械学習の公平性とは

このシンポジウムは、AI系の三つの研究団体が共同で主催したもの。「機械学習と公平性」について、研究者側からの情報発信と、議論の呼びかけを意図している。直接のきっかけとなったのは、昨年11月ごろ、東京大学に籍を置くAI研究者が自身の差別的発言を「AIの判断」であるかのごとく弁明した事案だという(シンポジウムの冒頭でそのように説明された)。

ここで問題にされている「公平性」とは、厳密ではないかもしれないが、私はひとまず

  • 機械学習を使うことが何らかの差別を生まないように配慮すること

と理解している。主催した研究者たちは、今回の情報発信を2点に集約している*1

  1. 機械学習は道具にすぎず人間の意思決定を補助するものであること
  2. 私〔研究者〕たちは、公平性に寄与できる機械学習を研究し、社会に貢献できるよう取り組んでいること

さらっと読んでしまうと、この声明は一見、当たり前のことしか言っていないようにも思える。しかし良く考えると、ここには私たち非専門家が気づきにくいポイントが含まれている。今日のシンポジウムを聞いて、それが少し見えてきた。

以下、三つの講演について、印象に残ったところだけメモしていく。

神嶌敏弘氏:「機械学習と公平性」

最初の神嶌氏の講演では、なぜ「機械学習は道具である」のか、機械学習の「公平性(fairness)」がどのように議論されてきたか、どのような要因で機械学習の結果に差別が入り込んでしまうのかについて、明快に解説された。

そのうえで、神嶌氏は、機械学習は「公平性の改善」の道具としても使えるという。ある公平性の規準を一つ定めたならば、不公平を検出したり補正したりすることは、むしろ人間よりもアルゴリズムのほうが得意だからだ。もちろん、「機会の平等か結果の平等か」のように公平性の規準は相容れないものが複数あり、社会的なコンセンサスをとるのは現実的ではないかもしれない。だとしても、ある公平性の規準に照らしてどう評価できるかを後から検証する方法を与えることを通して、機械学習は公平性の改善に寄与できるだろう。

神嶌氏の講演のポイントを単純化すれば、

  • 公平性の規準を社会でつくってくれたら、機械学習で実装できますよ

となるだろうか。

佐倉統氏:「社会の中の技術を考えるために」

機械学習は道具である」と言われると、「ではAIは?」と言いたくなる人がいるかもしれない。機械学習には神嶌氏が言ったような限界があるとしても、AI研究が進めば、やがて人間のような判断力をAIが持つのではないのですか、と。

このようなフワッとした「AIへの漠然とした期待」に対して、神嶌氏とはまったく別の角度から「否」を提示したのが佐倉氏の講演だった。

佐倉氏は、進化心理学行動経済学が明らかにしてきた「人間の特性」について着目する。ずるをした人を許さないといった、「論理」とは違う「進化的合理性」を人間は備えており、実はそれが社会の成立に欠かせない。私たちはすぐ、人間のように判断するAIを想像するが、人間の進化的合理性を理解しないAIを社会のメンバーとして受け入れることはできないし、この問題をAIがクリアできるとも考えにくい(自己言及性や創発特性など、人間のもつクリティカルな能力の機械での実現は今のところ想定しにくい)。したがって、何らかの判断、とくに差別や公平性に関する判断はあくまで人間が行うべきである。

佐倉氏の講演のポイントを自分なりにまとめると、

  • 何が(人間の社会にとって)正しいかについて判断する能力は、人間だけにある

となる。ユヴァル・ノア・ハラリ『ホモ・デウス』の言葉で言えば、

  • 「データ至上主義」は嫌だし、どのみちAIには無理。だから「人間至上主義」にとどまろう

となるだろうか。

江間有沙氏:「AI公平性に対する研究者コミュニティの社会的責任」

最後の江間氏の講演では、「AI・機械学習の公平性」というテーマについて、世界中でどのような議論が行われているかの紹介と、国内外で数多くの同種の議論の場をつくってきた江間氏による現状認識が述べられた。昨年はとくにAI倫理に関する原則が多く打ち立てられ、現存している数は50~60にものぼるという。この講演内容については、昨年の著書『AI社会の歩き方』(読書メモ)ともオーバーラップしており、同書を強くお勧めしたい。公平性を含むAI倫理の原則づくりのフェーズは終わり、今は「principleからpracticeへ」という声が聞かれると話していたのが印象的だった。

雑感

研究者による差別発言というきっかけとはいえ、このような機会が設けられたことが、まずはとても良かったと思う。おそらく、登壇した3人を含め、主催者たちはすでに「AI倫理」についての数多くのワークショップ、研究会、シンポジウムで同種の話をしてきたことだろう。しかし、本件のような問題に関しては、今回のように一般聴衆へ「議論が開かれること」に価値がある。なぜなら「公平性」の概念は、社会の合意としてつくられなくてはならず、「精鋭のAI研究者と倫理学者が密室で決めればそれでOK」というものではないからだ。

パネルディスカッションの司会を務められた中川先生が、最後に話していた「GDPREUのデータ保護規則)は当初はGAFA等にとって足かせに見えたが、Googleは見事にGDPRに適応し、結果として企業価値も上げた」というエピソードは、ちょっと良すぎる話にも聞こえるが、今後やらなければいけないのはまさにそういうことなのだろうと感じた。つまり、どのようなデータ利用、機械学習利用は許容できないか、逆に推奨されるのかについて、私たちユーザーが常に関心をもつ。そして、放置したら経済合理性だけで突き進む企業に、圧力をかけ続ける。何か問題が起こったら、「何がいけなかったのか」をきちんと議論する場を設ける。そんな健全な未来の、はじまりを見た気がした。

最後に、蛇足でコメントをもう一つ。今回のシンポジウムや声明に通底する見方として、「機械学習という道具」と「私たち人間の価値判断と合意形成」は分けて考えられるという前提があったように思う。もちろん、会の趣旨としては必要な前提だろう。しかし、これは一つの「理想化」であることは胸に留めておいていいかもしれない。つまり、10年前にはなかったデバイスを持ち、厖大なデータに浸され、機械学習の吐き出す結果に日々触れていること自体が、私たちがどんな公平性その他の価値を欲するかを変えてしまうかもしれない。いや、確実に変えるだろう。その意味で、私たちには「立ち止まって考える」ことはできないのかもしれない。しかし、だからといって流れに身を任せて、データ至上主義に飲み込まれてよいわけはない。今日みたいな機会が、これからも必要だと思う。

 

関連記事