重ね描き日記(rmaruy_blogあらため)

読書メモ、探究メモなど。

読書メモ:Atlas of AI(Kate Crawford 著)...AI産業のもう一つの姿

Atlas of AI: Power, Politics, and the Planetary Costs of Artificial Intelligence

Atlas of AI: Power, Politics, and the Planetary Costs of Artificial Intelligence

  • 作者:Crawford, Kate
  • 発売日: 2021/04/06
  • メディア: ハードカバー
 

AI(人工知能)は福音か、脅威か。

どうすれば、私たちはAIとよりよく付き合っていけるのか。

そうしたことが話題に上るようになってから、だいぶ時間が経った。数々のシンポジウムが開催され、大量の本が発行された。

今の大方の見方は以下のようなものだろう。

  • 近年AIと呼ばれているものの中核にあるのは「機械学習アルゴリズム」である。
  • 機械学習は大量の「データ」を必要とする。AIのビジネス応用においては、データをどれだけ集められるかが鍵となる。
  • AIの活用には「バイアス」の問題などが知られ、倫理に配慮した利用が求められている。

アルゴリズム、データ、バイアス。このように、AIは物質的な実体のない概念によってイメージされる。

いわく、これからは「デジタルトランスフォーメーション」の時代。空間を越えて情報が行き来する「サイバースペース」のなかで、あらゆるものが「スマート化」する。物質的な制約から解放されることで、ものごとが容易に「スケール」する。

こんなふうに、AIという言葉は、質量をもたない情報が、高度に処理される世界を想起させる。AIの危険性や害悪を指摘する論者も、この非物質的なイメージは共有しているように思う。

新刊”Atlas of AI”は、こうしたイメージを盛大に覆す一冊だ。著者のKate Crawfordは、マイクロソフト社などにも籍を置いたことのある大学研究者。AIの社会的影響を研究する世界的研究拠点であるAI Now Instituteの設立者の一人だそうだ。

「アトラス」というタイトルには、AIについての新しい「地勢図」を素描しようという意図が込められている。それは従来の非物質的で脱身体化されたイメージを覆し、AIを抽出的産業(extractive industry)として描く地勢図だ。

The creation of contemporary AI systems depends on exploiting energy and mineral resources from the planet, cheap labor, and data at scale. 

今日のAIは、あらゆるものを抽出(extract)することで産業として成立しているというのだ。

  • 第1章「地球(Earth)」は、AI産業による地球からの抽出に着目する。スマホやノートPC、あるいはデータセンターのバックアップ用の電池に不可欠なリチウムやレアアースなど、AI産業は、ものすごい勢いで採掘される地下資源によって成り立っている。AIは環境問題の「解」として語られることが多いが、そのハードウェアはものすごいエネルギーを消費しているし、また地下資源の採掘のためにAIが使われれている。計算インフラが残すカーボンフットプリントは航空業界のそれに匹敵しており、年々増大している。高度化する機械学習モデルも、並列計算に用いられるチップ数の増加に支えれていて、当然そこには温室効果ガス排出が伴う。データセンターなどでの電力消費と水消費の問題も深刻だ。ユタ州にあるNSAのデータセンター(アメリカ国家安全保障局)の設立時には、毎日170万ガロンの水を消費するという試算がなされ、住民との軋轢を生んだという。
  • 第2章「労働(Labor)」では、労働力からの抽出が扱われる。現代ではいたるところで、AI・ロボットが自動化しきれない「残余」の部分を人が担っている。アマゾン社の倉庫では、”the rate”と呼ばれる作業ペースのノルマに縛られ、身体を動かし続ける従業員たちがいる*1。また、AIシステム自体が、最低賃金すれすれでクラウドワークしている人間の単純労働――暴力描写やヘイトスピーチを見つけて削除するといったトラウマが残る作業を含む――により整備される。AIという名の下にサービスを提供することのメリットは「スケール」できること。その裏で黒子として働く人間たちは世界中に分散しており、交渉力のない状況で使役される。
  • 第3章「データ(Data)」では、データの恣意的な整備と占有が扱われる。AIシステムに欠かせないのがデータセットだが、そこには人の写真に「バスケットボール選手」とか「CEO」とか、外見のみで人を分類するようなラベルがつけられている。これは被写体の許可を得たものではない。また「データは石油」と言われ、とにかくたくさんのデータをかき集めることが是とされる。データを吸い取られる人の選択権は置き去りにされ、集める側の権力集中に寄与してきた。

地球資源、エネルギー、労働力、データの抽出のもとに成立しているAIシステムは、権力の道具として使用されていく。

  • 第4章「分類(Classification)」は、AIが行う分類という作業の本質的な権力性について。AIでは近年「バイアス」が問題視されているが、それは「取り除くべきバグ」と捉えられるのが普通だ。しかし、AIが分類を行うということに必然的に付随する性質なのである。統計学的な意味でバイアスがないことは、法学的な意味でのバイアスのなさを意味しない。科学哲学者イアン・ハッキングが「ループ効果」と呼ぶような、人間がつくるカテゴリーにより、さらにそのアイデンティティが強化されるという構造がある。人を分けるカテゴリーに「中立的なカテゴリー」は存在しない。
  • 第5章「感情(Affect)」は、感情を外見から分類するAIについて。情動研究の第一人者であるポール・エクマンはARPA(高等研究計画局)の依頼で始まった。表情は感情のマーカーにはならないという研究が出ている*2にもかかわらず、様々な企業が感情判別のAIをつくり続けている。ここには警察、軍、人事管理など、人間を管理する側のニーズがある。
  • 第6章「国家(State)」は、権力を集約するためのAIについて。スノーデンが暴露したNSAのプレゼン資料に書かれていた、全インターネットを監視する計画。米国防省が推進している軍事用のAIプロジェクト。IBMが開発した、シリア難民のなかからイスラム国のテロリストを判別するAI。これらはすべて脅威を発見(threat-targeting)するためのAIである。

このように、抽出的産業としてのAIは、利益を増幅させ、権力を中央に集めるための装置として機能する。しかし、AIがこのように語られることは少ない。終章にて、現在のAIのイメージを著者は「魔術化された決定論(Enchanted determinism)」と呼ぶ。つまり、AIは決定論的に結論を吐き出すが、何が出てくるかは人知ではわからない(enchanted)。ここにユートピアを見るかディストピアを見るかは人によるが、そもそもこの見方が間違っている。今、すでにある抽出(extraction)に目を向けるべきなのだ。AIは脱身体化された、非物質的なものではない。惑星と社会に根を下ろした、抽出のシステムなのである。

どうすればいいか。AIの倫理の議論は活発で、「AI倫理原則」はヨーロッパだけでも128個つくられているそうだ。しかし、倫理は必要だが十分ではない(ethics is necessary but not sufficient)と著者は言う。権力そのものに目を向けなくてはいけない。

Instead of glorifying company founders, venture capitalists, and technical visionaries, we should begin with the lived experiences of those who are disempowered, discriminated against, and harmed by AI systems. When someone says, “AI ethics, ”we should assess the labor conditions for miners, contractors, and crowdworkers. When we hear “optimization,” we should ask if these are tools for the inhumane treatment of immigrants. When there is applause for “large - scale automation,” we should remember the resulting carbon footprint at a time when the planet is already under extreme stress .

(私訳)創業者やVCやテックビジョナリーたちを英雄視する代わりに、AIシステムに力を奪われ、差別され、傷つけられている人々の生きた経験から私たちは出発しなければならない。「AI倫理」というならば、採鉱者、契約労働者、クラウドワーカーたちの労働環境を評価しなければならない。「最適化」のためのシステムが、移民たちへの非人間的な扱いに使われていないか問わなければならない。「大規模オートメーション」への喝采が聞こえたならば、すでに極度のストレスにされされた地球に与えるそのカーボンフットプリントのことを思い出さなければならない。

エピローグでは、テック企業のトップたちがこぞって「宇宙開発」に乗り出していることに言及する。ベゾスやマスクをはじめ、彼らは地球からの抽出が限界を迎えていることを知り、そこから脱するフロンティアとして、宇宙のほうを向いている。そこには、彼らがAIを駆使して行ってきたこととの連続性がある。そしてそのきらびやかなビジョンの裏には、死への恐れ(fear of death — individually and collectively — and fear that time is truly running out)があると著者は喝破する。

***

感想

個々のファクトよりは、まずはナラティブが強力な一冊だと感じた。私たちはもはや非物質的な「サイバー空間」のなかで泳ぎ回れるような気がしている。が、それは錯覚であって、アメリカのどこかの荒野のそびえる巨大データセンターや、世界中に分散したクラウドワーカーたちの単純労働といった「計算資源」が、私たちの視界から隠されているだけなのだ。本書が与える、こうしたイメージは鮮烈だった。

大学や企業で「AIの研究」を行っている人は、本書の描くAIは自分の研究対象としてのAIとは何の関係もない、と感じるかもしれない。しかし現実に、この世界で「AI」と呼ばれるシステムが、大多数の人々に対してどのような機能を果たしているかという視点からは、著者の描く像のほうがより的を射ているともいえるだろう。

本書で描かれた恐ろしいAI像を再び塗り替えるにはどうしたらいいだろう。一つには、「人間相手にAI(機械学習)を使わない」という手があるかもしれない。または「AI」という言葉に見切りをつけるのも手だろう。ただしこれは「AIブーム(ないしハイプ)」から受ける恩恵も手放すということを意味する。なぜならブーム(ハイプ)を成立させているのは、お金と権力の匂い、つまり本書が描く抽出産業としてのAIにほかならないから。

関連記事:

聴講メモ:機械学習と公平性に関するシンポジウム - 重ね描き日記(rmaruy_blogあらため)

読書メモ:機械カニバリズム(久保明教 著)…「AIは人間を超えるか」談義をそろそろやめるべき理由 - 重ね描き日記(rmaruy_blogあらため)

読書メモ: あなたを支配し、社会を破壊する、AI・ビッグデータの罠(キャシー・オニール著) - 重ね描き日記(rmaruy_blogあらため)

読書メモ:AI社会の歩き方(江間有沙 著)…AIと社会について、誰が・どこで・何を話しているのか - 重ね描き日記(rmaruy_blogあらため)

*1:このテーマは、ブログ筆者は大学4年のゼミで扱った。発掘アーカイブメモ:「物流倉庫業における日雇派遣労働」(2010年ゼミレポート) - 重ね描き日記(rmaruy_blogあらため)また、ケン・ローチ監督の映画『家族を想うとき(Sorry we missed you)』を想起した。この映画では、ギグワークで宅配ドライバーをしている主人公が、配達の指示を出す「デバイス」に支配されている様子が描かれていた。

*2:読書メモ:情動はこうしてつくられる(リサ・フェルドマン・バレット 著、高橋洋 訳) - 重ね描き日記(rmaruy_blogあらため)