重ね描き日記(rmaruy_blogあらため)

読書メモ、探究メモなど。

「AIと社会」思考整理ノートVol.1:AI問題のタクソノミー

本連載について

AIの社会的影響について考え始めたのは、8年ほど前。当時は「ブームだしちょっと考えてみよう」というつもりだったが、社会的の関心は落ち着くどころかどんどん大きくなっていき、私自身も考え続けることになった。いまでは、AI関連の新聞記事に目を通すのが日課になってしまった。

「AIと社会」に関してどんな論点があり、何を知っておくとよいのか。すでに膨大な文献があるのは承知しているが、自分なりの考えを文章にしておきたい。「AIと社会」思考整理ノートと題した、2~3回の連載をやってみる*1

第1回は、AIがもたらす「問題」について考える。

Vol.1:AI問題のタクソノミー

AIと社会の関係、とりわけその負の側面に関する議論は、たいてい「問題の列挙」から始まる。人工知能(AI)という用語でくくられる技術範囲は広く、大規模言語モデル強化学習など技術の範囲に絞っても、その応用範囲が広く、波及する範囲も広い。なので、まずはどこで、どんな「問題」ないし「リスク」が生じるのかをリストアップするところから議論が始まる。しかしこれが一筋縄ではない。ある人にとって一番大事な問題が、別の人にとっては傍流の問題であったりする。皆、AIについて違うことを心配している。

AIの何が問題なのか

前職にて、生成AIのリスクについて以下のようなリストを作ったみたことがある。峰突いた論点を拾ったつもりだが、大事な論点が抜けていないか確信が持てなかった。「あれもある、これもある」とあげていくだけでは、ランダムなリストにしかならないと感じた。

出典:JST-CRDS「人工知能研究の新潮流2」https://www.jst.go.jp/crds/report/CRDS-FY2023-RR-02.html(筆者はこの表を含む数ページ分を担当した)

全部見てみるという方法

もっと網羅的な表をつくる一つのやり方は、過去に作られた同様の表をかき集め、その和集合をとることだろう。たとえばハーバード大学の研究者らが2020年に出したレポート(Fjeld et al. 2020)では、AIに関する世界各国の36のガイドラインを分析し、どのようなテーマが扱われているかを洗い出す作業をしている。あるいは、"Linking Artificial Intelligence Principles"というプロジェクトでは、下表のように各国のAI原則で扱われているトピックとキーワードが洗い出されている。

出典:Zeng, Y., Lu, E., & Huangfu, C. (2018). Linking Artificial Intelligence Principles. ArXiv, abs/1812.04814.

こうした方法は「論点の網羅」には役に立つ。一方で、それぞれのリストの着眼点が平均化され、抜け落ちるものも多いように思う。「プライバシー」や「公平性」など、どのリストにも共通に出てくる項目であっても、その論点が選ばれている文脈がある。その文脈込みで、AI問題のリストを見ていくことが重要なように思える。

AIの問題はどう構造化できるのか:AI問題のタクソノミー

AIのリスクをどうとらえるか。その問題意識、視点の多様性が、各人の分類方法(タクソノミー)に現れているはずだ。AIリスクの構造化のために、どのような「分類軸」や「カテゴリー」が使われているのか。

以下具体例を見ていく前に、二つの用語の整理をしておく:

  • 危害(harm):人や人間の社会が受ける害。
  • リスク(risk):危害の発生確率とその危害の重大さの掛け合わせ。

筆者が眺めたいくつの書籍・レポート・政策文書などからは、AIリスクを分類する上でいくつかの視角が見えてきた。以下のリスト自体は、完全に筆者による恣意的なものである*2

(A)人の意図が介在するかどうか。まず、AIの悪意ある利用(malicious use)と、意図せぬ影響(unintended consequence)を分ける方法がある。2023年に米国国務省の諮問により調査会社Gladstone AIが作成したレポート(Gladstone AI 2023)では、AIの意図された利用によるリスク(Risks from intentional use)として、サイバー攻撃や偽情報拡散などをひっくるめた兵器化(weaponization)などをあげ、かたや意図せぬ影響(Risks from unintended consequences)としてAIによる事故*3、経済や社会の制御を人間が喪失する可能性、AIのアライメントの失敗などを挙げている。

(B)今のリスクなのか、未来のリスクなのか。今あるAI技術がすでに現実にもたらしている問題もあれば、まだ存在しない未来のAI技術が持たしうるリスクがある。Anthropic社は「AI Safety Level (ASL)」という尺度を提案し、現状の基盤モデルをALS-2に位置付けつつ、未来のALS-3や4への備えも進めていくとしている。

なお、未来のリスクは短期的リスク(near term risk)長期的リスク(long term risk)に分けられることもあるが、技術の進展のスピードに関する予測(いわゆる「タイムライン」)が人により大きく異なる。その観点から、たとえばCenter for AI Safety所長のDan Hendrycks氏はAIの短期的リスクの対概念としては「長期的リスク」ではなく破局的リスク(catastrophic risk)」を据えて議論している(Hendrycks et al. 2023)*4

(C)危害を被るのは何か。AIのリスクが危害をもたらすのは、個人の場合もあれば、会社等の組織のこともあれば、社会全体ということもある。中尾悠里『AIと人間のジレンマ』は、「個人とAIのジレンマ」としてフィルターバブルの問題やプライバシー問題を、「社会とAIのジレンマ」としてAIに判断依存する問題、労働問題、兵器利用などを挙げている。

日本IBM『AIリスク教本』は、AIを開発したりサービスとして提供する会社目線でリスクを列挙している。また、個人に対する危害の中には身近な誰かというよりも、地球の裏側にいる作業者が、AIのコンテンツモデレータによって健康や人権が害されているという論点もある。

OECDが2024年に出しているペーパー"Defining AI incidents and related terms"では、以下のように、危害を受ける対象によってAIハザード(危害の源)を分類している。

AIハザードとは、1つ以上のAIシステムの開発、使用、または誤動作がAIインシデント、つまり次のいずれかの危害につながる可能性があるイベント、状況、または一連のイベントを指す。(a)個人または人々のグループの健康に対する傷害または危害。(b)重要インフラの管理及び運用の中断、(c)人権の侵害、または基本的権利、労働権、知的財産権の保護を目的とした適用法に基づく義務の違反、(d)財産、コミュニティ、または環境への危害。

(D)どこに脆弱性があるのか。危害の対象ではなく、危害の源(ソース)に着目した分類も可能である。たとえば羽深『AIガバナンス入門』はAIのリスクを、「AIモデルの脆弱性」、「AIシステムの脆弱性」、「人間の脆弱性」、「社会の脆弱性」に分類している。また、AI倫理に関する大部の教科書Liao eds. ”Ethics of Artificial Intelligence”では、第1部「機械学習脆弱性(Vulnerabilities in machine learning)」にてバイアス、公平性、ブラックボックス問題、machine ethicsの論点を扱い、第2部「人間の脆弱(Human Vulnerabilities)」にて、逆に機械学習の性能の高さゆえにもたらされる顔認識、ディープフェイク、失業問題、コンパニオンロボットの問題などを挙げている。この「脆弱性」からの切り口は情報セキュリティの考え方と親和性が高そうだ。

(E)開発から利用までのどの段階で生じるリスクか。AIモデルの学習から、サービス提供、そしてユーザーによる利用までのパイプラインに沿って、リスクを列挙する方法もある。たとえば、国会図書館から出ているレポートの岸本充生氏のチャプター「生成AIの倫理的・法的・社会的課題(ELSI)」では、以下のように生成AIの学習から利用までの6つのプロセスごとにELSI(倫理的・法的・社会的課題)が列挙されている。

出典:岸本充生『デジタル時代の技術と社会 科学技術に関する調査プロジェクト報告書』「第9章 生成AIの倫理的・法的・社会的課題(ELSI)」

https://dl.ndl.go.jp/view/prepareDownload?itemId=info:ndljp/pid/13383218

(F)挑戦を受ける社会規範は何か。AIは具体的な誰かに危害をもたらすだけでなく、民主主義、責任、人権といった、人間の社会を支える「コンセプト」に挑戦を投げかけている。クーケルバーグ『AIの政治哲学』は「自由」「平等と正義」「民主主義」「権力」「環境政治とポストヒューマニズム」という章構成にて、それぞれAIが何を投げかけているかを議論している。

(G)道具としてのAIか、主体としてのAIか。そもそもAIをどのようなものだとみなすかによって生じてい来るリスクが異なる。鈴木貴之『人工知能の哲学入門』は、「道具としてのAI」と「主体としてのAI」という二つの見方を対置させている。高度な推論装置としてAIを道具的使う際に生じるリスクとはまた違う問題を、「主体としてAI」はもたらしてくる(信頼しすぎ、不当な擬人化など)。ユヴァル・ノア・ハラリ氏はAIが人間の「親密さ」をハッキング(intimacy hacking)し始めているとして警鐘を鳴らしている。

複数のタクソノミーを組み合わせるメリット

以上、筆者が今思いつく限りでの、AI問題のタクソノミーの様々な切り口を挙げてみたみた。このほかに考えられるのは、「生成モデル」「識別モデル」などの技術、LLMや強化学習など技術によって分ける視点などだろうか。また、教育、科学、経済、医療、交通など、各ドメインにおけるAIのリスク評価も当然必要だし、行われている。

この作業をしてみて気づいたことがいくつかある。

  • リスク列挙の切り口により、焦点が自然と当たるリスクと、浮かび上がりにくいリスクが出てくる。たとえば(C)危害を被るのは何かの視点からは、「企業にとってのリスク」という論点が自然に出てくるが、他の列挙方法からだと出てきにくいように思う。
  • いくつもの切り口を組み合わせることで、同じリスクを立体的に捉えることができる。たとえば、「偽情報拡散」は、(A)人の意図が介在有無の観点からは「人為的」、(E)どの段階かでいうと「AIの利用段階」、(F)挑戦を受ける社会規範は「民主主義」(など)。

一つの軸を使えばOKということはなく、リスク列挙の分類軸も必要に応じて使い分けて複眼的に見ていくことが重要だということが言えそうだ。実際に、現実の一つのレポートでも、複数の切り口を組み合わる工夫がみられる。たとえば、今年5月に英国政府の諮問でYoshua Bengio氏を座長とする科学者グループが出した 中間レポート(DSIT 2024)では、汎目的AI(general-purpose AI)のリスクを扱う章では、「悪意ある利用のリスク(Malicious use risks)」と「誤作動によるリスク(Risks from malfunctions)」を列挙したうえで、「システム的リスク(Systemic risks)」として労働市場へのリスク、AIに関するグローバルな格差拡大、市場における一極集中のリスク、環境へのリスク、プライバシー、著作権侵害を挙げ、さらに「横断的リスク要因 (Cross-cutting risk factors)」として技術的なリスク要因(自律性を目指す技術開発など)、社会的なリスク要因(経済的なインセンティブなど)が将来のリスクの要因になることを解説している。

「リスク」や「安全」フレームの限界

このように、いくつもの観点から複眼的にリスクを列挙していくことで、スナップショットとしては、ある程度AIと社会の関係(とりわけその負の側面)の全貌をとらえることができるかもしれない。

しかし、これだけでは十分ではないという気もする。3点ほど述べる。

まず、「AIリスク」と呼ばれているものは、本当は「リスク」としてはうまく議論できないものもあるのではないだろうか。『よくわかる現代科学技術・STS』のなかで、吉澤剛氏は「リスク論の適応限界」について言及している。

「リスクは一般に、発生可能性がある有害事象とそれが実際に起こる確率の積として定式化される。したがって、発生可能性のある事象がわからない、または何を事象として検討するかについて意見の不一致がある場合、また事象が起きる確率が良くわからない場合も、適用範囲を超えてしまう。」塚原ほか編『よくわかる現代科学技術・STS』所収

これは、とりわけ上記(B)の観点における「未来のリスクなのか」について当てはまるように思う。いわゆるAIによる存亡リスク(existential risk)に関しては専門家によって全く異なる見解が示されており、しかもその議論は(たとえば気候変動の人為説などにおける状況と違って)「科学」のアリーナで行える状況になっていないようにも見える。

もう一つは、AIによって脅かされうるが、うまく危害の所在が言い当てられなそうな価値が気になる。たとえば、AIは「仕事の喜び」のような、定量化が難しいが、人生を豊かにしてきたものにも影響しつつあるのではないか。ハザードとして名指しがたい無形の文化的インフラのようなものへの影響を、どのように考えていけばいいのだろうか。

最後に、AIによって「人間が変わる」可能性を、リスクや安全のフレーミングはうまく扱えないかもしれない。AIは個人や社会の価値観と衝突する可能性があると同時に、価値観そのものを変えていく力を持つ。そのため、5年後の「リスク」や「安全」の意味が、AIが普及することそのものによって変わっている可能性がある。これは、リスク論や安全工学の領分を超え、哲学や倫理学が求められる部分だろう*5

まとめ

今回の記事では、AIの何が問題になるのかの一つ手前、「AIの問題はどのように分類・列挙」できるのかを考えてみた。このように広範な問題を前に、私たちは個人として、あるいは社会として、どのように対処していくことができるのか。もう多すぎて、全部相手にするのは無理という感じもするが、どうなのか。この、主に「AIガバナンス」と呼ばれる領域について、次回は考えていく。

参考文献

関連記事

*1:正月に書いた投稿「2024年、AIニュースをどう追っていけばいいのか? ~「AIメディアリテラシー」試論~」は、今思うとこの連載の「第0回」にしてもよいものだったと思う。

*2:したがって、ここでやっているのは、あくまで恣意的なリスト作りである。ただし、「問題自体の分類」から「タクソノミーの分類」へと一段階メタなレベルにおけるリストアップ作業となっている

*3:例として、ヘッジファンドでのAI利用が金融に混乱をもたらすことが特記されていて、少し興味深い。

*4:筆者が関わっているAI Alignment NetworkではDan Hendrycks氏を招いたオンライン講演会を実施した。【開催記録】ALIGN Webinar #1 Dan Hendrycks博士(Center for AI Safety) — ALIGN

*5:このことについてどのようなスタンスをとりうるかについて、先日のnoteで少し考察した。「AIと価値観・思想」をめぐる3つのスタンス|R. Maruyama