重ね描き日記(rmaruy_blogあらため)

読書メモ、探究メモなど。

2024年、AIニュースをどう追っていけばいいのか? ~「AIメディアリテラシー」試論~

2016年12月、このブログに「人工知能をトランスサイエンス問題として考えてみる」という記事書いた。トランスサイエンスというキーワードを使って、AIが社会や自分の生活に与える影響について考える心構えを整理してみたものだった。

それから7年たち、2024年が始まろうとしている今、私はAI*1について考える「心構え」を改めて持つ必要を感じている*2。AIに関する日々の情報が多すぎて、それに呑み込まれつつあるという危機感からだ。

2023年は、OpenAIをはじめとする先端企業のプレスリリース、各国政府のAI規制の行方、思想的リーダーたちのAIに関する思考を綴ったメディア記事やツイートなど、AIに関するあらゆるニュースが気になって仕方がなかった。私はテクノロジーに関して保守的なほうでもあり、すぐに最先端のAIを仕事や生活に取り入れたいわけではない。それでもAIに注意を奪われたのは、ある種の「ゲームチェンジ」を予感させられ続けたからだと思う。自分の仕事の仕方、各業界の構造、そして社会全体も、「大きく変わる」と言われた。外形的に変わるだけでなく、そもそも文章を書いたりする能力をニューラルネットワークが発揮しつつあるなかで、自分が何かを書く意味・考える意味も考え直さざるをないような気もする。まして、AIの技術的進歩は現在進行形で起こっている。一体、どうなってしまうのか。

私がAIニュースが気になる理由、それは端的に「今自分がやっていること、考えていることの意味が、次の半年~1年のAIの進展によって遡行的に変わってしまう予感」があるからだと思う。純粋な好奇心だけでなく、労力・時間を無駄にしたくないというコスト計算もそこには混ざっている。

しかし、盲目的にAIニュースを追いかけるのも、それこそ不毛な感じがする。日々のAIニュースを追っていると、誰かに話したなるような「大きな動き」が毎週のようにある。一方そうした情報をため込んでも、必ずしも全体像は見えてこない。毎回、驚くだけだ。

特殊な専門性や情報環境を持たない一個人が、どうAIニュースを摂取し、そこから何を考えるべきか。「AIメディアリテラシー」とでもいうべきものが、求められていると感じる。

ではそのリテラシーというか心構えとは何かをひとしきり考えてみた。その結果、今の私に言えそうなことを、以下の三つの観点で素描してみたい。

  1. AIの社会的影響に関する議論のスコープの広がりを意識する
  2. AIに関する多層的な「無知」を意識する
  3. 自分なりのスコープ(問題意識)を見つける

なお、個人的な性向からどちらかというとAIの「負の側面」に偏ったまとめになっている。AIがどう使えるか、という活用に関心の比重がある方にとっては、また別の心構えがありうると思う。

1.AIの社会的影響に関する議論のスコープの広がり

AIについて危険だという人と、そうでもないという人がいる。危険だという人の中にも、何が危険かについて千差万別である*3。 近年、AIのリスクを評価して制御しようという考え方として、「AIガバナンス」「AI倫理」「AI ELSI」「AIセイフティー」「AIセキュリティ」「責任あるAI(Responsible AI)」「信頼されるAI(Trustworthy AI)」「AIアライメント」など多くの用語が用いられている。これらは互いにオーバーラップしつつ、また使用者によって微妙にニュアンスを違えながら使われている。今後も、技術や国際的議論のなかで使用法が変遷していくだろう。 

こうした中で、暫定的にでも、何が論点になっているのかのマップをつくってみることが役に立つように思う。かなり無理な整理であることを覚悟の上で、自分が思う見取り図を以下のように描いてみた。

ここでは、AIの社会的影響に関するスコープを「AIガバナンス」「AI倫理」「長期的なAIアライメント」という三つの言葉に代表させた。まず、AIガバナンスは、現在存在している基盤モデルを中心としたAI技術をどう社会でよりよく使っていくか、そのための制度はどうあるべきかという点が主眼となる。G7や国連、AI安全サミットや欧州のAI規制法などで盛んに議論されたのがこの部分だ。未来の技術も当然視野に入れているとはいえ、AGI(汎用人工知能)やASI(超知能)の実現を見据えて人類全体の生存リスクまで議論している長期的なAIアライメントのスコープとは時間軸が異なる。一方で、AI倫理は、しばしばAIガバナンスの議論が見落とす「いまここ」の倫理的問題を発見し、そこにスポットライトを当てる。いったんこのように見取り図を描いてみると、一見位相がかみ合わない様々な意見・論争が、どのようなスコープのもとでなされているのかが見えやすくなると思う。

2.AIに関する多層的な「無知」を意識する

一方、同じ問題を見ていても人によって意見が大きく意見が違うのも、おそらく他の技術に比べたときのAIの特徴だ。思うに、それはAIが内包する多種多様の不定性・不確実性のせいだと思う。

AIについての私たちの「無知」は、多層に及んでいる。思いつくだけでも以下のようなものがある。

  • 技術に関する不確実性
    • 今の技術に関する無知:これは以下の二つに分けられる。
      • 人為的な無知:OpenAIなど最先端のモデルを持っている開発者しか知らない情報(データ量、アルゴリズム、その他の資源的制約など)が多くある。
      • 全人類にとっての無知:たとえばなぜLLMが論理推論ができるのかなど、現状の最先端のAIの挙動をAIの研究者ですら説明できない部分が残っている。
    • 今後の技術進化の予見不可能性:半年後の生成モデルがどんな性能をもっているのか、また機械学習モデルを組み合わせたシステムからどんな能力が「創発」しうるのか、見通すことが困難である。
  • 社会に関する不確実性
    • 利用に関する不確実性:誰が、どんな使い方をするのか、そこからどんな能力が発見されるのかがわからない。Kill eventとも言うべき、AI開発に大きな打撃を与えるインシデントが起こるかもしれない。
    • 社会への外部性に関する不定:社会・経済・環境・文化に対してどのようなインパクト(外部性)を持つかは予見が難しい。
    • 政治的な不確実性:国際・国内交渉のもとで、どのような規制が実行力を持つかが見通せない。
    • 価値観の不定:AIを活用した新しいサービスを人々はどのように受容し、どのような価値観の変化が起こるか。
    • 少数の個人がもつ影響力の大きさ:テック企業のキーパーソンたちの思想(倫理観や欲望)に大きく左右される。

このように、AIと社会の関係を考える上で必要な多くの知識を、私たちは欠いている。もちろん、技術の勉強をしたり、OpenAIやGoogle欧州委員会の官僚といった「インサイダー」に近づいたりすれば、ある種の「無知」を大きく減らすことができるだろうが、だとしてもその他の多くの種類の無知が残る。

なのでAIニュースは誰にとってもある程度の「サプライズ」の連続とならざるを得ない。その都度の情報がAIに関するどの種類の無知を低減(あるいは増加)させるものなのかを意識することは、すくなくとも頭の整理には役立つと思われる。

3.自分なりのスコープ(問題意識)を見つける

気になるAIニュースを追うことで、短期的には「情報通」になり、自身の知識欲も満たされるかもしれない。しかし中長期的には何も残らないということになりかねない。ではどうするか。一つには、AIニュースを咀嚼する際の自分なりの「軸」を持っておくことが有益だろうと思われる。「AIが社会をどう変えるのか?」という問いをいったん保留して、自分の関心がある別の問いを中心においてみる。以下、自分の場合に思いつくものを挙げておく。

  • AIの開発がどんな思想(欲望や倫理観)によって駆動されているのかAIとその開発者たちへの興味は、現代の思想的状況に興味の入り口になりうる。3000年にわたる人間の「心」の歴史的な変遷を描く下西風澄『生成と消滅の精神史』は、強くて不滅の心を追い求めた西洋の精神史がもたらした過剰な心への役割に耐えきれなくなってきた人間が、心の「アウトソース」を希求するなかでつくられてきたのがAIだという。
  • AIへの過剰な注目が覆い隠しているものは何か。安宅和人氏は「みんなAIの話ばかりをしすぎて」おり、「人類と地球との共存」と「人口調整局面のしのぎ方」という二つの課題へのソリューションとしてAIを捉えるべきだと述べている 国際学術会議から出たレポートでは気候変動とAIによるカタストロフィーのリスクを並列して分析していた。AI以外の課題や分野とAIを紐付けて、AI✕○○を考えることは、一定の視座となる。
  • 「AIとは何か」について別の語り方ができないか。AIは道具なのか、エージェントなのか。近年は「確率論的なオウム」や「ぼやけたJPEG」といった比喩も繰り出されてきた。AIをどのようなアナロジーを通して語るかは、AIの捉え方や利用のされ方だけでなく、今後のどのようなAIが開発されるかをも左右しうる。とりわけ、現在は概ね一問一答の入出力装置として使われることの多い基盤モデルが、自己完結するシステムのパーツとして「自律性を持ったエージェント」が志向されていくのか、それが工学的にうまくいくのか、また危険性がないのか、という点に個人的には注目している。そうした自律性の追求も、「AIの語られ方」が一つの鍵を握ると思われる。
  • AIのレンズを通して自分にとって大事な活動に新しい光が当てられないか。たとえば、独立研究者・高木志郎さんが2023年12月にプレプリントを公開したパースペクティブ論文は、科学研究を自律的に行う人工エージェントを作るという発想に立ち、研究プロセスの一つ一つをブレイクダウンすることで、それがAIに代替できるかを検討するための見取り図を示している。AIは、自分の活動を記述する新しい言語にもなりえ*4、それはAIニュースの一つの活用方法かもしれない。

以上はほんの一例であり、ほかにも多くの興味深い問いが見つかると思う。こうした「別の問い」を自分のなかにもっておくことで、日々のAI関連情報に「振り回される」のではなく、有意義に「取り込む」姿勢をもつことができそうだ。

おわりに

以上、時間切れで極めて雑なメモにはなってしまったが、今後自分がAIに関するニュースを追っていくときに意識をしたい3点について言語化を試みた。

AIがどう社会を変えるかを決めるのは、今後の技術の進展と同じくらいに人々の取り決め(制度)であるだろうし、技術そのものも、開発者たちの思想や、その追求を支える市場経済からの駆動力といった、人間的なファクターによるところが大きい。そもそもAIとは何か、そこに社会としてどんな希望や危険を見るのかというナラティブのせめぎ合いが、今後の帰趨を決めていくだろう。そう考えると、シリコンバレージュネーブと言った中心地から遠く離れた、それも一市民にすぎない私たちの「AIメディアリテラシー」も、何らかの形でAI技術と社会の共進化の方向性に影響を持ちうるはずだ。そうした大義も念頭におきつつ、単純に「どうなってしまうんだろう」という下世話な好奇心も完全には手放さず、2024年もAIについて考えていくことになりそうだ。

*1:なお、本記事では「AI」の定義を行わずに、そういう一群の技術があるという前提で書いていく。AIが何であり、何でないか、AIという言葉を解体する道はないのかを考えることも、おそらく本記事で述べようとしている心構えに含まれる。

*2:読み返すと、2016年の記事は、あくまで「AIの専門家(研究者や開発者)」と「私たち市民」のコミュニケーションの問題として扱っていた。しかし、今、AIをめぐる議論は、いろんなスタンスをもつ多様な分野の専門家、強烈な利害を持つ企業、政策担当者、AIガバナンスに影響力をもつ非営利団体など多くのステークホルダーが入り交じり、膨大な数の論点をめぐって論争を交わしている。上記記事は当時の状況からしても単純化しすぎだったかもしれないとはいえ、問題の複雑性が7年前の比ではなくなっているのは事実だろう。

*3:2023年の夏頃、AIのポテンシャルや脅威についてのトップAI研究者の見解をまとめた記事を見ても、専門家の言っていることも大きく割れている。このなかでは、AGI実現がどれくらい現実的かと、AIが人類の生存の脅威かを尋ねている。https://spectrum.ieee.org/artificial-general-intelligence?fbclid=IwAR2wmoVZ5-EKrpJm8yi2BMieC7nWtsT2sS3VSTS87XTlZsQ3RYxfK1L5uCM

*4:ただし、安易なAI用語での援用にはデメリットもあるかもしれない。