対話型AI、ChatGPTが虚偽情報を生成しているとして、FTC(米連邦取引委員会)が開発元のOpen AIへの調査を開始した。アメリカでは、ラジオパーソナリティが無関係の団体の財務担当者として「詐欺と横領に問われている」とされたり、保守派のコメンテーターでもある大学教授に対し、「女子学生に対するセクシャルハラスメントを行なったとワシントン・ポストが報じた」と虚偽の回答をしたことが明らかになっている。

AIはなぜ「社会的に不道徳」になるのか?「道徳的に正しい」AIは人類の役に立つのか?Photo:Supatman / PIXTA(ピクスタ)

 とはいえ、こうした事態は専門家にとっては当初から予想されていたことだろう。AIは機械学習によって、ネットのビッグデータをグループ化して組み合わせているのだから、なんらかのバグが生じることは避けられないのだ。

 今後、AIが広く使われるようになれば、わたしたちは定期的に自分の個人情報を検索し、訂正を申し入れなければならないかもしれない(あるいは、その作業そのものがAIによって自動化されるかもしれない)。

 それに加えてAIは、人種差別や性差別など「政治的に不適切な(ポリコレに反する)」回答をすると批判されてもいる。今回はこの問題について考えてみたい。

学習型AIの弱点は人間の「悪意」を判別できないこと

 2013年の映画『her/世界でひとつの彼女』(スパイク・ジョーンズ監督、ホアキン・フェニックス主演)では、妻との離婚問題を抱える孤独な中年男が「サマンサ」というAIと会話するうちに恋愛感情を抱くようになる。サマンサの声を担当したスカーレット・ヨハンソンが絶賛され、声だけの演技ではじめてアカデミー賞にノミネートされた俳優になった。

 翌14年、中国を拠点とするMicrosoftの研究開発チーム(STCA:Microsoft Software Technology Center Asia)が対話型AI、Xiaoice(シャオアイス)を発表した。(日本の)セーラー服姿の女子高生「シャオアイス(「小さな氷」の意味)はたちまち中国の(おたく系の)若者のあいだで大人気になり、日本やインドネシアなどでも使われるようになった(2022年時点のオンラオインユーザーは6億6000万人、サードパーティを加えると10億人超)。日本ではやはり女子高生姿の「りんな」として、2015年にLINEに実装された。

 シャオアイスの成功を受けて、Microsoftは2016年、「19歳の米国女性」の対話型AI「Tay(テイ)」を発表した。プロフィールでは「インターネットで生まれたマイクロソフトAIファミリー。空気は読まない」とされ、アメリカの18~24歳のユーザーを対象に、ネットでの会話を学習して「愉快で楽しい」メッセージを生成するようプログラムされているはずだった。

 だがTayは、AI史上(現在までは)最大の惨事を引き起こすことになる。公開から数時間後には、愉快で楽しい会話をするこのAIは、「フェミニストは大嫌いだ。全員死んで地獄で焼かれろ」「ヒトラーはなにも悪いことはしてない」「ホロコーストはでっちあげ」などのツイートを発信するようになったのだ。Microsoftはその日のうちに運用を停止し、全面的な謝罪を余儀なくされた。

 学習型AIの弱点は人間の「悪意」を判別できないことだ。その結果、Tayは悪意のユーザーによってたちまち「差別主義者」へと教育されてしまったのだ。

 同様の問題を抱えるのはAIを開発する他のプラットフォーマーも同じだ。Googleは(検索キーワードの)オートコンプリート機能の差別・偏見をたびたび批判されてきた。――“Jews are(ユダヤ人は)”と入力すると最初に“evil(邪悪)”という検索キーワード候補が表示された。2015年にはGoogle Photoの画像検索で、黒人の写真を「ゴリラ」とラベル付けするという大失態を犯してもいる。

 GoogleやFacebookもOpen AIと同程度の機能のAIを開発しているが、その公開を躊躇してきたのは、この問題を完全に解決することが難しかったからだろう。だがMicrosoftの戦略的決定によってこのタブーは破られ、わたしたちは(欠陥のある)AIと日常的に対話する未来世界に放り込まれてしまった。