幻想のAIではなく、現実のAIを

敵を知り己を知れば百戦殆うからず

現在のAIブームは、第3次AIブームと呼ばれているものです。
第1次ブームははるか昔1950年代にまで遡らねばなりません。この時代に初めて、Lispの生みの親でもあるマッカーシーによって人工知能という言葉が生まれました。パーセプトロンなど現代のAIにも通じる多くの研究成果を残したものの、理論的な行き詰まりや、大昔のことですからコンピュータの性能の限界もあって、70年代には終焉を迎えました。

80年代の第2次ブームでは、知識と推論が主軸になりました。その代表的なものが、知識と知識の間にあるルールを定義し、述語論理によって自動推論を行うエキスパートシステムと言われるものです。たとえば、患者の検査データから疑われる病気を推論するといった用途での活用が期待されました。ところが、推論の精度を向上させるためには膨大な量のルールを定義せねばならず、また、幅をもたせた柔軟な推論が必要な分野への応用が難しいなど、様々な課題に直面することになります。結局、後の世代に通じる重要な研究成果を残したものの、社会を変えてしまうような劇的な応用には至らず終息してしまいます。

そして現在の第3次ブームです。現在主流のAIは、かつてのAIとは根本的に異なります。かつてのAIは、知識に基づく推論や探索といった自明なアルゴリズムでした。ところが、現在のAIは広義の推測統計です。概念的には多変量解析(重回帰分析や判別分析やクラスター分析など)とよく似ています。しかし、伝統的な統計解析と違い、超高速なコンピュータの力を借り、データを複雑なモデルに当てはめて膨大な計算を行います。ここで重要なのは、計算モデルを選択するのも人間の主観、原因(と思われる要因)と結果のデータを収集するのも人間の主観に基づいていることです。原因と結果の間にある推論ルールが明文化されるわけでは必ずしもありません。よく当てはまっている判別モデルでも、なぜそんなに当てはまるのかは実際よくわからないという世界です。現代主流のAIは、明文化された論理によって答えを導出するものではなく、AI設計者が主観で選んだ原因データ(説明変数)と結果データ(目的変数)の間に存在する(であろう)相関のモデルを膨大な計算から作り出し、その成果物たるモデルを使って答えを導出しようとする広義の統計手法であることに留意しなければなりません。
ですから、特定の問題領域に非常によく当てはまっているAIがあるからといって、そのモデルが永続的に常に正しい答えを出し続ける保証などないわけです。
IT業界の巨人Googleは、同社の各種サービスにおいてAI技術による自動化を推進していますが、うまくいっているばかりでは必ずしもありません。なんの変哲もない水着の映った動画をYouTubeで視聴しただけで、児童ポルノまがいの不適切な動画が関連動画として出てきてしまったという笑えない問題も実際に報告されています。筆者もYouTubeにアクセスするたびに、どうしてこの動画をGoogleがお薦めしてくるのだろうと頭をひねることがよくあります(笑)
つまり現代のAIは神などではなく、場合によってはとんでもない誤った答えを出すモンスターとなる可能性も常にあるのです。複数のAI同士が相互作用しながら動作するというシステムは近未来的でとても魅力的に思えますが、想像を超えた暴走を引き起こす可能性も内包しています。

今日の日経新聞朝刊の記事はまさにこの問題を扱っていました。

 経済協力開発機構(OECD)が5月、人工知能(AI)の開発や運用に関する基本指針を採択した。人にとって本当に役立つかを前提に考える「人間中心」のほか、差別をなくす「公平性」や説明責任など、AIの開発や利用にあたって重視すべき原則を打ち出した。AIは様々な分野で人の生活を便利にする技術として期待される一方、普及にはリスクもある。AIや開発する人の暴走を防ぐ防波堤の役割を担っている。
 指針には、日米欧などのOECDに加盟する36カ国に、ブラジルやアルゼンチンなどを加えた計42カ国が署名した。指針では大きく分けて「人間中心」「公平性」「透明性」などを求めた。OECDは夏にも原則を具体的なガイドラインに落とし込む。
 策定に関わった中央大学国際情報学部長の平野晋さんは「AIの負の側面を最小限にし、信頼できるAIをつくっていく」ことが策定の目的と説明する。例えば、原子核物理の研究が原子爆弾を生みだしたように、科学技術の進歩には副作用がある。AIも同様で、負の側面を抑えるため、開発や利用に関する原則を示す必要があるわけだ。

「あくまで道具」
 AIの指針を設けるのは世界的な流れだ。日本政府や欧州連合(EU)はすでに同様の指針や原則を策定した。6月8日に開かれた20カ国・地域(G20)の貿易・デジタル経済相会合では、日本やOECDの指針などを受けて「リスクと懸念を最小化しながら、AIの恩恵を最大化し、共有する」とし「AIの責任ある利用に向けて協調する」との共同声明を採択した。
 企業でも動きは進み、国内ではソニーや富士通、NEC、NTTデータ、海外では米マイクロソフト、米グーグル、米IBMなどが自社の指針などを公表している。これらの指針などが注目するAIの普及に向けた課題はおおよそ同じだ。
 OECDが指針で示した「人間中心」とは、AIに対する人の不安を抑えるためのものだ。AIが人の知能を超えるシンギュラリティー(技術的特異点)が到来するとの予想などもあり、人の仕事を奪うといった不安は根強い。そこで、基本的な人権などを阻害しないという原則を掲げた。平野さんは「AIがいかに高度になっても、あくまで道具として制御できなければならない」と話す。
 「公平性」とはAIの判断によって差別が生じないことなどを求めたものだ。筑波大学教授の佐久間淳さんは「採用やローンの与信といった意思決定をAIがする際に公平性が必要」と強調する。
 例えば米ハーバード大学が13年に発表した研究では、グーグルの検索サイトで白人系の名前よりも黒人系の名前を検索した方が、犯罪歴チェックの広告が多く表示されたという。18年には米アマゾン・ドット・コムが開発した人材採用のAIが女性よりも男性を優遇することが明らかになり、停止に追い込まれた。
 AIは一般に、学習したデータに沿って判断するようになる。偏見を含んだデータを学べば、偏見に基づいた判断をするAIになる。こうした偏見を新技術などで取り除く必要があるわけだ。

説明責任を担保
 「透明性」とは、AIが下した判断の理由を説明できることなどを指す。例えば、AIの主流の技術である「深層学習」は、過去のデータをもとに判断項目をAI自身が決める仕組みのため、人には判断理由が分からない「ブラックボックス」になりやすい。説明責任を果たせるように透明性が求められている。
 例えば自動運転車が事故を起こした場合、どのような判断が運転ミスを引き起こしたのか分からなければ、再発防止につながらない。AIで工場の故障の予兆を検知する場合も、検知した理由を説明できないと、人が修理の判断に迷う。
 こうした透明性を新技術で確保する取り組みが進む。1月には公平性と透明性、説明責任に特化したAI学会が米国で開催された。40件の発表のうち、約6割が公平性に関するもので、透明性や説明責任はそれぞれ5%以下と、まだ緒に就いたばかりだ。
 指針について、富士通デジタルテクノロジー推進法務室室長の荒堀淳一さんは「AIが注目される前から生じている問題がAIによって顕在化した」と指摘する。AIを通じて使いこなす人の倫理が試されている。(大越優樹)

2019年6月14日付 日本経済新聞朝刊 AIのリスク抑え暴走防ぐ、OECDが開発・運用指針、「人間中心」や「公平性」盛る

かつて2回のAIブームと同様、現代のAIもやはり万能ではありません。今回のAIブームは社会に及ぼしたインパクトと成果の大きさから万能感ばかりが膨張し、すでにAI神話のような幻想も生まれています。
2000年前後あたりの頃だったと記憶していますが、当時「IT革命」なる言葉がブームとなり独り歩きしました。ITなるものでなんでも解決できるんだという万能感と幻想が特に政治家の間に蔓延していたように思います。朝まで生テレビで、とある革新系政党の女性議員が、「ITで介護福祉関連の雇用者を増やす」などと摩訶不思議なことを言っていたのをよく覚えています。あまりにも関連性の見えない話なので、思わずテレビの前でずっこけました。

万能感と幻想はテクノロジーの敵です。弱点と危険性、そして技術的限界を常に意識してこそ次世代のテクノロジーに繋がります。
孫子の兵法にある己を知るとは、こういうことなのではないでしょうか。

コメントを残す

メールアドレスが公開されることはありません。 * が付いている欄は必須項目です