『AIの倫理リスクをどうとらえるか 実装のための考え方』訳者あとがき

2023年7月4日 印刷向け表示
  • このエントリーをはてなブックマークに追加
作者:リード・ブラックマン
出版社:白揚社
発売日:2023/7/4
  • Amazon
  • honto
  • e-hon
  • 紀伊國屋書店
  • HonyzClub

本書は2022年7月に出版された、Ethical Machines: Your Concise Guide to Totally Unbiased, Transparent, and Respectful AI(倫理的なマシン:完全にバイアスがなく、透明性の高い、人を尊重するAIを実現するための簡潔なガイド)の邦訳である。副題が示す通り、AIすなわち人工知能を開発・運用する際に、倫理面での対応をどう進めるかを解説したガイドブックだ。

本書のタイトルを見て興味を引かれた、という方は、既にご自身の会社や組織の中でAI倫理に取り組まれているのかもしれない。AI倫理という捉えどころのない(本書はそれを「ぐにゃぐにゃ」と形容している)ように感じられるテーマとどう向き合い、実現すれば良いのか、途方に暮れている状態だという方もいらっしゃるだろう。だとしたら、本書は実務ですぐに役立つ、具体的なアドバイスを提供する一冊となるはずだ。

AI倫理に初めて触れるという方のために、この問題について簡単に解説しておこう。

2000年代半ば頃から始まった「第3次AIブーム」によって、AIはすっかりおなじみの存在となった。実現される性能に差はあれど、私たちの日常生活にも、さまざまな形でAIが関わるようになっている。まるで本物の人間のように会話してくれるチャットボットや、ユーザーの発話を聞き取り、指示された作業を実行するスマートスピーカー、さらには飲食店の中や一定の地区内を自動で動き回る配送ロボットなど、一昔前であればSFの中だけの話だったものが、すでに実用化されている。また顔認識や各種審査に使われるシステムのように、AIが判断を行っていると明言されていなかったり、間接的な形でエンドユーザーに影響を及ぼしたりするものも多い。

そのため人間とAIの関係における問いは、「どうすればAIを実務で使えるか」ではなく、「どうすれば実務で導入したAIに、悪いことをさせないようできるか」に移りつつある。そして実際に、数多くの企業において、開発したAIが「悪いことをしてしまう」事例が発生している。

たとえば本書でも紹介されている、アマゾンの履歴書審査AIのケース。AIのバイアス問題を象徴する例として各所で取り上げられているので、聞いたことがあるという方も多いだろう。

アマゾンは自社の人材採用プロセスを効率化するために、応募してきた人物の履歴書をAIに解析させ、次の選考過程(人間による面接)に進めるべきかどうかを判断させることを思いついた。そして実際に開発を行い、完成したAIをテストしていたところ、女性を不当に低く評価するというバイアスが確認された。報道によれば、アマゾンは2014年からこのAIの実現に取り組んでいたものの、バイアス問題を克服できないとして2017年には利用を諦めたという。数年がかりの取り組みが、失敗に終わってしまったわけだ。

AIの開発費用が無駄になったという損失だけでも大きかったはずだが、仮にこのバイアス問題が見過ごされ、実際の採用現場で使用されていたら、アマゾンは評判の低下によってさらなるダメージを被っていただろう。差別を禁止する法律や条例に違反したとして、何らかの訴訟を起こされていた可能性もある。また大げさかもしれないが、AIによって面接にまでたどり着けなかった応募者にとっては、一生を左右する問題となっていたかもしれない。

アマゾンといえば、いわゆる「GAFA」、すなわちグーグル、アップル、フェイスブック(現在は「メタ」に社名変更)、そしてアマゾンという、IT業界を牛耳る大手4社の一角に挙げられるほど、先進的な技術の利用で世界をリードする存在だ。そのアマゾンですら、AI倫理をめぐってつまずいた経験を持つわけである。

さらに言えば、偏見や差別だけがAI倫理のテーマではない。本書で詳しく解説されている通り、説明可能性やプライバシーといったさまざまな価値がAI倫理に含まれる。そうした複数の価値はトレードオフの関係にあり、どうバランスを取るかという問題にも向き合わなければならない。AIが絵空事ではなく、人々の日常生活に欠かせない存在になればなるほど、問題が発生する領域も規模も拡大する。このようにAI倫理は、避けて通れないどころか、多くの人々にとっていますぐ取り組むべき課題になりつつあるわけだ。

そして実際に、さまざまな企業や組織、政府において、AI倫理への対応が始まっている。

たとえば2017年1月、米カリフォルニア州アシロマにAIの研究者や倫理学者、法律学者など各分野の専門家が集まり、AI研究やAI利用の今後について指針を示した「アシロマAI23原則」を発表している。この23原則の2番目のセクションが「倫理と価値観」であり、安全性やプライバシー、(人間の)価値観との一致といった項目について、あるべきAI利用の姿が示されている。これは単なる宣言であり、何ら拘束力はないものの、その後のAI倫理をめぐる議論の土台となった。

翌月の2017年2月には、日本のAI研究者たちが加盟する学会である人工知能学会から、「人工知能学会 倫理指針」が発表されている。これは同学会の学会員、すなわちAI研究者たちが守るべき倫理指針だが、AI開発・利用にあたって留意すべき点という形で、プライバシーの尊重や公平性、安全性などAI倫理の主な論点が提示されている。

また日本政府からは、同じく2017年に「国際的な議論のためのAI開発ガイドライン」(総務省)、そして2019年に「人間中心のAI社会原則」(内閣府)が発表されている。いずれもAIの開発や利用において、開発者や企業、運用されるAI自体が守るべき倫理的な原則を示す内容が含まれている。2010年代後半には、他の国々や地域においても、こうした政府や国際機関、非営利団体によるガイドライン類の発表が相次ぎ、AI倫理に人々の関心が集まることとなった。

それを受けて、企業の側でAI倫理に関する宣言や、指針を発表する動きが生まれている。

たとえばソニーは、早くも2018年に「ソニーグループAI倫理ガイドライン」を発表している。これは「ソニーの全ての役員および従業員が AI の活用や研究開発を行う際の指針」を定めたものと位置付けられ、プライバシーの保護や公平性の尊重、透明性の追求といった価値が宣言されている。ちなみに同社は、このガイドラインに基づいてグループ内のAI利用を検証する組織として、翌2019年に「ソニーグループAI倫理委員会」を設置している。同委員会は役員レベルを委員に任命しており、リスクが大きいAIについて検討し、「是正あるいは中止に関する勧告を行う」意思決定を行うそうだ。

また日立製作所も、2021年に「AI倫理原則」を策定し、広く公開している。宣言は3つの「行動規準」と、安全性や公平性、プライバシー保護などの観点で定めた7つの「実践項目」で構成されており、実践項目の中で、プライバシー保護や公平性などの価値を追求することが規定されている。また今後、AI 倫理確立に向けた取り組みをホワイトペーパーとして公開することも宣言しており、具体的な取り組み状況まで公表する構えを見せている。

他にも数々の著名企業がAI倫理原則やそれに準ずるものを発表するようになっており、2020年代前半までに、AI倫理は企業が取り組むべき課題として認識されるようになったと言える。

とはいえAI倫理は、「AI倫理声明」を出せば放っておいても実現・実践されるというたぐいのものではない。各社のAI倫理声明や指針をいくつか見ればわかるように、そこで触れられる価値はほぼ共通している。「実現すべきと主張されている価値」自体は、公平性やプライバシーなどほぼ同じ要素から構成されている。問題はそうした文書をどう実践に移し、本当に役立つものにしていくか、である。

そこでこの分野において、具体的なアドバイスを提供する書籍や各種サービスが登場しており、本書もその中の一冊というわけだ。

本書の特徴は、なんといっても、企業のAI倫理確立に向けた取り組みを支援してきた人物による著作という点だろう。著者のリード・ブラックマン博士はかつて、ノースカロライナ大学で哲学の教授をしていたという異色の経歴を持つ人物だ。しかし本書でまとめられている各種アドバイスは非常に実践的で、また「AI倫理の議論を始めると、皆が肩をすくめて終わる」などといった描写は、この問題に取り組まれている方々は思わず首肯されるのではないだろうか。筆者も企業のAI導入およびガバナンス構築に携わった経験を持つが、彼が目を向け、重要であると認識しているトピックは、実務面でのAI倫理検討に携わっている人物ならではという印象を受けている。

それもそのはず、彼はノースカロライナ大学を離れた後で、ヴァーチューという企業を立ち上げ、その創業者兼CEOを務めている。ヴァーチューは、新しい技術を使った製品の開発・調達・導入における倫理的リスクの軽減を支援するサービスを提供している。そして本書でもたびたび言及されている通り、彼自身もそうした支援の現場に立ち、幅広い業界や組織階層の顧客とやり取りしている。本書はそうした現場の中で彼自身が目にしてきた、「AI倫理を導入しようとすると企業内で何が起きるか」という知識に基づいたアドバイスが盛り込まれており、理論一辺倒の参考書とは一線を画すものとなっている。また現場の担当者や開発者はどう対応すべきかだけでなく、経営陣は何を考えるべきかという視点からも提言を行っており、本書の価値を高めている。

もちろん理論を軽視しているわけではない。彼は倫理学者という本職の知識を活かし、倫理とは何か、倫理を実生活で役立てるとは何を意味するかといった点にも触れ、平易な言葉で説明してくれている。また本書をすべて読み終えていない、という方には少々ネタバレになってしまうが、結論のパートで示されている通り、本書で整理されているアドバイスは「AI倫理」だけに当てはまるというものではない。企業内でさまざまな倫理的価値を追求する際に、それを「倫理宣言」のようなお題目ではなく、実効力のあるルールとして定着させようとした際に、幅広く役に立つ内容となっている。

デジタル技術の進化はまだまだ続いている。企業はこれから、AI以外にもさまざまな先端技術を導入した際に、それを倫理的に開発・運用することを求められるようになるだろう。実際に近年、「企業の社会的責任(CSR:Corporate Social Responsibility)」と同様の概念として、「企業のデジタル責任(CDR:Corporate Digital Responsibility)」を求める声があがっている。CSRが企業に倫理的な観点から事業を行うように迫るものであるのと同様に、CDRは、企業が倫理的な観点からデジタル技術を活用するよう求めるものだ。AI倫理は、このCDR時代の先駆けとなる存在だと言えるだろう。

本書がAI倫理を超え、企業がデジタル技術を倫理的に利用する際のガイドブックとして、幅広く役立てられることを願っている。

小林 啓倫

決定版-HONZが選んだノンフィクション (単行本)
作者:成毛 眞
出版社:中央公論新社
発売日:2021-07-07
  • Amazon
  • honto
  • e-hon
  • 紀伊國屋書店
  • HonyzClub

『決定版-HONZが選んだノンフィクション』発売されました!