『数学者が検証! アルゴリズムはどれほど人を支配しているのか? ~あなたを分析し、操作するブラックボックスの真実』正しく付き合うために、知っておくべきこと

峰尾 健一2019年05月20日 印刷向け表示
  • このエントリーをはてなブックマークに追加
数学者が検証!  アルゴリズムはどれほど人を支配しているのか? あなたを分析し、操作するブラックボックスの真実
作者:デイヴィッド・サンプター 翻訳:千葉敏生
出版社:光文社
発売日:2019-04-16
  • Amazon
  • honto
  • e-hon
  • 紀伊國屋書店
  • HonyzClub

「Facebookがあなたについて知っていること」。そう検索してみると、似たような趣旨のタイトルがいくつもヒットする。「あなたのすべてを知っている」、「隠しているはずのことまで知っている」、「気づかないうちに追跡されている」。確かに気味の悪い話だが、では実際のところ、私たちは「どれほど」アルゴリズムに支配されているのか? 

数学者である著者は、さまざまな研究に当たりつつ、時に自らの手でも検証しながら、センセーショナルな見出しからは見えてこない現状について調べていく。本書はその過程をまとめたものだ。大きな脅威と騒がれてきた事例も、内実を冷静に掘り起こしていくことで、実は思ったほど影響は大きくなかったり、そもそも指摘が的外れだったりすることが明らかになっていく。

多くの有権者のFacebookデータを不正に収集し、トランプ勝利の立役者かのように一時騒がれたケンブリッジ・アナリティカの騒動。では実際、Facebookが持つ個人情報からいったいどれだけのことが分かるのだろうか? 著者は回帰モデル作成の練習のための教育用パッケージとして公開されている「2万人のFacebookユーザーの匿名データベース」を用いて、どれだけ高精度の予測モデルを作れるのか検証した。その結果、なんと85パーセントという高確率で有権者の支持政党を当てることに成功したのだ。

いかにも記事の見出しになりそうな結果だが、さまざまな点でこのモデルには限界がある。まず、85パーセントという数字が叩き出されるのは、民主党・共和党ともに「筋金入りの」支持者だった場合の話だ。どちらに票を投じるかがそもそも明らかな人々に対する予測は、選挙運動ではたいして役に立たない。著者の用いたデータセットには支持政党を明言していない人が76パーセントいたが、これらの人々についてモデルを当てはめたところ、そこから分かることはないに等しかった。

また、このモデルが効果を発揮するのは、50サイト以上に「いいね!」をした場合に限られる。さらに本当に信頼できる予測をするには、数百件の「いいね!」が必要になるという。こうした限界を挙げた上で、著者はケンブリッジ・アナリティカとトランプの当選との間には何の関係もないと結論づけている。

特定のFacebookユーザーについて行った性格テストの結果について、そのユーザーのパートナーや友人、家族、職場の同僚に尋ねたアンケートよりも、「いいね!」に基づく統計モデルによる予測の方が相関が高かったとする研究があるそうだ。しかしだからといって、ただちにFacebookが家族や友人よりもあなたの事を知っていることには(当然だが)ならない。科学的発見としては興味深くても、そこから実際に高精度で性格の予測ができる公式を生み出すといった応用の話は切り分ける必要があるとして、こうした研究を根拠として持ち出すメディアに著者は苦言も呈している。

大げさな脅威論に欠けがちなのは、それは実際「どれほど」問題なのか? という視点だ。たとえば選挙期間中のフェイクニュースならば、嘘の情報がどれだけ飛び交っているかではなく、それが「有権者の政治観にどれほど影響をもたらしたか」こそが問題の核だと著者は指摘する。本書によれば、平均的なアメリカ人が投票時に覚えていられるフェイクニュースはせいぜい1、2件であり、その内容を信じる可能性も低いという。Twitter上にボットが氾濫している様が気持ち悪いのは確かだが、それを真に受ける人はほとんどいないのが現状だ。

こうした例だけみると本書は楽観主義を説く本なのかと思われるかもしれないが、そうではない。アルゴリズムの応用につきまとう不完全さは、そう簡単に特定の誰かの思い通りにはならないという意味では朗報な一方で、弾き出された結果が絶対視されてしまった場合に負の影響が出ることも意味する。本書で真に主眼が置かれているのは、単なる楽観・悲観とはまた別の次元、アルゴリズムといかに正しく付き合っていくかという点だ。

そういった意味では、特定の性別や人種に対するバイアスといった、倫理面についての考察も印象的だ。数学的にまったくバイアスのないアルゴリズムが実現できるのは、集団同士の基本的な特徴がまったく同じ場合のみで、そもそも非現実的なのだと著者は言う。アルゴリズムは偏見を持つようプログラムされたわけではなく、あくまで現実の社会について「効率的に」学習した結果、そこに存在する偏見が定量化されて映し出されてしまう。順番としてはそう考えるべきだという指摘も興味深い。モデルからバイアスを取り除く方法についての研究を紹介しながらも、著者が強調するのは「そもそもアルゴリズムに倫理観を期待すべきなのか? 」という点である。原因の根っこをたどれば結局行き着くのは現実世界の歪みであり、不公平さやバイアスについて安易にアルゴリズムのせいにするのは的外れなのだ。

著者の言わんとすることは、アルゴリズムに罪はないとかそういうことではない。アルゴリズムに社会の偏見が反映されてしまうからこそ、基となるデータや得られた結果を取り扱う人間の方に慎重さが求められるということだ。結局のところアルゴリズムに人が「支配される」としたら、それは映し出される結果に疑いを持たず鵜呑みにしてしまった時なのだろう。

その威力を喧伝する企業にせよ、脅威を煽るメディアの見出しにせよ、アルゴリズムにつきまとう限界に目が向いていないという意味では、どちらも変わらない。本書はそうしたポジションから最も遠いところにいる。信用スコアの話など、もっと切り込んでほしいトピックがないわけではないのだが、この手の話題で真に注目すべきポイントはどこなのか、勘所を整理してくれるのはありがたい。アルゴリズムの力と限界、そして結局問われるのは扱う人間側の姿勢だという、至極まっとうな事実を本書は気づかせてくれる。

あなたを支配し、社会を破壊する、AI・ビッグデータの罠
作者:キャシー・オニール 翻訳:久保尚子
出版社:インターシフト
発売日:2018-06-18
  • Amazon
  • honto
  • e-hon
  • 紀伊國屋書店
  • HonyzClub

村上浩のレビューはこちら

編集部解説はこちら

記事へのコメント コメントする »

会員登録いただくと、記事へのコメントを投稿できます。
Twitter、Facebookにも同時に投稿できます。

※ 2014年3月26日以前にHONZ会員へご登録いただいた方も、パスワード登録などがお済みでない方は会員登録(再登録)をお願いします。

コメントの投稿

コメントの書き込みは、会員登録ログインをされてからご利用ください。

» ユーザー名を途中で変更された方へ
 変更後のユーザー名を反映させたい場合は、再度、ログインをお願いします。

ノンフィクションはこれを読め!  2014 - HONZが選んだ100冊
出版社:中央公論新社
発売日:2014-10-24
  • Amazon Kindle

『ノンフィクションはこれを読め! 2014』電子版にて発売中!

HONZ会員登録はこちら