フェイスブックはなぜ
嘘とヘイトを許したのか?
AI部門責任者を直撃
「ユーザーより自社の利益を優先している」と主張する元社員の内部告発を受け、フェイスブックが揺れている。フェイスブックは反論しているが、主張を裏付けるのはこの元社員の証言だけではない。MITテクノロジーレビュー米国版はAI部門の責任者や関係者を1年にわたって取材している。今年3月、米国版に掲載された2万字にわたる長文記事を掲載する。 by Karen Hao2021.10.26
フェイスブックで人工知能(AI)部門を率いるホアキン・キニョネロ・カンデラは、聴衆に謝罪していた。
それは、2018年3月23日のことであった。ドナルド・トランプの2016年大統領選挙運動を担当したコンサルタント会社、ケンブリッジ・アナリティカ(Cambridge Analytica)が、投票に影響を与えようとして、数千万人の米国人のフェイスブックアカウントから密かに個人データを収集していたことが明るみに出た数日後のことである。フェイスブック史上最大のプライバシー侵害が世間の注目を集めたちょうどその時に、キニョネロは、フェイスブックにおける「人工知能(AI)と倫理、プライバシーの関係」を中心テーマとしてカンファレンスで講演する予定になっていた。キニョネロはキャンセルすることを検討したが、フェイスブックの広報担当責任者との協議の末、予定通り、講演することにしたのだ。
壇上で聴衆に向かうと、キニョネロは告白から始めた。「この5日間は、フェイスブックに入社して以来、最も大変な時期でした」と語ったことを覚えているという。「批判があれば受け入れます」。
ケンブリッジ・アナリティカのスキャンダルによって、フェイスブックはかつてないほど世間から批判を浴びることになった。さらに、次のような懸念も高まった。プラットフォーム上に何が表示されるかを決定するアルゴリズムがフェイクニュースやヘイトスピーチを増幅させており、ロシアのハッカーがフェイスブックのプラットフォームを利用してトランプに有利な方向に選挙を動かそうとしたのではないかというのである。数百万人のユーザーがフェイスブックのアプリを削除し始め、従業員が抗議の意思を示すために退職し、7月の決算発表後にフェイスブックの時価総額は1000億ドル以上消失した。
スキャンダル発生後の数カ月、マーク・ザッカーバーグCEO(最高経営責任者)自身も謝罪を始めた。フェイスブックの責任について十分広い視野で捉えていなかったことと、CEOとして誤りを犯したことについて謝罪した。社内的には、最高執行責任者(COO)のシェリル・サンドバーグが2年間にわたる公民権監査を開始した。フェイスブックのプラットフォームが民主主義を弱体化するために利用されるのを防ぐ方法を提案するためであった。
さらに、最高技術責任者(CTO)のマイク・シュロープファーは、あるチームの立ち上げをキニョネロに依頼した。フェイスブックのアルゴリズムが社会に与える影響について調査せよという少々、曖昧な指令であった。立ち上げられたチームは、「社会・AIラボ(SAIL: Society and AI Lab)」と名づけられた。なお、同チームは昨年、データ・プライバシー問題に取り組む別のチームと統合し、「責任あるAI(Responsible AI)」と改称している。
キニョネロがこの仕事に抜擢されたのは当然のことであった。フェイスブックがAI大手としての地位を確立するうえで果たした功績においては、誰にも引けを取らなかったからだ。フェイスブック在職歴6年で、ユーザーの関心事に正確に合わせたコンテンツを配信する最初のアルゴリズムのいくつかを開発し、社内に広めたのはキニョネロである。今回、求められているのは、アルゴリズムの有害な影響を緩和することであった。
フェイスブックは評判の回復に努める際、一貫して、キニョネロらの取り組みに言及した。そして、定期的に、さまざまな部署の責任者にメディアの取材を受けさせ、改革の進行について語らせている。たとえば、フェイスブックは2019年5月、シュロープファーCTOに対する一連の取材をニューヨーク・タイムズ紙に許可した。この記事では、1日に何十億ものコンテンツから誤情報やヘイトスピーチを排除するという技術的な課題を克服しようとする繊細で良心的な経営幹部が人間味のある人物として描かれている。課題の過酷さにシュロープファーCTOが感情を抑えきれず、「涙をこぼす場面もあった」とニューヨーク・タイムズ紙は書いている。
2020年春には、どうやらMITテクノロジーレビューに順番が回ってきたようだ。フェイスブックのAI広報担当部長のアリ・エンティンがメールで、フェイスブックにおけるAIの仕事について掘り下げて取材したくないかと持ちかけてきたのだ。フェイスブックのAI部門のリーダー数人と話した後、私はキニョネロに焦点を定めることにした。エンティン部長は快く、承諾してくれた。「責任あるAI」チームの責任者であるだけでなく、フェイスブックをAI企業に変えた人物として、キニョネロは広告塔として利用するのに堅実な選択肢だったのだ。
私にとっても、キニョネロを取材の対象に選ぶのは当然のことに思えた。ケンブリッジ・アナリティカのスキャンダルを受け、キニョネロがチームを結成して数年経つが、フェイスブックのプラットフォームにおける嘘やヘイトスピーチの拡散に関する懸念は高まる一方であった。2018年後半、フェイスブックは、自社プラットフォームが数年間にわたってミャンマーにおける反ムスリム暴動の煽動に利用されていたことを認めた。そして、2020年には、遅ればせながら、ホロコースト否定派、ワクチン反対派、そして陰謀論を唱えるQアノン(QAnon)に対して対策を取り始めた。
こうした危険なデマが広がったのは、キニョネロが開発に携わったAI機能のせいであった。フェイスブックのビジネスを支えるアルゴリズムは、虚偽や扇情的なものを排除するために生み出されたわけではない。ユーザーが憤慨したり興奮したりする可能性が最も高いものを表示して、できる限り多くのコンテンツをシェアし、エンゲージ(関与)してもらうように設計されている。私には、この問題を解決することこそ、「責任あるAI」チームの中核領域のように思われた。
私は、キニョネロと定期的にビデオ通話をするようになった。さらに、フェイスブックの経営陣や現役および元従業員、業界の同業者、そして外部の専門家にも取材した。取材に応じた人の多くは、秘密保持契約を結んでいたり、報復を恐れたりするため、匿名を条件に話してくれた。私が知りたかったのは次のようなことだ。プラットフォーム上でヘイトスピーチや嘘を抑制するため、キニョネロのチームは何をしていたのかということである。
しかし、エンティン部長とキニョネロの意図は異なっていた。私が最も尋ねたいトピックを取り上げようとするたびに、私の要求は取り下げられたり、方向転換させられたりした。「AIバイアス」という特定の問題に取り組むための「責任あるAI」チームの計画について議論することだけが望まれていたのだ。AIバイアスとは、アルゴリズムが特定のユーザーグループに対して差別しているという問題である。特定の求人広告や不動産広告を白人には表示するが、マイノリティには表示しないターゲティング広告アルゴリズムがその一例である。
2021年1月、何千人もの暴徒が米国連邦議会襲撃した際、暴徒らの一部はフェイスブックのプラットフォームで組織され、「盗まれた選挙」をめぐる嘘がプラットフォーム上で拡散された。「責任あるAI」チームが誤情報やヘイトスピーチに対して成果を上げることができなかったのは、これらの問題を主眼に置いていなかったためであることが、その頃には私の取材から明らかであった。さらに言うと、もし、チームが誤情報やヘイトスピーチを主眼に置こうとしたとしても、失敗に終わったであろうということも私には分かっていた。
理由は簡単だ。フェイスブックでは、実行するか、しないかの意思決定は全て、たった1つの動機に基づいている。ザッカーバーグCEOの絶え間ない成長への欲求である。キニョネロのAIの知識は、フェイスブックの成長を後押しした。取材で明らかになったように、キニョネロのチームは、AIバイアスの問題に主眼を置くことを余儀なくされていた。AIバイアス対策は、法制化されればフェイスブックの成長を妨げる可能性がある規制案を回避するために役立つからだ。フェイスブックの経営陣はまた、繰り返し、プラットフォーム上の誤情報を一掃するための取り組みの多くを弱めたり、中止したりしていた。そのような取り組みは、成長を損なう可能性があるという理由からであった。
つまり、「責任あるAI」チームは、AIバイアスという特定の問題に関する取り組みで成果を上げていたとしても、誤報、過激主義、政治的偏向などのより大きな問題の解決には本質的に無関係なのである。そして、その代償を払うのは私たち全員なのだ。
「エンゲージメントの最大化を重視するビジネスでは、真実には興味がありません。危害や分裂、陰謀がはびこっても関心がありません。実際のところ、危害や分裂、陰謀などは、ビジネスに好都合なのです」とカリフォルニア大学バークレー校のハニ・ファリド教授は指摘する。ファリド教授はフェイスブックと協力してプラットフォーム上の画像や映像に基づく誤情報について研究している。
「フェイスブックは常に、プレスリリースを出せる程度のことしかしません。ですから、いくつかの例外を除いて、実際にポリシーの改良に結びついているとは思えません。フェイスブックは決して、本当に根本的な問題に対処することはないのです」。
2012年3月、キニョネロがベイエリアに住む友人を訪ねた当時、キニョネロはマイクロソフト・リサーチの英国オフィスでマネジャーを務めていた。チームを率い、機械学習を利用して、マイクロソフトの検索エンジンであるビング(Bing)で表示される広告をより多くのユーザーにクリックしてもらうことを目指していた。キニョネロの専門知識は希少であり、チームは発足後、まだ1年も経っていなかった。AIの一種である機械学習は、産業界における大規模な課題に対するソリューションとしてまだ確立していなかったのだ。機械学習テクノロジーに投資しているテック大手もほとんど存在しなかった。
キニョネロの友人は、シリコンバレーで最もホットな企業の1つである自分の新しい雇用主を見せたがった。この雇用主こそ、当時、創業から8年を経て、すでに10億人近い月間アクティブユーザー(過去30日間に1度でもログインしたことのあるユーザー)を抱えていたフェイスブックである。キニョネロは、メンローパークにあるフェイスブック本社内を案内してもらった際、1人のエンジニアがWebサイトの大幅な更新をするのを目に留めた。それは、マイクロソフトであれば、山ほど面倒な手続きを必要とする作業であった。それは、ザッカーバーグCEOの「すばやく動いて破壊せよ(Move fast and break things)」という理念にキニョネロが初めて触れた印象的なシーンであった。キニョネロはフェイスブックの戦術に秘められた可能性に驚愕した。そして、1週間もたたないうちに、フェイスブックの面接を済ませ、入社承諾書にサインしていた。
キニョネロの入社は、フェイスブックにとってこれ以上ないほどのタイミングだった。フェイスブックの広告サービスは、5月の新規公開株(IPO)に向けての準備に伴い、急速に拡大している最中であった。目標は、売上を拡大し、ネット広告市場で圧倒的なシェアを持つグーグルに対抗することであった。どの広告がどのユーザーに最も響くかを予測し、広告をより効果的に表示できる機械学習は、目標を達成する上で最適なツールになる可能性があった。入社してまもなく、キニョネロは、マイクロソフトで率いていたチームと同じようなチームの責任者に昇進した。
エンジニアが直接コーディングする従来型のアルゴリズムと異なり、機械学習アルゴリズムは入力データをもとに「訓練」されることでデータ内の相関関係を学習する。訓練されたアルゴリズムは、機械学習モデルと呼ばれ、将来の意思決定を自動化できる。たとえば、広告のクリックデータで訓練されたアルゴリズムは、女性が男性よりもヨガ用レギンスの広告をクリックする回数が多いことを学ぶ可能性がある。その結果、学習モデルは、女性に対して、ヨガ用レギンスの類の広告をより多く発信するようになる。現在、フェイスブックなどのAI企業では、エンジニアが、少しずつ異なる無数のモデルを生成し、与えられた問題に対してどのモデルが最も良いパフォーマンスを示すのかを検証している。
フェイスブックの膨大なユーザーデータは、キニョネロの研究を大きく後押しした。キニョネロのチームは、「女性」や「男性」などの広範なカテゴリーだけでなく、「ヨガに関連するフェイスブックページが好きな25歳から34歳の女性」などの非常に細かいカテゴリーの存在を推測することを学習し、そのカテゴリーに属するユーザーを対象として広告を配信する機械学習モデルを開発できた。ターゲティングをきめ細かく設定するほど、クリックされる可能性が高くなるので、広告主にとってはより効果的な広告になる。
キニョネロのチームは1年以内に、いくつかの機械学習モデルを開発し、さらに、新しいモデルをより早く設計、展開するためのツールも開発した。それまでは、エンジニアが新しいモデルを構築し、訓練してテストするまで6週間から8週間かかっていたが、たった1週間で可能になったのだ。
成功のニュースは瞬く間に広まった。フェイスブックのユーザーが各自のニュースフィードでどの投稿を見るのか割り出す取り組みをしているチームは、同様の手法を適用したいと考えた。誰がどの広告をクリックするかを予測するようアルゴリズムを訓練できるのと同様、どの投稿に誰が「いいね!」をつけたり「シェア」したりするかを予測し、ユーザーが関心を持ちそうな投稿をより目立つ位置に表示するように機械学習モデルを訓練することもできる。たとえば、モデルによって「犬好き」と判断されたユーザーのニュースフィードには、犬に関する友人の投稿が上位に表示される。
ニュースフィードにおけるキニョネロの成功は、社外で実施されていた新しいAI研究の成果と相まって、ザッカーバーグCEOとシュロープファーCTOの目に留まった。当時、フェイスブックはユーザー数10億人を超え、他のソーシャルネットワークの8倍以上の規模になっていた。しかし、ザッカーバーグCEOとシュロープファーCTOは、その成長をさらに持続させる方法を探っていたのだ。経営陣は、AI、インターネット・コネクティビティ、そして実質現実(VR)に多額の投資をすることを決定した。
それを受け、AIチームが2つ創設された。1つは、AIテクノロジーの最新機能を強化するための基礎研究機関、「フェイスブックAIリサーチ(FAIR:Facebook AI Research)」であった。もう1つは、FAIRが研究・開発した機能をフェイスブックの製品やサービスに統合する「応用機械学習(Applied Machine Learning:AML)」チームである。2013年12月、経営陣が何カ月もかけて説得した末、この分野における著名人のひとりであるヤン・ルカン博士をFAIRのリーダーとして獲得した。その3カ月後、キニョネロは再び昇進し、今度はAMLを率いることになった(AMLは後に「ファイアー(FAIAR)」と改名された。「fire」と同じ発音である)。
キニョネロは新たな役職で、フェイスブック社内の誰でもアクセス可能な新しい機械学習モデル開発プラットフォームを構築した。「FBラーナー・フロー(FBLearner Flow)」と呼ばれるこのプラットフォームによって、AIの経験がほとんどないエンジニアでも数日間でモデルを訓練し、展開できるようになった。2016年半ばまでには、フェイスブックのエンジニアリングチームの4分の1以上が使用しており、画像認識、ターゲティング広告、コンテンツ・モデレーション用のモデルなど、既に百万個以上のモデルのトレーニングに利用されていた。
世界中の人にフェイスブックのプラットフォームを利用させたいというザッカーバーグCEOの執念は、強力な新兵器を見つけたのだ。ユーザーをより効果的に惹きつけるため、チームは以前からコンテンツや通知の頻度を変えて実験するなどのデザイン戦術を利用していた。チームの目標はとりわけ、「L6/7」と呼ばれる指標を高めることであった。L6/7とは、過去7日間のうち、6日間、フェイスブックのプラットフォームにログインしたユーザーの割合である。
L6/7は、フェイスブックがユーザーの「エンゲージメント」を測定するために使用する無数の指標の1つにすぎない。投稿、コメント、いいねやシェア、閲覧するだけなど、どのような方法で利用するかにかかわらず、ユーザーがプラットフォームを利用する傾向を示す指標である。しかし、新しいモデル開発プラットフォームのおかげで、これまでエンジニアが分析していたあらゆるユーザーインタラクションが、アルゴリズムによって分析されるようになった。これらのアルゴリズムは、各ユーザーのニュースフィードを調整するためのより速く、よりパーソナル化されたフィードバックループを作成することで、エンゲージメントの指標を改善し続けていた。
メンローパーク本社のメインオフィスである「ビルディング20(Building 20)」の中央に座るザッカーバーグCEOは、FAIRとAMLの新チームを自分のデスクの側に配置した。当初、AI関連で採用された従業員の多くは、自分のデスクがザッカーバーグCEOのデスクとほぼ触れ合うほど近くに置かれた。そこは、「至聖所」であったと、AIオルグ(フェイスブックのすべて …
- 人気の記事ランキング
-
- These AI Minecraft characters did weirdly human stuff all on their own マイクラ内に「AI文明」、 1000体のエージェントが 仕事、宗教、税制まで作った
- Promotion MITTR Emerging Technology Nite #31 MITTR主催「再考ゲーミフィケーション」開催のご案内
- The startup trying to turn the web into a database Webをデータベースに変える、新発想のLLM検索エンジン
- 3 things that didn’t make the 10 Breakthrough Technologies of 2025 list 2025年版「世界を変える10大技術」から漏れた候補3つ
- OpenAI’s new defense contract completes its military pivot オープンAIが防衛進出、「軍事利用禁止」から一転