内部告発者が語った
フェイスブックの闇
問題の核心
フェイスブック元従業員のフランシス・ホーゲンの米議会での証言は、フェイスブックのアルゴリズムがどのように機能するのか、重大な問題を投げかけている。同社のアルゴリズムが、世界各地で分断や紛争の種となっているばかりか、青少年の精神的健康に悪影響を及ぼしているにもかかわらず、根本的な設計変更を拒否してきたという。 by Karen Hao2021.10.18
ウォール・ストリート・ジャーナル(WSJ)紙がフェイスブックの内部資料に基づいてまとめた一連の調査報道、「フェイスブック・ファイル」。その主要な情報源であった人物が10月4日夜、米国のテレビ番組「60ミニッツ」に登場し、自らの身元を明かした。
フェイスブックの元プロダクトマネジャー、フランシス・ホーゲンは、フェイスブックの経営陣が繰り返し、安全性より利益を優先するのを見て、名乗り出たと言う。
ホーゲン元プロダクトマネジャーによると、フェイスブックは意図的に自社プラットフォームの問題を放置すると決めたという。そして彼女は今年5月に退職する前、そのことを示す決定的な証拠をつかむために、同社の従業員向け社内ソーシャルメディア・ネットワークである「フェイスブック・ワークプレイス(Facebook Workplace)」を徹底的に調べ、内部報告書や研究結果を大量に収集した。
そして10月5日、ホーゲン元プロダクトマネジャーはフェイスブックが社会に与える影響について上院で証言した。社内調査の結果を繰り返し述べて、議会に行動を促したのだ。
「私が本日ここに来たのは、フェイスブックのサービスが子どもに悪影響を与え、分断を助長し、民主主義を弱体化させると信じているからです」と、ホーゲン元プロダクトマネジャーは議員への冒頭陳述で述べている。「これらの問題は解決できます。より安全で、言論の自由を尊重し、楽しめるソーシャルメディアは実現可能です。今回の情報開示によって皆さんに認識していただきたいのは、フェイスブックは変わることができますが、明らかに自主的には変わろうとしないということです」。
ホーゲン元プロダクトマネジャーは証言の中で、問題の多くは主に、アルゴリズムとプラットフォームの設計に関する決定に起因すると述べている。これは大きな視点の変化である。政治家は従来、フェイスブックのコンテンツポリシーと検閲(フェイスブックのプラットフォーム上に何を掲載すべきであり、何を掲載しないべきか)に焦点を置いていた。多くの専門家は、このような狭い視野が、大局を見失ったもぐらたたきのような戦略につながると考えている。
「私は、投稿の内容に基づかない解決策を強く提唱しています。世界で最も弱い立場に置かれている人々を保護できるからです」と、ホーゲン元プロダクトマネジャーは言う。そして、コンテンツポリシーを履行するフェイスブックの能力が、英語以外の言語ではばらつきがあると指摘している。
ホーゲン元プロダクトマネジャーの証言は、今年はじめに発表されたMITテクノロジーレビューの調査結果の多くと一致する。MITテクノロジーレビューの調査は、フェイスブックの経営幹部や現役および元社員、業界関係者、外部の専門家に数十回、取材してまとめたものである。ホーゲン元プロダクトマネジャーの証言の背景をより深く理解するために、本誌の調査結果や他社報道から最も関連性の高い部分を引用して以下にまとめた。
フェイスブックのアルゴリズムはどのように機能するのか
口語では、あたかも1つのアルゴリズムであるかのように、「フェイスブックのアルゴリズム」という言葉が使われる。しかし、フェイスブックは実際、数百、あるいは数千ものアルゴリズムに基づいて、ターゲティング広告を表示したり、投稿をランク付けする方法を決定している。それらのアルゴリズムの中には、ユーザーの好みを把握し、好みに合った投稿をユーザーのニュース・フィードの上位に表示する役割を担うものもある。また、ヌードやスパム、クリックを誘う見出しなど、特定の種類の悪質な投稿を検出し、削除したり、フィードの下位に移動させたりするアルゴリズムも利用されている。
これらのアルゴリズムは全て、機械学習アルゴリズムとして知られている。今年はじめのMITテクノロジーレビューの記事では、次のように説明している。
エンジニアがコードに直接記述する従来型のアルゴリズムと異なり、機械学習アルゴリズムは入力データをもとに「訓練」することで、データ内の相関関係を学習する。このような訓練を通じて、機械学習モデルと呼ぶ学習済みアルゴリズムは、将来の意思決定を自動化できるのだ。たとえば、広告のクリックデータから学習したアルゴリズムは、女性が男性よりもヨガ用レギンスの広告をクリックする回数が多いことを学ぶ可能性がある。その結果、学習済みモデルは、女性に対して、ヨガ用レギンスの類の広告をより多く発信するようになる。
そして、フェイスブックは膨大なユーザーデータが蓄積しているため、
「女性」や「男性」などの大ざっぱなカテゴリーだけでなく、「ヨガに関連するフェイスブックページが好きな25歳から34歳の女性」といった非常に細かいカテゴリーの存在を推測し、そのカテゴリーに属するユーザーを対象として広告を配信するよう学習したモデルを開発することができる。ターゲットをきめ細かく設定するほど、クリックされる可能性が高くなるので、広告主にとってはより効果的な広告になる。
ニュース・フィードにおけるコンテンツのランク付けにも同じ原理を使用している。
誰がどの広告をクリックするかを予測するようアルゴリズムを学習させることができるのと同様、どの投稿に誰が「いいね!」をつけたり「シェア」したりするかを予測し、ユーザーが関心を持ちそうな投稿をより目立つ位置に表示するよう学習させることもできる。たとえば、モデルによって「犬好き」と判断されたユーザーのニュース・フィードには、犬に関する友人の投稿が上位に表示される。
フェイスブックが機械学習アルゴリズムの使用を開始する前は、ユーザーのエンゲージメントを高めるためにデザイン戦術を利用していた。ボタンの色や通知の頻度などを変更して実験し、ユーザーが常にサービスに戻ってくるようにしたのである。しかし、機械学習アルゴリズムはそれよりはるかに強力なフィードバックループを作り出す。ユーザーに合わせてパーソナライズした投稿を表示するだけでなく、ユーザーの嗜好の変化とともに進化を続け、その時々に各ユーザーが最も興味を持つ投稿を永続的に表示し続けるのだ。
フェイスブックでは誰がアルゴリズムを開発しているのか
フェイスブック内で、投稿のランク付けシステム全体を担当するチームは存在しない。エンジニアがそれぞれのチーム独自の目標に基づいて機械学習モデルを開発し、追加していく。たとえば、「インテグリティ(Integrity)・チーム」と呼ばれる、悪質なコンテンツの削除や表示順位降格を担当するチームは、さまざまな種類の悪質なコンテンツを検出するためだけにモデルを訓練する。
これは、フェイスブックのモットーである「すばやく行動し、破壊せよ(Move …
- 人気の記事ランキング
-
- A tiny new open-source AI model performs as well as powerful big ones 720億パラメーターでも「GPT-4o超え」、Ai2のオープンモデル
- Geoffrey Hinton, AI pioneer and figurehead of doomerism, wins Nobel Prize in Physics ジェフリー・ヒントン、 ノーベル物理学賞を受賞
- The coolest thing about smart glasses is not the AR. It’s the AI. ようやく物になったスマートグラス、真価はARではなくAIにある
- Geoffrey Hinton tells us why he’s now scared of the tech he helped build ジェフリー・ヒントン独白 「深層学習の父」はなぜ、 AIを恐れているのか?