「バイアスのない中立なAI」が実現不可能な理由
知性を宿す機械

Why it’s impossible to build an unbiased AI language model 「バイアスのない中立なAI」が実現不可能な理由

政治的なバイアスのない、中立的なAIチャットボットは魅力的なアイデアだが、実現は技術的に不可能だ。だからこそ、AIの回答を鵜呑みにしないようにする必要がある。 by Melissa Heikkilä2023.08.20

この記事は米国版ニュースレターを一部再編集したものです。

人工知能(AI)言語モデルはここ最近、米国の文化戦争における最新のフロンティアとなっている。右派のコメンテーターたちは、チャットGPT(ChatGPT)に「ウォーク(意識高い系)」のバイアスがかかっていると非難し、保守派グループたちは独自のAIチャットボットの開発を始めている。イーロン・マスクは、オープンAI(OpenAI)やグーグルが開発した「政治的に正しい」チャットボットとは対照的に、「最大限に真実を追求する」言語モデルを謳う「トゥルースGPT(TruthGPT)」の開発に取り組んでいると述べている

バイアスのない、純粋に事実に基づくAIチャットボットは魅力的なアイデアだが、技術的に見るとそれは不可能だ(マスクは今のところトゥルースGPTが何を必要としているのかについて詳細を一切明かしていない。おそらく、新たに設立したエックスAI(xAI)のことやマーク・ザッカーバーグとの金網マッチのことを考えるのに忙しすぎるからだろう)。不可能である理由を理解するには、新たな研究に関する本誌の解説記事をお読みいただきたい。いかにして政治的バイアスがAI言語モデルに忍び寄りつつあるのかを明らかにしている研究だ。研究チームは14種類の大規模言語モデルをテストし、オープンAIの「チャットGPT(ChatGPT)」と「GPT-4」が最左翼のリバタリアン(自由至上主義)であり、メタ(Meta)の「LLaMA(ラマ)」が最右翼の権威主義であることを見い出した。

「政治的バイアスから完全に自由な言語モデルなどあり得ないと確信しています」。カーネギーメロン大学の研究員で、この研究に参加したチャン・パーク博士はそう語った( 詳しくはこちら)。

AIに関する誤った通念として最も広く蔓延しているものの1つとして、AIが中立でバイアスを持たないというものが挙げられる。この考え方を推し進めるのは危険であり、コンピューターが間違っていたとしてもコンピューターを信じてしまいがちという人間が持つ傾向を深刻化させるだけである。実際、AI言語モデルは訓練データのバイアスだけでなく、それを作り、訓練した人間のバイアスも反映している。

AIモデルの訓練に使われるデータがバイアスの大きな要因となっていることはよく知られているが、この研究は、実質的にモデル開発のあらゆる段階でいかにしてバイアスが入り込んでくるのかを明らかにしたと、ソローシュ・ヴォスギは述べている。ヴォスギはダートマス大学コンピューター科学部の助教授で、この研究には関わっていない。

AI言語モデルのバイアスは特に解決の難しい問題だ。その理由は、AI言語モデルが何かを生成する際にどのように実行しているのかを私たちが本当の意味で理解できておらず、バイアスの緩和を目的とした処置が完璧でないからだ。バイアスが技術的に容易に解決できない複雑な社会問題だから、というのがその原因の1つとなっている。

だからこそ、誠実さこそが最善の解決策であると私は確信している。 上記のような研究が後押しとなって、企業は自社のAIモデルが持つ政治的バイアスを監視して方針を決め、顧客に対してより率直な態度を取るようになるかもしれない。例えば、企業が既知のバイアスを明確に提示することで、ユーザーはそのモデルの生成物を鵜呑みにせずに受け取ることができるだろう。

この話の流れで言うと、オープンAIは今年、さまざまな政治や世界観を提示できるカスタマイズされたチャットボットを開発中だと語っている。ユーザーがAIチャットボットを自分好みに設定できるようにするのは1つの手段だろう。ヴォスギ助教授の研究が注目したのもこのような手法である。

査読済み論文で説明されているように、ヴォスギ助教授らの研究チームは、ユーチューブのレコメンド・アルゴリズムと同様の手法を、生成AI向けに開発した。強化学習を利用してAI言語モデルの生成物を指導し、特定の政治的イデオロギーを生成したり、ヘイトスピーチを削除するようにした。

オープンAIは「人間のフィードバックによる強化学習」と呼ばれる手法で、AIモデルを公開する前に微調整している。ヴォスギ助教授の手法は、AIモデルの公開後も強化学習を利用して、生成されたコンテンツの改善を続ける。

だが二極化が進むこの世界では、この程度のカスタマイズは良い結果と悪い結果の両方をもたらすかもしれない。AIモデルがもたらす不和やデマの排除に利用できるかもしれないが、さらに多くのデマを生み出す用途で使われてしまう可能性もある。

「これは諸刃の剣です」とヴォスギ助教授は認めている。

ワールドコインが正式に開始

オープンAIのサム・アルトマン最高経営責任者(CEO)が新たに手掛ける事業「ワールドコイン(Worldcoin)」は「ワールドID(World ID)」と呼ぶ国際的なIDシステムを作り出すことを目的としており、1人1人異なる生体データによって人間であることを証明するという。このワールドコインが先日、20カ国以上で始まった。そのうちの複数の国で、すでに調査を受けている。

なぜ調査を受けているのか? その理由を理解するには、昨年のMITテクノロジーレビューの調査報道記事をお読みいただきたい。この調査記事はワールドコインが、弱い立場にある人々から現金と引き換えに機微な生体データを収集していることを明らかにしている。さらに同社は、匿名化されているとはいえテスト・ユーザーの機微なデータを使って、テスト・ユーザー本人が知らないところでAIモデルを訓練していたのだ。

昨年の調査以来、ワールドコインはどう変わったのか、最新ニュースをどのように理解すべきか、本誌のテイト・ライアン・モズリー記者とアイリーン・グオ記者が考察している。 詳しくはこちら

AI関連のその他のニュース

顔認識の一致によって女性が誤認逮捕された初の事例だ。昨年2月、妊娠8カ月だったポルチャ・ウッドラフは、強盗と自動車窃盗の疑いで逮捕され、11時間にわたって勾留された。ようやく不起訴になったのは1カ月後のことだ。顔認識の一致によって不当に罪に問われたと訴えるのは、これで6人目。6人全員が黒人で、ウッドラフは初の女性となった。 (ニューヨーク・タイムズ紙

AIシステムがあなたについて嘘をついたとき、あなたにできることは? 本誌は昨年、AI言語モデルの訓練に使う膨大なデータ・セットに個人データがいかにして取り込まれているのか、記事にしている。プライバシーを考える上で悪夢であり、個人の評判を悪化させる可能性もある問題だ。この記事を発表した当時、研究者と私は、メタの実験的チャットボットである「ブレンダーボット(BlenderBot)」が、オランダの有名政治家マリーチェ・シャーケをテロリスト呼ばわりしていたことを発見した。この記事で説明したとおり、現時点ではAIチャットボットがあなたについて嘘を拡散してしまっても、保護や頼りになるものはほとんど存在しない。(ニューヨーク・タイムズ紙

今やあらゆるスタートアップ企業がAI企業だ。私たちはバブルの中にいるのか?  チャットGPTの公開を受けて、今年はAIに関する大げさな宣伝が強烈なものになっている。あらゆるテック関係者がAIスタートアップ企業を立ち上げたかのように思えるほどだが、チャットGPTの公開から9カ月経った今でも、こうしたスタートアップ企業とAIテクノロジーがどのように利益を生み出すのかは不透明で、消費者が興味を失い始めているとの報道も出てきている。(ワシントンポスト紙

メタはユーザーを引き留めるために人格を持ったチャットボットを開発している。正直なところ、非常に不快な話だ。メタはエンゲージメントの増加とプラットフォーム利用者からさらにデータを収集する目的で、早ければ来月にもさまざまな人格を備えたAI搭載チャットボットの公開を準備していると報じられている。ユーザーはエイブラハム・リンカーン元大統領とチャットしたり、サーファーのような文章を書くAIチャットボットに旅行のアドバイスを求められるようになるという。だがそこで微妙な倫理的疑問が持ち上がってくる。チャットボットがユーザーの行動を操ったり、有害な何かをでっちあげたりするのをメタがどのように防止し、収集したユーザー・データをどう扱うのかという疑問である。(フィナンシャル・タイムズ紙