選挙干渉、AIより古典的手法が主流 米大統領選の対策は?
アラン・チューリング研究所の調査によると、選挙干渉には生成AIよりも従来のソーシャルボットなどが主に使われている。米大統領選を前に、各州で対策訓練が実施されているが、候補者自身によるAI利用の懸念も浮上している。 by Melissa Heikkilä2024.10.01
- この記事の3つのポイント
-
- AIによるディープフェイクは選挙に影響を及ぼしていない
- 選挙干渉にはソーシャルボットなど既存の手法が使われている
- 選挙でのAI利用に関する倫理的ガイドラインの策定が必要だ
この記事は米国版ニュースレターを一部再編集したものです。
余計なことはするな! これが、悪意ある国家が選挙に干渉するとき、世界中で共通するやり方のようだ。
生成人工知能(AI)ブームが最初にやってきた頃、識者や専門家が抱いた最大の懸念のひとつは、超高性能なAIによるディープフェイクが選挙に影響を与えるために使われるかもしれない、ということだった。しかし、英国のアラン・チューリング研究所が発表した新しい研究によると、そのような懸念が誇張だった可能性があるという。AIが生成した虚偽やディープフェイクは、今年これまでに英国、フランス、欧州議会、そして世界中の他の国々であった選挙を見ても、結果に何の影響も及ぼしていないようなのだ。
研究を担当したサム・ストックウェル研究員によると、ロシアのような国家が選挙へ干渉する際に頼りにしているのは、生成AIではない。コメント欄を溢れさせるソーシャルボットを利用して分裂を生み出し、混乱を引き起こすなど、すでに確立している手法を使っているのだ。 詳しくはこちらの記事をお読みいただきたい。
ただ、今年最も重要な選挙のひとつが、まだこの先に控えている。およそ1カ月後、米国民は投票所に向かい、次期大統領としてドナルド・トランプとカマラ・ハリスのどちらかを選ぶことになる。 ロシアは、この選挙に備えてGPU(画像処理装置)を温存しているだろうか?
米国の選挙でもAIによるデマがどのように広がっているのかを監視しているストックウェル研究員は、これまでのところ、そのような事態には至っていないとの見方を示す。「悪意ある行為者たちは、『長年使ってきた確立済みの手法』に今も依存しています。長年と言っても、何十年も続いているわけではありませんが。米国の大衆の間で親ロシア政策が支持を集めているかのような印象を作り出す手口としては、ソーシャルボット・アカウントなどが利用されてきました」。
そして、生成AIによるツールを実際に使っても、成果はあがらないようだと彼は補足する。例えば、ロシアと強いつながりのある組織的情報活動「コピー・コップ(Copy Cop)」は、ウクライナでのロシアの戦争について、親ロシア派の言い分を反映するように、チャットボットを使って本物のニュース記事を書き換えようとしている。
問題は、公開した記事からプロンプト(指示テキスト)を削除し忘れていることだ。
短期的に見ると、より直接的な害を防ぐためにできることが米国にはいくつかある、とストックウェル研究員は言う。 例えば、アリゾナ州やコロラド州など一部の州ではすでに、選挙管理者や司法当局とレッドチーミング演習を実施し、選挙日をAIの脅威が襲う最悪のシナリオをシミュレーションしている。また、情報拡散活動を暴き、覆し、撃退できるように、ソーシャルメディア・プラットフォーム、オンライン・セーフティチーム、ファクトチェック組織、デマ研究者、そして司法当局の間で協力体制を強化する必要がある、とストックウェル研究員は述べている。
しかし、国家がディープフェイクを利用していないという事実は、候補者への抑止力にはならない。最近では、ドナルド・トランプ候補がAI生成画像を使用し、テイラー・スウィフトの支持を得たとほのめかした(その直後、スウィフトはハリス候補を支持すると表明した)。
私は今年の初め、超現実的なディープフェイクが秘める可能性と、私たちが日々利用している情報にテクノロジーがどう影響するのか探る記事を書いた。そこで述べたように、日々触れる情報に対する強い疑念と不信を私たちに抱かせてしまう恐れがある。そして、悪者や日和見主義の政治家がその疑念につけ込み、真正な情報を偽物であると嘘をつくという実質的なリスクがある。これは「嘘つきの配当」と呼ばれるものだ。
政治家がAIを利用する方法について、早急にガイドラインを策定する必要がある。 現在、選挙の候補者が選挙活動において、倫理的にAIを利用する方法をはっきりとさせる説明や、許容範囲を分ける明確な一線が欠けている、とストックウェル研究員は言う。私たちは、AIが生成した広告を何の注釈もなしで共有する候補者や、他の候補者の活動を「AIが作ったものだ」と非難する候補者を目にしている。そのような行為が増えていくと常態化してしまう、と彼は付け加えた。そして、これまでに見てきたことのすべてが、まだ始まりに過ぎないことを示している。
未知の環境でロボットにタスクを実行させるAI
未知の環境でロボットに何かをさせるのは難しい。研究者は、ロボットを設置する場所が変わるたびに、新しいデータを使ってロボットを訓練しなければならない。これにはかなりの時間と費用がかかってしまう。
このほど、追加の訓練やファインチューニング(微調整)なしに、未知の環境で基本的なタスクをこなすことをロボットに教え込む5種類のAIモデル「ロボット・ユーティリティー・モデル(RUMs:Robot Utility Models)」が開発された。このRUMsを使うと、それぞれ独立した5種類のタスクをロボットに実行させることができる。未知の環境で、ドアや引き出しを開け、ティッシュやバッグ、円筒形の物体を拾うタスクを90%以上の成功率で実行できる。さらにこの手法によって、家庭へのロボット導入がより簡単かつ低コストになる可能性がある。 詳しくは、こちらで本誌のリアノン・ウィリアムズ記者による記事をご覧いただきたい。
AI関連のその他のニュース
- 議会には現在、120件以上の人工知能(AI)法案が出されている。米国の政治家たちは、人工知能を「すべてを、どこでも、一度に」の考え方で規制しようとしており、関連法案はAIそのものの定義と同じくらい多様になっている。(MITテクノロジーレビュー)
- グーグルがより迅速な山火事発見を目指して、AIを活用した人工衛星群に資金を提供。ファイアサット(FireSat)システムは、世界中のどこであっても小さな火事を検出し、20分ごとに更新画像を提供できるものになるはずだ。(MITテクノロジーレビュー)
- 人の言語用法を分析するプロジェクトが終了。理由は「生成AIがデータを汚染したため」。Wordfreq(ワードフレック)は、人がどのように言語を使用するのかを分析するための情報をインターネットから集めるオープンソースのプロジェクトである。ところが2021年以降、インターネットでAI生成テキストが増えすぎたため、信頼性の高い分析ができなくなっていることが分かった。(404 メディア)
- データセンターの温室効果ガス排出量は、巨大テック企業の言い分よりも662%も高いはず。AIモデルの実行と訓練には莫大なエネルギーが必要であり、テック企業は温室効果ガス排出量の削減に向けた対策をしきりにアピールしている。 しかし、温室効果ガスの排出量の計算では「創作的会計」が横行している。新たな分析結果によると、これらの企業が運営するデータセンターからの温室効果ガス排出量は、公式発表値の7.62倍に達する可能性が高い。(ガーディアン)
- 人気の記事ランキング
-
- A tiny new open-source AI model performs as well as powerful big ones 720億パラメーターでも「GPT-4o超え」、Ai2のオープンモデル
- Geoffrey Hinton, AI pioneer and figurehead of doomerism, wins Nobel Prize in Physics ジェフリー・ヒントン、 ノーベル物理学賞を受賞
- The coolest thing about smart glasses is not the AR. It’s the AI. ようやく物になったスマートグラス、真価はARではなくAIにある
- Geoffrey Hinton tells us why he’s now scared of the tech he helped build ジェフリー・ヒントン独白 「深層学習の父」はなぜ、 AIを恐れているのか?
- メリッサ・ヘイッキラ [Melissa Heikkilä]米国版 AI担当上級記者
- MITテクノロジーレビューの上級記者として、人工知能とそれがどのように社会を変えていくかを取材している。MITテクノロジーレビュー入社以前は『ポリティコ(POLITICO)』でAI政策や政治関連の記事を執筆していた。英エコノミスト誌での勤務、ニュースキャスターとしての経験も持つ。2020年にフォーブス誌の「30 Under 30」(欧州メディア部門)に選出された。