KADOKAWA Technology Review
×
生成AIはSDGs達成に役立つか? 国連サミットでの学び
ITU
What I learned from the UN’s "AI for Good" summit

生成AIはSDGs達成に役立つか? 国連サミットでの学び

5月末にジュネーブで開催された国連の会議では、「持続可能な開発目標」達成にAIがどう活用できるかが議論された。膨大なエネルギーを消費し、バイアスを助長しているAIを、いかに持続可能なものにするか、といった視点ではやや物足りない内容だった。 by Melissa Heikkilä2024.06.07

この記事は米国版ニュースレターを一部再編集したものです。

スイス・ジュネーブからちょうど帰ってきたところで、この記事を執筆している。ジュネーブでは5月30、31日に、国連の専門機関である国際電気通信連合(ITU)が主催するサミット「AIフォー・グッド・サミット(AI for Good Summit)」が開催された。 サミットの大きな焦点となったのは、貧困と飢餓の撲滅、ジェンダー平等の達成、クリーン・エネルギーと気候変動対策の推進など、国連の「持続可能な開発目標(SDGs)」を達成するために、人工知能(AI)をどのように活用できるかということだった。

この会議ではたくさんのロボットが紹介されたが(ワインを出すロボットもいた)、最も気に入ったポイントは、世界中からAIに携わる人々が招集されていたことだ。中国、中東、そしてアフリカからの参加者もいた。アフリカ言語のためのAIモデルを構築するスタートアップ企業、レラパAI(Lelapa AI)の最高経営責任者(CEO)であるペロノミ・モイロアもその1人だ。AI分野は非常に米国中心で男性主体となり得るため、AIにまつわる議論をよりグローバルで多様なものにしようとする取り組みはすばらしいものだ。

しかし正直なところ私は、AIが国連の目標のいずれかを前進させる上で有意義な役割を果たせる、との確信を持って会議を後にしたわけではなかった。実際、最も興味深かった講演は、AIがいかにその逆のことをしているかというものだった。気候活動家のセイジ・レニアーは、AIに環境破壊を加速させてはならないと語った。ヒューメイン・テクノロジー・センター(Center for Humane Technology)の共同設立者であるトリスタン・ハリスは、ソーシャルメディアへの依存、テック分野の金銭的インセンティブ、過去のテックブームから学ばなかった私たちの失敗について説得力のある講演をした。そして、テック業界にはいまだに根深いジェンダー・バイアスが存在すると、「AI倫理における女性(Women in AI Ethics)」の創設者であるミア・シャー・ダンドは思い出させてくれた。

会議自体はAIを 「良いこと(good)のために使う」ことをテーマにしていたが、私はむしろ、透明性、説明責任、包摂性を高めることで、開発から展開にいたるまで、AIそのものをどのように良いものにすることができるかについて、もっと語ってほしかった。今では、生成AIで1枚の画像を生成するのに、1台のスマホを充電するのと同じくらいのエネルギーを使うことが知られている。気候目標を達成するために、このテクノロジーそのものをより持続可能なものにする方法について、もっと率直な議論がされるのを目にしたかったのだ。私たちが使っているAIシステムの非常に多くが、グローバル・サウスに住む人間のコンテンツモデレーターの労働のもとに構築されており、彼らは薄給でトラウマになるようなコンテンツに目を通している。そのことを知っているのに、AIを不平等の是正にどのように役立てることができるか、という議論を聞くのは、あまり心地よいものではなかった。

AIの「とてつもない恩恵」を訴えたのは、このサミットの主役となる登壇者、オープンAI(OpenAI)のサム・アルトマンCEOだ。アルトマンCEOは、アトランティック(Atlantic)のニコラス・トンプソンCEOからリモートでインタビューを受けた。ちなみにアトランティックは、新しいAIモデルを訓練するためのコンテンツを共有する契約をオープンAIと結んだと発表したばかりである。オープンAIはまさに現在のAIブームを巻き起こした企業であるため、このインタビューはこれらの問題についてアルトマンCEOに尋ねる絶好の機会となっただろう。しかし、2人の議論は、安全性についての比較的漠然とした抽象度の高いものであった。そのため、オープンAIが自社のシステムをより安全なものにするために具体的に何をしているのか、聴衆は何もわからないままだった。聴衆はアルトマンCEOの言葉を鵜呑みにするしかないように思えた。

このアルトマンCEOの講演があったのは、オープンAIの元取締役であるヘレン・トナーが、同社の取締役会はツイッターを通じてチャットGPT(ChatGPT)の立ち上げを知ったと、あるインタビューで語った1週間ほど後のことだった。トナーは現在、ジョージタウン大学セキュリティ・エマージング・テクノロジー・センターの研究者である。トナーはまた、アルトマンCEOは取締役会に対して何度も、会社の正式な安全プロセスについて不正確な情報を与えたと語り、膨大な利益インセンティブが常に優先されるため、AI企業に自らを統治させるのは良くないと主張している(アルトマンCEOは「彼女の記憶には同意できません」と述べている)。

トンプソンCEOが、生成AIが最初にもたらす良いことは何かとアルトマンCEOに尋ねると、アルトマンCEOは生産性について言及した。ソフトウェア開発者がAIツールを使うことで仕事が格段に速くなるといった例を挙げて、「このようなツールを使えるようになったことで、さまざまな産業が以前よりもはるかに生産的になるでしょう。そしてそれは、あらゆることにポジティブな影響を与えます」と語った。私は、その点についてはまだ判断がつかないと考えている。


グーグルの「AIオーバービューズ(AI Overviews)」が間違える理由

グーグルの新機能「AIオーバービューズ(AI Overviews)」は、重要な情報やリンクが強調された簡潔な要約をAIが生成し、検索結果の上に表示する。残念なことに、米国でAI Overviewsがリリースされてから数日も経たないうちに、よく言っても奇妙としか思えない回答の事例がユーザーたちによって報告された。この機能が、ピザに接着剤を加えることや、1日に少なくとも1個の小さな岩を食べることを勧めたのだ。

AIを搭載した検索エンジンが間違いを起こす理由を理解するためには、その仕組みに目を向ける必要がある。このようなモデルは単純に、ひと続きの文章の中の次の単語(またはトークン)を予測するだけだ。そのため、流暢に見える半面、でたらめな答えをしてしまいがちである。これらのモデルには根拠となる真実がない代わりに、それぞれの単語を純粋に統計的な計算に基づいて選択する。最悪なのは、この事態を修正する方法がおそらくないことだ。 これがAI検索エンジンを信用してはいけない理由である。 詳しくは、こちらの記事をお読みいただきたい

AI関連のその他のニュース

オープンAIの最新の失態は、中国のAIモデルが直面する課題を示している。オープンAIの「GPT-4o」のデータセットは、中国のスパムWebサイトによって汚染されている。しかし、この問題は、中国のAIサービスを構築する人々にとって、より広範な問題を提示している。中国のインターネットが機能する仕組み上、訓練に必要な高品質のデータセットを見つけるのは難しい。(MITテクノロジーレビュー

犯罪者がAIを利用する5つの方法。AIは犯罪者の裏社会においても、生産性に大きな向上をもたらした。生成AIのおかげで、フィッシング、詐欺、ドクシングがかつてないほど容易になった。(MITテクノロジーレビュー

オープンAIがロボット工学チームを再始動。2020年にロボット工学チームを解散したオープンAIは、再挑戦する構えだ。この復活は、生成AIがもたらしたロボット工学の急速な進歩のおかげでもある。(フォーブス

オープンAIは、ロシアと中国のグループがプロパガンダ・キャンペーンに同社の技術を使用していることを発見した。オープンAIによると、ロシア、中国、イラン、イスラエルのグループが、世界中の政治的言説に影響を与えようとするために、オープンAIのテクノロジーを利用していることを突き止め、排除したという。しかし、AIが今年の記録的な数の選挙に影響を与えるためにどのように使われているかを考えると、これは氷山の一角に過ぎないだろう。(ワシントンポスト

安全性に賭けるAI企業アンソロピック(Anthropic)の内幕。AIモデル「クロード(Claude)」を開発したアンソロピック(Anthropic)は、「信頼問題」をめぐって辞職した元オープンAIの社員たちが立ち上げた企業だ。この記事は、オープンAIの競合の1社の内部を覗く興味深いものである。AIの安全性と効果的な利他主義の背後にあるイデオロギーが、どのようにビジネス上の意思決定を導いているかを示す。(タイム

AIドローンが遭難者をより早く発見するのに役立つかもしれない。ドローンはすでに捜索・救助に使われているが、捜索経路の計画を立てるのは一筋縄ではいかない。AIはこの現状を変えるかもしれない。(MITテクノロジーレビュー

人気の記事ランキング
  1. We finally have a definition for open-source AI 「オープンソースAI」問題ついに決着、OSIが定義を発表
  2. Here’s how people are actually using AI カネにならない生成AIブーム、LLMはどう使われているか?
  3. The US physics community is not done working on trust 物理学界で繰り返される研究不正、再発防止には何が必要か
メリッサ・ヘイッキラ [Melissa Heikkilä]米国版 AI担当上級記者
MITテクノロジーレビューの上級記者として、人工知能とそれがどのように社会を変えていくかを取材している。MITテクノロジーレビュー入社以前は『ポリティコ(POLITICO)』でAI政策や政治関連の記事を執筆していた。英エコノミスト誌での勤務、ニュースキャスターとしての経験も持つ。2020年にフォーブス誌の「30 Under 30」(欧州メディア部門)に選出された。
日本発「世界を変える」U35イノベーター

MITテクノロジーレビューが20年以上にわたって開催しているグローバル・アワード「Innovators Under 35 」。2024年も候補者の募集を開始しました。 世界的な課題解決に取り組み、向こう数十年間の未来を形作る若きイノベーターの発掘を目的とするアワードの日本版の最新情報を随時発信中。

特集ページへ
MITTRが選んだ 世界を変える10大技術 2024年版

「ブレークスルー・テクノロジー10」は、人工知能、生物工学、気候変動、コンピューティングなどの分野における重要な技術的進歩を評価するMITテクノロジーレビューの年次企画だ。2024年に注目すべき10のテクノロジーを紹介しよう。

特集ページへ
フォローしてください重要なテクノロジーとイノベーションのニュースをSNSやメールで受け取る