KADOKAWA Technology Review
×
年間購読料が今なら20%オフ! お得な【Winter Sale】実施中
AIの未来を予測するのが難しい理由
Stephanie Arnett/MIT Technology Review | Adobe Stock
Why AI predictions are so hard

AIの未来を予測するのが難しい理由

AIについての話題が日常会話で取り上げられることが増える一方で、この技術が今後、どうなっていくか予測するのはますます難しくなっている。 by James O'Donnell2026.01.16

この記事の3つのポイント
  1. MITテクノロジーレビューが2026年AI予測リストを公開した
  2. LLMの継続的進歩への不確実性とAIへの世論の反発は予測困難化の主因となっている
  3. 真の科学的発見は限定的で、医療診断支援でも悲惨な結果を招くなどマイナス面も
summarized by Claude 3

人工知能(AI)の話題を普段追いかけていると、時にニッチに感じられることがある。だが、長期休暇のシーズンに入ると、あらゆる年代の親戚がチャットボットによる精神病の事例について話し、電気料金の上昇をデータセンターのせいにし、子どもたちがAIに無制限にアクセスすべきかどうかを尋ねているのを耳にする。つまり、AIはあらゆる場所に存在し、人々は警戒しているのだ。

こうした会話は必然的に、現在、これらすべての波及効果をもたらしているAI技術がさらに向上したら次に何が起こるのかという方向に向かう。そうした会話になると、親戚たちは私を見つめ、破滅か希望のどちらかの予測を期待する。

私はおそらく期待を裏切るだろう。それは、AIの予測がますます困難になっているからにほかならない。

それにもかかわらず、MITテクノロジーレビューは、AIがどこに向かっているかを把握する上で、かなり優秀な実績を持っていると言わざるを得ない。本誌は2026年にAI関連で何が起こるのか、先鋭的な予測リストを公開したばかりである(そこではAIを巡る法的闘争に関する私の考えも書かせてもらった)。2025年の年初に発表したリストの予測はすべて実現したものの、毎年、年末年始の休暇シーズンに、AIによる影響を把握することはますます困難になっている。主に3つの大きな未解決の問題があるためだ。

第一に、大規模言語モデルが近い将来、漸次的により賢くなり続けるかどうかわからない。この特定の技術は現在、AIにおけるほぼすべての興奮と不安の基盤となっており、AIコンパニオンからカスタマーサービス・エージェントまであらゆるものの原動力となっている。そのため、大規模言語モデルの進歩の減速はかなり大きな問題となるだろう。実際、これは非常に大きな問題なので、本誌はAIのポスト誇大宣伝時代について深堀りした特集記事を掲載した。

第二に、AIは一般大衆の間でかなりひどく不人気である。一例を挙げよう。およそ1年前、オープンAI(OpenAI)のサム・アルトマンCEO(最高経営責任者)はトランプ大統領の隣に立ち、大規模なAIモデルを訓練するために米国全土にデータセンターを建設する5000億ドル規模のプロジェクトを興奮気味に発表した。この2人は、多くの米国人が自分たちの地域にデータセンターが建設されることに断固として反対するであろうことを推測しなかったか、あるいは気にしなかったかようだ。1年後、巨大テック企業は世論を味方につけて建設を続けるようとして困難な戦いを繰り広げている。勝利できるだろうか?

こうした不満に対する議員たちの反応はひどく混迷している。トランプ大統領はAI規制を州ではなく連邦(国)レベルの問題にすることで、テック企業のCEOたちを喜ばせている。テック企業は今、規制を法律として成文化することを望んでいる。しかし、チャットボットから子どもたちを守りたいと考える人々は、カリフォルニア州の進歩的議員から、ますますトランプと歩調を合わせる連邦取引委員会まで幅広く、それぞれ異なる動機とアプローチを持っている。彼らは大同団結してAI企業を抑制できるだろうか?

陰鬱な休暇の夕食テーブルでの会話がここまで進むと、誰かがこう言うだろう。ねえ、AIは良いことには使われていないの? 人々をより健康にし、科学的発見を掘り起こし、気候変動をよりよく理解することとか?

ある程度はそうだ。機械学習は、長い間あらゆる種類の科学研究で使用されてきた。深層学習は、生物学を変革してノーベル賞を受賞したタンパク質予測ツール「AlphaFold(アルファフォールド)」に組み込まれている。がん細胞を識別する画像認識モデルの性能は向上している。

しかし、新しい大規模言語モデル上に構築されたチャットボットの実績は、より控えめである。ChatGPT(チャットGPT)のようなツールは、大量の研究を分析して、既知の内容を要約することにかなり長けている。一方で、未解決の数学問題を解いたという注目された報告はインチキだった。大規模言語モデルは医師の診断を支援できるが、時には医師に相談せずに自分で解決するよう推奨することもあり、時には悲惨な結果をもたらすこともある。

2027年の今頃には、おそらく私の家族の質問により良い答えを持っているだろうし、まったく新しい質問の束も持っているだろう。それまでは、本誌のAIチームがまとめた完全版の予測記事をぜひお読みいただきたい。

人気の記事ランキング
  1. America’s new dietary guidelines ignore decades of scientific research 「ステーキとバターを食べよ」米国の新食事ガイドラインが波紋
ジェームス・オドネル [James O'Donnell]米国版 AI/ハードウェア担当記者
自律自動車や外科用ロボット、チャットボットなどのテクノロジーがもたらす可能性とリスクについて主に取材。MITテクノロジーレビュー入社以前は、PBSの報道番組『フロントライン(FRONTLINE)』の調査報道担当記者。ワシントンポスト、プロパブリカ(ProPublica)、WNYCなどのメディアにも寄稿・出演している。
AI革命の真実 誇大宣伝の先にあるもの

AIは人間の知能を再現する。AIは病気を根絶する。AIは人類史上、最大にして最も重要な発明だ——。こうした言葉を、あなたも何度となく耳にしてきたはずだ。しかし、その多くは、おそらく真実ではない。現在地を見極め、AIが本当に可能にするものは何かを問い、次に進むべき道を探る。

特集ページへ
日本発「世界を変える」U35イノベーター

MITテクノロジーレビューが20年以上にわたって開催しているグローバル・アワード「Innovators Under 35 」。世界的な課題解決に取り組み、向こう数十年間の未来を形作る若きイノベーターの発掘を目的とするアワードの日本版の最新情報を発信する。

特集ページへ
フォローしてください重要なテクノロジーとイノベーションのニュースをSNSやメールで受け取る