データセンターを研究所に、
オープンAI科学トップ語る
「自律型AI研究者」構想
人間の研究者に代わり、AIが科学的難題に自律的に取り組む——オープンAIはその実現を「今後数年間の最優先課題」と位置づけた。最高科学責任者のヤクブ・パチョッキがMITテクノロジーレビューの独占取材に応じ、壮大な構想を語った。 by Will Douglas Heaven2026.03.23
- この記事の3つのポイント
-
- オープンAIが2028年までに完全自動化されたAI研究者の構築を目指し、9月に自律型研究インターンを先行公開予定
- 現在のCodexエージェントが示すコーディング能力の成功を基盤に、数学から生命科学まで幅広い複雑な問題解決へ応用拡大を計画
- 自律的AIシステムの暴走リスクに対し思考連鎖監視などの安全策を検討するが、政府レベルでの規制枠組み構築が不可欠とも
オープンAI(OpenAI)は研究戦略を見直し、新たな壮大な課題にリソースを集中させている。同社は「AIリサーチャー」と呼ぶものの構築に照準を定めた。これは、大規模かつ複雑な問題に自律的に取り組むことができる、完全自動化されたエージェント・ベースのシステムである。オープンAIによれば、この新たな研究目標は今後数年間の「北極星」となり、推論モデル、エージェント、解釈可能性といった複数の研究分野を統合するものだ。
具体的なタイムラインも示されている。オープンAIは9月までに「自律型AI研究インターン」、すなわち限られた数の特定の研究課題に単独で取り組めるシステムの構築を計画している。このAIインターンは、同社が2028年に公開を予定している完全自動化型マルチエージェント研究システムの前段階となる。このAIリサーチャーは(同社によれば)、人間では対処が困難な規模や複雑さを持つ問題に取り組むことが可能になるという。
そのような課題は、新しい証明や予想の創出といった数学・物理学分野のものから、生物学や化学などの生命科学、さらにはビジネスや政策におけるジレンマにまで及び得る。理論上は、テキスト、コード、あるいはホワイトボード上のメモとして定式化できるあらゆる問題をこの種のツールに与えることができる。対象範囲は極めて広い。
オープンAIは長年にわたりAI業界の方向性を主導してきた。同社は大規模言語モデル(LLM)において早期に優位性を確立し、数億人が日常的に利用する技術の形成に影響を与えてきた。しかし現在では、アンソロピック(Anthropic)やグーグル・ディープマインド(Google DeepMind)といった競合企業との激しい競争に直面している。同社が次に何を構築するかは、自社のみならずAIの将来にとっても重要である。
その意思決定の多くは、同社の長期的な研究方針を定める最高科学責任者(CSO)のヤクブ・パチョッキに委ねられている。パチョッキは、2023年に公開された画期的なLLMであるGPT-4と、2024年に登場し現在では主要なチャットボットやエージェントシステムの基盤となっている推論モデルの両方の開発において重要な役割を果たした。
今回の独占インタビューで、パチョッキはオープンAIの最新ビジョンについて説明した。「人間のように一貫した形で無期限に作業できるモデルの実現に近づいていると思います。もちろん、人間が責任を持ち目標を設定することは依然として重要です。しかし、最終的にはデータセンター内に研究所全体を持つような状態に到達するでしょう」。
困難な問題の解決
このような大きな主張自体は目新しいものではない。最も困難な問題を解決することで世界に貢献するというのは、主要なAI企業が掲げる共通の使命である。デミス・ハサビスは2022年に、それがディープマインド設立の動機であったと語っている。アンソロピックのダリオ・アモデイCEOは、データセンター内に「天才の国家」に相当するものを構築していると述べている。また、サム・アルトマンはがんの治療を目標に掲げている。しかしパチョッキは、オープンAIはすでにその実現に必要な要素の大半を備えていると主張する。
オープンAIは1月、Codex(コーデックス)を公開した。コンピューター上の作業を実行するために、その場でコードを生成できるエージェント型アプリである。文書の分析、グラフの生成、受信箱やソーシャルメディアのデイリーダイジェスト作成など、さまざまな用途に対応する(アンソロピックのClaude CodeやClaude Coworkのように、他社も同様のツールを公開している)。
オープンAIによれば、現在では技術系スタッフの大半が業務でCodexを使っているという。パチョッキは、CodexはAIリサーチャーのごく初期のバージョンと見なせると語る。「Codexは根本的に大きく改善していくはずです」。
鍵となるのは、人間の指示をあまり必要とせず、より長時間稼働できるシステムを作ることだ。「自動化された研究インターンについて、私たちが本当に目指しているのは、人間なら数日かかる作業を委任できるシステムです」とパチョッキは言う。
「より長期にわたる科学研究をこなせるシステムの構築に、多くの人が胸を躍らせています」。オープンAIとは無関係のアレン人工知能研究所(Allen Institute for AI)の研究科学者、ダグ・ダウニーは語る。「これは主に、こうしたコーディングエージェントの成功に後押しされているのだと思います。Codexのようなツールに、かなり本格的なコーディング作業を委ねられるという事実は、驚くほど有用で、非常に印象的です。そして、そこから1つの疑問が生まれます。コーディング以外の、より広い科学分野でも同じようなことができるのか、という疑問です」。
パチョッキにとって、その答えは明確に「そのとおり」である。実際、彼はそれを、すでに進んでいる道をさらに押し進めるだけの問題だと見ている。全般的な能力が底上げされるだけでも、モデルは助けなしでより長く作業できるようになるという。その例として、オープンAIの旧世代モデルである2020年のGPT-3から2023年のGPT-4への飛躍を挙げる。特別な訓練を施さなくても、GPT-4は前世代よりはるかに長く1つの問題に取り組めたという。
いわ …
- 人気の記事ランキング
-
- Hustlers are cashing in on China’s OpenClaw AI craze 導入支援に中古Mac販売、中国でOpenClaw副業起業ラッシュ
- We’re putting more stuff into space than ever. Here’s what’s up there. 衛星1万4000基、宇宙ゴミ100万個——広がる「人類圏」の現在
- How Pokémon Go is giving delivery robots an inch-perfect view of the world ポケGOの300億枚画像が配送ロボを導く——「世界モデル」への別解
- A defense official reveals how AI chatbots could be used for targeting decisions 米軍、標的選定にChatGPT活用の可能性 関係者が証言