KADOKAWA Technology Review
×
「ディープシークの衝撃」がAI業界に提起した3つの論点
Leon Neal/Getty
Three things to know as the dust settles from DeepSeek

「ディープシークの衝撃」がAI業界に提起した3つの論点

中国企業ディープシークが開発した大規模言語モデルは、驚異的な性能と開発手法の公開で世界を驚かせた。株式市場に激震が走った衝撃は収まりつつあるが、電力消費の是非、モデルの訓練手法、オープン化と国際競争という3つの重要な論点が浮かび上がっている。 by James O'Donnell2025.02.07

この記事の3つのポイント
  1. 中国企業ディープシークが1月に発表したLLMは世間に大きな影響を与えた
  2. ディープシークのLLMは電力効率と訓練法において創造的な進歩を遂げた
  3. この成功はAI研究のオープン化と競争力強化の議論に火をつけている
summarized by Claude 3

この記事は米国版ニュースレターを一部再編集したものです。

新しい人工知能(AI)モデルが1つ発表されたくらいでは、テクノロジー業界以外ではそれほど大きな騒ぎにはならないし、投資家を怖がらせて株式市場で1兆ドル分の時価総額が消失することもない。普通はそうだ。中国のディープシーク(DeepSeek)の驚くべき大規模言語モデル(LLM:Large Language Model)の発表から数週間が経ったいま、世間は少し落ち着きを取り戻している。日々のニュースは、長年続いてきた米国連邦政府のプログラムの解体、最近の行政命令に従って研究やデータセットを消去すること、そしてドナルド・トランプ大統領がカナダ、メキシコ、中国に対して課すと当初発表した関税の影響など、やや穏やかな話題に移っている。

ただ、AIの分野において、ディープシークは長期的にどのような影響を及ぼす可能性があるのだろうか?発表当初の大騒ぎが静まりつつある中でも成長を続けるディープシークが蒔いた、3つの種を紹介する。

まず、より良い答えを導くためにAIモデルがどれだけの電力を消費してもよいのかという点について、議論となっている。

ディープシークが電力効率に優れていることは、ご存知かもしれない(この記事で知ったという方もいるかもしれない)。これは訓練段階では事実だが、ユーザーが実際に何かを尋ねて、モデルが答えを導き出す推論(inference)段階では話は複雑になる。ディープシークは「思考の連鎖(chain of thought)」と呼ぶ技術を使用しており、例えば「誰かの気持ちを傷つけないために嘘をつくことは許されるか」といった複雑な質問を、いくつかの部分に分解し、それぞれに論理的に回答する。この手法により、ディープシークのようなモデルは、数学、論理、コーディングなどをより上手く処理できる。

問題は、この「思考」方法では、程度の差はあるものの、これまで私たちが使用してきたAIよりもはるかに多くの電力を消費するということだ。現在、AIによる二酸化炭素排出量は、世界全体の排出量のほんの一部に過ぎないが、AIに投入される電力量を大幅に増やそうとする政治的な動きが目立っている。「思考の連鎖」モデルによる電力消費量がそれに見合うものかどうかは、もちろんAIを何のために使うかによる。世界で大きな問題になっている疾病の数々の治療法を探る研究は価値がありそうだ。では、AIによる粗悪なコンテンツ生成はどうだろうか? あまり価値はないだろう。

一部の専門家は、ディープシークがあまりに強い印象を与え、その結果、企業がディープシークのモデルを多くのアプリケーションや機器に組み込むようになり、ユーザーにとって必要ない場面でも使ってしまうようになることを懸念している(例えば、アインシュタインの相対性理論の説明をディープシークに求めても無駄である。なぜなら、この問い合わせは複数の段階に分割するまでもないものであり、一般的なAIチャットモデルなら、より短時間で少ない電力で実行できるからだ)。詳しくはこの記事を読んでほしい

次に、ディープシークは訓練法において創造的な進歩を遂げたが、他の企業も同様の方法を採用する可能性が高い。

高度なAIモデルの学習に必要なものは、大量のテキスト、画像、動画だけではない。そのデータの選別や注釈付け、その他AIがより適切な回答を選択できるよう手助けする作業は人間に大きく依存しており、その作業にはわずかな賃金しか支払われないことが多い。

人間の作業者が関わる方法のひとつに、「人間のフィードバックによる強化学習(Reinforcement Learning with Human Feedback:RLHF)」と呼ぶ手法がある。モデルが回答を生成し、人間の評価者がその回答を採点し、その採点結果を利用してモデルを改善する。オープンAIが先駆者だったが、現在では業界全体で広く利用されている手法だ。

本誌のウィル・ダグラス・ヘブン編集者が報告しているように、ディープシークは異なるアプローチを採用した。採点と強化学習の作業を自動化する方法を発見したのだ。「人間によるフィードバックを省略または削減できるというのは非常に大きなことです」と、アリババの元研究部長で、現在はイスラエルに拠点を置くAIコーディング・スタートアップ「コド(Qodo)」のイタマール・フリードマン共同創業者兼CEOはヘブン編集者に語った。「人間が労力をかけることなく、ほぼ完全にモデルを訓練できることになります」。

これは数学やコーディングのような分野では特に有効だが、他の分野ではあまり有効ではない。そのため、依然、人間の作業に頼っている。それでも、ディープシークはさらに一歩進んで、2016年にグーグル・ディープマインド(Google DeepMind)が世界最強の人間の囲碁棋士に勝つために、AIモデルを訓練した方法を彷彿とさせる手法を使った。基本的に想定できるすべての手を並べ、その結果を評価するという手法だ。こうしたディープシークの取り組みは公開文書で概説されているため、他の企業も追随するだろう。ウィル・ダグラス・ヘブン編集者による詳細記事はこちら。

第三に、ディープシークの成功は重要な議論に火をつけるだろう。AI研究をすべての人に見えるようにオープンにし、同時に米国の中国に対する競争力を高めることは可能だろうか?ということだ。

ディープシークがモデルを無料で公開するずっと前から、一部のAI企業は、この業界はオープンであるべきだと主張していた。研究者たちがオープンソースの原則に則って研究内容を公開すれば、超知能AIの開発をめぐる世界的な競争を公益の利益に向けた科学的取り組みとして扱うことができ、また、特定の企業や団体の力が、他の企業や団体によってチェックされるだろうという主張だ。

すばらしい考え方だ。メタはおおむねこの考え方を支持する発言をしているし、ベンチャー・キャピタリストのマーク・アンドリーセンは、オープンソースの手法は、AIの安全性を確保する上で、政府による規制よりも効果的であると述べている。オープンAIは反対の立場であり、モデルを非公開にしておくことで悪意のある者の手に渡るのを防げると主張している。

ディープシークは、このような議論をさらに複雑にした。オープンAIのサム・アルトマンは31日にレディットのAMA(Ask Me Anything)で、「我々は歴史の誤った側面を歩んできた、既存のものとは異なるオープンソース戦略を考える必要がある」と述べた。これはオープンAIのこれまでの態度を考えると驚くべきことである。トランプ大統領などの人々は、ディープシークの成功を警鐘と捉え、米国がAIの分野でより競争力を高める必要性を強調した。アンソロピック(Anthropic)の創業者であるダリオ・アモデイは、米国は今後数年間でどの種類の先端半導体を中国に輸出させるのかを厳しく管理しなければならないということを思い起こさせる出来事だと述べ、一部の議員も同じように主張している

今後数カ月間、そしてディープシークやその他の企業による今後の発表によって、以上の主張のすべてがストレステストされることになるだろう。


オープンAI、複雑な調査を代行するエージェント

2月2日、オープンAIは「Deep Research(ディープ・リサーチ)」というAIエージェントを発表した。複雑な問題を調べさせることができ、最大30分かけて文献を読み、情報をまとめ、レポートを書いてくれる新しいエージェントだ(MITテクノロジーレビューはまだその回答の質を検証していない)。計算に非常に時間がかかる(つまり電力を消費する)ため、現時点ではオープンAIが提供している有料プランのうち、「Pro(月額200ドル)」の契約ユーザーだけが利用でき、1カ月あたりの利用件数に制限がある。

AI企業は、ユーザーの代わりにいろいろな作業を代行してくれる便利な「エージェント」の開発を競っている。1月23日には、レストランの予約やフライトオプションの確認などの作業を済ませるために、ユーザーに代わってコンピューターを操作する「Operator(オペレーター)」というエージェントも発表されている。オープンAIが立て続けに発表した2つのエージェントは、AIがありふれたオンライン作業を少し楽にするだけでなく、AIを専門的な研究作業にも対応できるものと位置づけようとしていることを示している。Deep Researchは「人間なら何時間もかかる作業を数十分で完了させる」という。高い費用を払い、回答に誤った情報が入り込んでしまう可能性があるエージェントを使う価値を、ユーザーが見出すかどうか。その答えは時が経てば分かるだろう。詳しくは、本誌のリアノン・ウィリアムズ記者の記事をお読みいただきたい

AI関連のその他のニュース

  • デジャヴ:イーロン・マスクがツイッター買収時の戦術をワシントンに持ち込む。米連邦邦機関は数百万人の職員に退職勧告をした。イーロン・マスクがツイッター(Twitter)を買収したときと不気味なほどよく似ている。(ニューヨーク・タイムズ
  • 著作権局が後押しする、芸術作品と映画におけるAIの活用。米国著作権局は、AIの支援を受けて制作された芸術作品は、ほとんどの場合、現行法の下で著作権保護の対象となるべきであるが、完全にAIが生成した作品は、おそらく対象外であると判断している。これは何を意味するのだろうか?(ワシントン・ポスト
  • オープンAIが新たな推論(reasoning)モデル「o3-mini」を無料公開。オープンAIは、従来のものよりも高速で安価、かつ正確な推論モデルをリリースした。(MITテクノロジーレビュー
  • アンソロピック、LLMを「脱獄」から保護する新たな手法を開発。この防御策はこれまでで最も優れているかもしれない。しかし、完璧な防御策は存在しない。(MITテクノロジーレビュー
人気の記事ランキング
  1. An ancient man’s remains were hacked apart and kept in a garage 切り刻まれた古代人、破壊的発掘から保存重視へと変わる考古学
  2. This startup just hit a big milestone for green steel production グリーン鉄鋼、商業化へ前進 ボストン・メタルが1トンの製造に成功
  3. AI reasoning models can cheat to win chess games 最新AIモデル、勝つためなら手段選ばず チェス対局で明らかに
  4. OpenAI has released its first research into how using ChatGPT affects people’s emotional wellbeing チャットGPTとの対話で孤独は深まる? オープンAIとMITが研究
ジェームス・オドネル [James O'Donnell]米国版 AI/ハードウェア担当記者
自律自動車や外科用ロボット、チャットボットなどのテクノロジーがもたらす可能性とリスクについて主に取材。MITテクノロジーレビュー入社以前は、PBSの報道番組『フロントライン(FRONTLINE)』の調査報道担当記者。ワシントンポスト、プロパブリカ(ProPublica)、WNYCなどのメディアにも寄稿・出演している。
MITTRが選んだ 世界を変える10大技術 2025年版

本当に長期的に重要となるものは何か?これは、毎年このリストを作成する際に私たちが取り組む問いである。未来を完全に見通すことはできないが、これらの技術が今後何十年にもわたって世界に大きな影響を与えると私たちは予測している。

特集ページへ
日本発「世界を変える」U35イノベーター

MITテクノロジーレビューが20年以上にわたって開催しているグローバル・アワード「Innovators Under 35 」。世界的な課題解決に取り組み、向こう数十年間の未来を形作る若きイノベーターの発掘を目的とするアワードの日本版の最新情報を発信する。

特集ページへ
フォローしてください重要なテクノロジーとイノベーションのニュースをSNSやメールで受け取る