AIブームを作ったサム・アルトマン「誇大宣伝」10年の発言録
サム・アルトマンの10年超の発言を追跡すると、未解決の問いにも答えが出ているかのように語り、AIを「救済」にも「破滅」にも描き分けて資金調達してきた手法が見えてくる。その誇大宣伝が現在のAIブームを作り上げた。 by James O'Donnell2025.12.17
- この記事の3つのポイント
-
- サム・アルトマンはChatGPT公開を機にAI能力の誇大宣伝を世界規模で展開した
- シリコンバレーで資金調達者として未解決問題にも確定的回答を提示し続けてきた
- 技術的限界に関わらずテクノ・ユートピア信念が資金調達の根拠となっている
人工知能(AI)が何を可能にするかについて、常識外れとも言える考えを耳にするたびに、それを最初に明確に表現したのがサム・アルトマンではないにしても、少なくとも最も説得力があり、影響力のある声の主だったことが判明することが多い。
10年以上にわたり、彼はシリコンバレーで世界トップクラスの資金調達者かつ説得者として知られてきた。オープンAI(OpenAI)が2020年頃に発表した初期プロダクトは、大規模言語モデルに対する熱狂の幕開けとなり、2022年11月のChatGPT(チャットGPT)の公開によって、アルトマンは自身の新たな主張を世界に向けて発信する舞台を手に入れた。すなわち、これらのモデルは人間の知能を反映しており、より健全で豊かなテクノ・ユートピアへの扉を開く可能性がある、という主張である。
一貫して、アルトマンの言葉が議論の方向性を決定づけてきた。彼は将来の超知能AIを、人道的な存在としても破滅的な存在としても描いてきたが、それは彼が意図する効果、資金調達の目的、あるいはその時点で最も手強いと見なす競合テック企業によって使い分けられていた。
長年にわたるアルトマンの発言を振り返ると、彼のビジョンが現在のAIブームをいかに牽引してきたかが明らかになる。シリコンバレーには誇大な主張をする人物が数多くいるが、その中でも彼は特に、未解決の問いに対してもあたかも答えが出ているかのように語る姿勢を貫いてきた。たとえば、大規模言語モデルが人間の思考の要素を含んでいるか、言語が知能を生み出すことができるか、といった問いである。
彼のAIに関する発言は、発言当時には検証不能であることが多いが、それでも我々に一つの確信を抱かせる。それは、AIとともに進むこの道が、素晴らしい未来にも恐ろしい未来にもつながり得るということ、そしてそれを正しい目的地へと導くには、オープンAIには莫大な資金が必要だということである。この意味において、彼は究極の「誇大宣伝者」と言える。
アルトマンの声がAIの能力に対する我々の理解をいかに形成してきたのかを明らかにするため、我々は彼がこの技術について語ったほぼすべての発言に目を通した(なお、アルトマンへのインタビューも依頼したが、実現しなかった)。
彼自身の言葉が、我々がいかにして現在に至ったのかを物語っている。
結論として
アルトマンが世界を欺いたわけではない。オープンAIは真の技術革新をもたらし、数百万人のユーザーを魅了する、ますます高度な言語モデルを生み出してきた。懐疑的な立場の人々ですら、大規模言語モデルの会話能力には驚嘆するだろう。
しかし、アルトマンの誇大な主張は、常に現在の技術的能力というよりも、哲学的な「未来」に依拠してきた。そしてその未来像は、さらなる資本と、より寛容な規制を求める根拠としても非常に都合がよい。大規模言語モデルが登場するはるか以前から、彼は富の再分配を必要とするほど強力なAIや、人類による他惑星の植民地化といったビジョンを語っていた。繰り返し提示されてきたのは、豊かさ、超知能、より健全で豊かな世界といった「目的地」の約束であり、証拠は常にその後に続いてきた。
たとえ大規模言語モデルが最終的に限界に突き当たったとしても、アルトマンがテクノ・ユートピア的な未来を信じる姿勢が揺らぐとは考えにくい。というのも、彼のビジョンはそもそも現在のモデルの具体的な性能とは関係のないところに根ざしているからである。
- 人気の記事ランキング
-
- How AI is uncovering hidden geothermal energy resources AIが「隠れた地熱」を発見、地表に兆候なくても地下の熱源を特定
- Text-to-image AI models can be tricked into generating disturbing images AIモデル、「脱獄プロンプト」で不適切な画像生成の新手法
- Can “The Simpsons” really predict the future? トランプもコロナも予言?『ザ・シンプソンズ』責任者が語る陰謀論の真相
- OpenAI has trained its LLM to confess to bad behavior なぜAIは嘘をつくのか? オープンAI、「告白」で内部動作を解明へ
- ジェームス・オドネル [James O'Donnell]米国版 AI/ハードウェア担当記者
- 自律自動車や外科用ロボット、チャットボットなどのテクノロジーがもたらす可能性とリスクについて主に取材。MITテクノロジーレビュー入社以前は、PBSの報道番組『フロントライン(FRONTLINE)』の調査報道担当記者。ワシントンポスト、プロパブリカ(ProPublica)、WNYCなどのメディアにも寄稿・出演している。