生成AIの技術的価値は本物であり、OpenAIをはじめとしたプレイヤーの功績は大きい。しかし、技術的価値と社会的価値はイコールではない。Web3のように、思想は正しくても社会実装が追いつかない例はいくらでもある。AI普及のボトルネックは、もはやアルゴリズムではなく、学習データの掘り起こしと加工という泥臭い作業にある。 エヌビディアを中心としたレイヤー構造(半導体 → データセンター → 汎用LLM → 業種別プロダクト)では、最上位レイヤーである「末端クライアントのAI活用」が進まない限り、下位レイヤーの投資回収は不透明なままである。 エヌビディアによる汎用LLMプレイヤーへの投資は、エコシステムとしては合理的だが、キャッシュフローの最終的な源泉がまだ見え切っていないというリスクを抱えている。 ソフトバンクのエヌビディア売却とOpenAIなどへのシフトは、こうしたレイヤー間のバランスを踏まえたポジション調整とも解釈できる。 FRBの利下げ延期は短期要因である一方、市場が本当に気にし始めているのは、「生成AIが期待どおりのタイミングで実需を生み出すのか」という長期的な不透明さである。もしAIバブルがあるとすれば、それは「AIという技術」そのものではなく、「末端レイヤーの実装速度」への過度な楽観「データ整備という泥臭い作業を、社会が本当にやり切るのか」という見極めを棚上げにしたままの期待にこそ潜んでいるのかもしれない。

Nov 21, 2025

まずはじめに、「バブル」とは何かを定義しておきたい。ここでは、期待値だけが先行し、実態が十分に伴っていない状態と定義して話を進める。
その意味でいえば、生成AIの「技術的な価値」自体は、バブルどころかむしろ実態が追いつき始めている領域である。OpenAIが社会に与えたインパクトは、もはや否定しようがなく、技術としての価値は疑いようもなく人々の行動変容を起こす強力な起爆剤となるだろう。
しかし、ここで注意したいのが、
技術的な価値の大きさ
= 社会的な価値の大きさ
ではない、という点である。両者には相関はあっても、必ずしも因果関係はない。
いわゆる「テクノロジードリブン型」のプロダクトやサービスが、結果としてあまり社会の役に立たない──というケースは歴史上いくらでもあった。現状の典型例が、web3技術=非中央集権型の分散技術である。
私自身、一時は「web3が社会にアダプトし、web3の時代が来る」と本気で考えていた時期がある。しかし、いまだに期待値ばかりが膨らみ、社会が本当に求めるプロダクト、つまり「日常の課題を解決してくれるプロダクト」は、ビットコイン以外ほとんど存在していない。
ビットコインは独裁的な社会主義国家である中国やロシアなどの富裕層にとっては、資産保全の手段として一定の価値があるだろう。しかしそれ以外の多くの人々にとって、「決済インフラ」というより、投資のための金融商品としての価値しか持っていない。
Web3の思想そのものは、これからの未来に合っていると私も感じている。だが少なくとも現時点で、ビットコイン以外のプロダクトが登場してこないことから、個人や企業の課題を実際に解決するツールにはなっていない。
Web3と同じ「罠」にAIははまらないのか
同じ視点でAIに目を向けてみると、状況が少しクリアに見えてくる。
ChatGPTを筆頭とする汎用型チャットAIは、すでに「プロダクト」として社会に浸透し始めている。使い方次第では、間違いなく人の行動様式を変えるレベルのプロダクトに育つだろう。
しっかりと見るべきは「汎用チャットボット以外の使途」である。
理論的なポテンシャルとして、現在デジタル化されていないデータの方が、デジタル化されたデータよりも圧倒的に多い。この眠っているデータを掘り起こし、AIに武装させることができれば、人を代替しうるさまざまなプロダクトが生まれる可能性を秘めている。
例えば、六法全書や判例データを余すところなくデジタル化し、AIに学習させることで「最強のAI弁護士」をつくることは、理屈の上では十分に可能である。
同様に、自動運転に関する論文や実証実験のデータをすべて学習させれば、「世界一の自動運転AIモデル」が出来上がる。
実際、テスラが出荷した車から得られる、世界中の道路を撮影した膨大なデータは、自動運転AIの学習に使われている。車に車載カメラを取り付け、走行データをクラウドに上げ続けるだけで、学習データの収集方法が確立しているため、自動運転分野はAI活用の中でも「進めやすい領域」である。
ここで重要なのは、収集したデータを、AIが読みやすく理解しやすいフォーマットに変換できれば、かなりのことが実現できるという点だ。
AI普及のボトルネックは「アルゴリズム」ではなく「泥臭いデータ」
多くの人が勘違いしがちだが、AIの社会浸透における最大の課題は、もはやプログラムのアルゴリズムではない。モデル構造や計算手法は、トッププレイヤーによってかなりのスピードで磨かれており、オープンソースを含めたエコシステムも整ってきている。
真のボトルネックは、学習データの「掘り起こし」と「加工」である。
こうしたデータを掘り起こし、デジタル化し、さらにAIにとって扱いやすい構造に変換する──この泥臭いプロセスを乗り越えられるかどうかが、AI活用の成否を決める。
実際、MITが2025年に公表した「State of AI in Business 2025」では、企業が投じたジェネレーティブAI投資のうち95%のプロジェクトが財務的なリターンを生んでいないと報告されている。(MLQ-STATE OF AI IN BUSINESS 2025)
つまり、「技術は動くのに、ビジネスとして回っていない」という状態が、世界中で大量発生している。
このプロセスを企業が自前でやり切れない限り、AIの未来は「汎用LLM」と「自動運転」といった、限られた成功事例止まりになってしまう危険すらある。
Deloitte のジェネレーティブAI調査でも、投資額は増えている一方で、スケールの障害としてデータ品質とガバナンス、リスク管理が上位に挙げられており、「PoCから本番まで行けない」構図が定量的に示されている。(Deloitte-2024 year-end Generative AI report)
Salesforce のCIO調査も、84%のCIOが「AIはインターネット級に重要」と答えながら、フル導入できている企業はわずか11%にとどまっていることを明らかにしている。(Salesforce-Just 11% of CIOs Have Fully Implemented AI as Data and Security Concerns Hinder Adoption)
レイヤー構造で見ると見えてくる「エヌビディア」と「循環取引的」な動き
ここで話をエヌビディアに移そう。
エヌビディアは、AIを「学習」させ、「推論(活用)」させるための半導体チップを作っているメーカーであり、AI需要が高まれば高まるほど、売上が上がる構造になっている。彼らの顧客は、主に米国の巨大IT企業──グーグル、アマゾン、マイクロソフト、メタなどである。
さらにその上のレイヤーには、OpenAIやAnthropicなどの汎用LLMプレイヤーがいる。つまり、レイヤー構造で整理すると、
という構造になる。
このうち、上のレイヤーが活発に動いてくれないと、下のレイヤーの需要は本質的には伸びない。業種別・課題別のAIプロダクトが現実世界で広く使われてはじめて、「その下」にいる汎用LLMやデータセンター、「さらに下」にいる半導体への投資が正当化されるからである。
しかし実際には、汎用LLMレイヤーはスタートアップ企業が多く、積極的な投資を行うには、どうしても資本力に限界がある。モデルのトレーニングには天文学的なコストがかかる一方で、収益化の道筋はまだ発展途上である。
そこで登場するのが、エヌビディアによる汎用LLMプレイヤーへの投資という動きだ。半導体で巨額の利益を上げているエヌビディアが、上位レイヤーの汎用LLM企業に資本を投じることで、結果的に自社チップへの需要を「先行的に」つくり出している構図がある。
実際、エヌビディアは2025年だけで約240億ドル(約3.7兆円)をAI企業への投資・提携に投じており、ウォール街からは「需要を買っているのではないか」「循環的な投資構造だ」といった指摘も出ている。(Yahoo!ファイナンス-Nvidia’s $24B AI deal blitz has Wall Street asking questions about ‘murky’ circular investments)
このような資本の循環構造は、一部では「循環取引」と揶揄されることもある。ただしここでいう「循環取引」は、違法な相場操縦行為そのものを指すものではなく、
半導体で得た利益 → 汎用LLMに投資 → そのLLMが再び半導体需要を生む
という、エコシステムとしての資本循環を指している、と断っておきたい。
このエコシステム自体は、構造としては合理的である。問題は、それを支えるべき最上位のレイヤー──「末端のクライアント企業」が本当にAIを使いこなせるのかどうかである。
PoC死と「末端レイヤー」の不透明さ
現時点でも、多くの一般企業が生成AI導入にチャレンジしている。しかし、その相当数が「PoC死」に陥っている。
という状態で止まっている企業が、体感的には大半である。
MITの調査でも、企業のGenAIパイロットの95%は「財務的な効果がゼロ」とされており、「PoCまでは行くが、その先に進めない」構図が統計的にも裏付けられている。(フォーブス-MIT Finds 95% Of GenAI Pilots Fail Because Companies Avoid Friction)
ここでもボトルネックとなっているのは、繰り返しになるが学習データの掘り起こしと加工である。現場の紙・Excel・属人知を構造化し、AIで扱える形に変えるという「泥臭いプロジェクト管理」をやり切れない限り、GPUもLLMも「宝の持ち腐れ」になってしまう。
Embodied AI(フィジカルAI)領域におけるヒューマノイドも期待が大きくなっているが、ボトルネックの構造は同じで、学習データの不足だ。
自動車と異なり、ヒューマノイドの学習データを取得するには、人にセンサーを付けて、その情報を収集するしかなく、たくさんの人にセンサーギアを身につけてもらい、収集するといった泥臭い方法が必要となる。
現状は、コストを抑えるために、バーチャル空間で動かしてそのデータを使って学習させるといったアプローチをとっているが、バーチャル空間は所詮、バーチャル空間であり、想定されない様々なシュチュエーションには対応できない。
テスラがわざわざ車載カメラをつけて学習データを泥臭く集めていることがこの事を表している。
この「学習データの獲得の難しさ」が、結果として
という形で、下のレイヤーにジワジワと効いてくる可能性がある。
一方で、モルガン・スタンレーは2028年までに世界のデータセンター投資が累計3兆ドル規模に達すると試算しており、AIインフラへの巨額投資がすでに走り始めている。(Morgan Stanley -Who Will Fund AI’s $3 Trillion Ask?)
つまり、「インフラ投資は急カーブで積み上がる一方、その上に乗る実需は予想より遅れているかもしれない」というギャップが、静かに広がっている。
ソフトバンクのエヌビディア売却と、OpenAI投資の意味
この文脈でソフトバンクの動きを眺めると、単なる「利食い売り」以上の意味を感じる。
ソフトバンクがエヌビディア株の売却を判断した背景には、
という読みがある、というのは自然な仮説である。
実際、ソフトバンクは投資家に対して、2025年10月までに約58億ドル相当のエヌビディア株をすべて売却し、その資金をOpenAIなどのAI投資に振り向けると言っている。
つまり、
「半導体レイヤーへの投資」よりも
「汎用LLMレイヤーへの投資」にリスク・リターンの妙味が移ってきた
と判断した可能性がある、ということだ。
もっとも、汎用LLMプレイヤーへの投資も、すでに巨大な金額になっている。彼らが本格的に黒字化するためには、
という段階まで行く必要がある。ここでもやはり、最後は「末端のクライアント企業のDXとデータ整備」がボトルネックとなる。
FRB利下げ延期と、2025年11月19日のエヌビディア決算
2025年11月19日に発表されたエヌビディアの決算は、数字だけ見れば「好決算」と呼んで差し支えないものだった。売上・利益とも市場予想を上回り、データセンター事業の収益も強く、四半期ベースで過去最高水準となっている。(ガーディアン -We excel at every phase of AI’: Nvidia CEO quells Wall Street fears of AI bubble amid market selloff)
しかし、2025年11月20日は寄り付きは、上昇したものの、その後失速し、なんと最終的には3%超のマイナス圏に沈んだ。
表面的には、
という説明も成り立つ。実際、金利はバリュエーションに直接効いてくるので、短期的な下落要因になりうる。
だが、もう一歩踏み込んで考えるならば、株式市場は
「直近の利下げの有無」だけではなく、
「もっと長い時間軸で見た生成AI市場の不確実性」
を、じわじわと織り込み始めているのではないか──という見方もできる。
株式市場は「不透明さ」を嫌う。不透明さを少しでも減らすために、投資家は「エビデンス探し」を行う。
利下げ/利上げそのものは、FRBの判断に委ねられるものの、会合のスケジュールや議事録など、情報開示のメカニズムは比較的整っており、ある程度の透明性が確保されている。
一方で、
といった点は、今のところ非常に不透明である。KPMGやGartnerの調査でも、AIプロジェクト失敗の主要因はデータ品質・データ不足であり、8割以上の経営者が「データこそ最大の障壁だ」と認識していることが示されている。(CIO -Strong data foundations critical for agentic AI success)
この不透明さが、
「期待しているタイミングで、期待しているほどAIがキャッシュフローを生まないかもしれない」
という市場の疑心暗鬼につながり、
それがNVIDIAのようなAIインフラ銘柄に対する、バリュエーション調整圧力として現れているようにも見える。
まとめ:AIバブルがあるとすれば「どこ」がバブルなのか?
ポイントは以下。
もしAIバブルがあるとすれば、それは「AIという技術」そのものではなく、
にこそ潜んでいるのかもしれない。
そして、その不透明さこそが、
エヌビディアの好決算後の株価下落や、ソフトバンクのポジション変更、FRBの利下げ延期といった、一見バラバラに見えるニュースの共通の背景として、静かに横たわっているように思える。