ChatGPTから150万人が離脱した背景を解説!AIの軍事利用とAnthropic・国防総省の対立

こんにちは、おゆかよです。この記事では、2026年3月に起きたChatGPTの大量解約騒動の裏側を、国防総省とAnthropicの対立から分かりやすく学べます!

博士!ネットでニュースを見たんだけど、2026年に入ってからChatGPTの解約が止まらないって本当なの?150万人もやめちゃったなんて、一体何が起きてるの!?
そうだね、2026年3月のわずか48時間で、有料プランの「ChatGPT Plus」を150万人以上が解約するという、サービス開始以来最大の離脱が起きたんだ。SNSでは「#QuitGPT」というハタグまで流行しているよ。この背景には、AIの軍事利用をめぐるOpenAIとAnthropicの決定的な思想の違いがあるんだ。

引き金は国防総省との軍事利用契約

軍事利用!?ChatGPTが戦争に使われるってこと?それはユーザーも驚くよね。でも、なんでそんなことになっちゃったの?
物語の始まりは、アメリカ国防総省(ペンタゴン)が機密ネットワークに最先端のAIを導入しようとしたことなんだ。まず彼らは、Claudeの開発元であるAnthropicに白羽の矢を立てた。でもAnthropicのダリオ・アモデイCEOは、「大規模な国民監視」や「完全自律型兵器」への転用を懸念して、政府が求める安全策の解除をきっぱりと拒否したんだ。その直後に、OpenAIが国防総省と合意したことが報じられて、火が付いたんだよ。
なるほど、Anthropicが断った仕事をOpenAIが引き受けたみたいに見えちゃったんだね。ユーザーからすると「私たちのプライバシーは大丈夫なの?」って不安になるのは当然だよね。

「サプライチェーンリスク」に指定されたAnthropic

事態はさらに複雑なんだ。国防総省は交渉を拒否したAnthropicに対し、なんと「国家安全保障に対するサプライチェーンリスク」というレッテルを貼ったんだよ。これは本来、敵対国の企業に適用されるような厳しい指定なんだ。これに対してAnthropicは「法的根拠がない」として法廷闘争を宣言している。一方でOpenAIは、「安全策を維持しつつ政府に協力する」というスタンスを取ったことで、政府からは歓迎されたけど、一般ユーザーからは「軍事利用の入り口だ」と批判されることになったんだね。
政府に協力しないと「リスク」扱いされちゃうなんて、AI企業も大変だね。でも、OpenAIにも言い分はあるんでしょ?
もちろん。OpenAIのサム・アルトマンCEOは、「人間の判断を介在させることを条件に、民主主義を守るために技術を提供するのは責任ある行動だ」と主張している。一方、批判派は「言葉の定義を政府の都合よく書き換えているだけだ」と指摘しているんだ。例えば、ターゲット選定において「最終的な決定は人間が行う」と言いつつ、AIが提示した1,000件の候補を人間が数秒で承認するだけなら、それは実質的にAIが撃っているのと同じだ、という論理だね。

博士の深掘り:憲法的AI(Constitutional AI)のジレンマ

ここで少し専門的な話をしよう。Anthropicが採用しているConstitutional AI(憲法的AI)という技術についてだ。これは、人間に褒められるように学習するのではなく、AI自身に「憲法(ルールリスト)」を与えて、それに従って自己修正させる手法なんだ。例えば、信頼性を \( T \)、安全制約を \( S_i \) とすると、モデルの出力 \( O \) は次のような制約を満たすように最適化される概念だね。
\[ O = \arg\max_{O} P(O | ext{Prompt}) ext{ subject to } \sum_{i=1}^{n} w_i S_i(O) \geq ext{threshold} \]
国防総省が求めたのは、この \( S_i \) (安全制約)のいくつかを軍事作戦時に無効化することだった。Anthropicは「憲法を曲げることはAIのアイデンティティを壊すことだ」と拒んだわけだ。対してOpenAIは、より柔軟な「RLHF(人間からのフィードバックによる強化学習)」を主軸にしているため、特定のコンテキスト(機密ネットワーク内など)でルールを調整しやすかったという技術的背景もあるんだよ。
へぇ~!「曲げられない信念」を持つAnthropicと、「実用性と適応力」のOpenAIって感じだね。でも、ユーザーがAnthropicに乗り換えているのは、単に「正義感」だけなの?
鋭いね。実利的な面も大きいんだ。Anthropicは今回の騒動に合わせて、ChatGPTの履歴をそのままClaudeへ移行できる「記憶インポートツール」を無料で公開したんだよ。これにより、乗り換えの心理的ハードルが劇的に下がった。さらに、OpenAIが広告モデルの導入を示唆したり、政治的な献金問題(共同創業者のMAGA Inc.への寄付など)が浮上したことも、ユーザーの背中を押してしまった。つまり、「軍事利用」が最後の引き金となって、積もり積もった不満が爆発した形だね。

まとめ

今回のChatGPT大量解約騒動は、単なる機能の優劣ではなく、「AIという巨大な力を誰が、何のために制御するのか」という倫理的な問いを私たちに突きつけました。2026年現在、AI業界は大きな転換点を迎えています。

  • OpenAIの立場: 性能と実用性を重視し、政府との協力も「責任ある関与」として進める。強力なプロダクト力を持つが、不透明なガバナンスへの不信感が課題。
  • Anthropicの立場: 倫理と安全性を最優先し、政府の圧力にも屈しない姿勢で信頼を獲得。一方で、政府からの排除によるビジネス的な制約が懸念。

一人のユーザーとして、私たちはどのAIに自分のデータを預け、どの企業の姿勢を支持するのか。今回の150万人の行動は、消費者の「選択」がテック企業の進路を左右できることを証明した象徴的な出来事と言えるでしょう。

コメント

タイトルとURLをコピーしました