
2026年2月末、AI業界を揺るがすニュースが世界を駆け巡りました。
Claudeの開発元であるAnthropic社が、米国国防総省(ペンタゴン)との最大2億ドル(約300億円)の契約を事実上失う決断をしたのです。理由は「自社のAIモデルを大規模な国内監視と、人間の判断なしに攻撃する自律型兵器に使わせない」という2つの条件を、最後まで譲らなかったこと。
この出来事は、単なる米国の政治ニュースではありません。私たちが日常的に使っているAIツールの「中身」を作っている企業が、どんな価値観で動いているのか。その問いは、AIを業務に組み込もうとしているすべての企業にとって無視できないものです。
何が起きたのか——時系列で整理する
事の発端は、Anthropicが米軍の機密ネットワークにClaudeを導入した契約にさかのぼります。Claudeは、主要AIモデルとして初めて米軍の機密環境で稼働していました。
しかし、契約条件をめぐってAnthropicと国防総省の間で交渉が難航します。国防総省は「すべての合法的な目的にAIを使えるようにせよ」と要求。Anthropicは「大規模な国内監視」と「完全自律型兵器」の2点だけは譲れないと主張しました。
2月27日金曜日、国防長官ピート・ヘグセス氏が設定した最終期限が到来。Anthropicは期限内に合意に至らず、同日、トランプ大統領が連邦政府機関にAnthropic製品の使用停止を命令。ヘグセス長官はAnthropicを「サプライチェーン上の安全保障リスク」に指定しました。この指定は通常、敵対国の企業に対して使われるもので、AI企業に適用されるのは異例中の異例です。
さらに厳しいのは、この指定によって「米軍と取引のあるすべての企業」がAnthropicとの商取引を禁じられる可能性がある点です。Anthropicの顧客の中には軍関連の契約を持つ大企業も含まれるため、影響は契約額の2億ドルをはるかに超える可能性があります。
その数時間後、OpenAI(ChatGPTの開発元)がペンタゴンとの契約を発表。事実上、Anthropicの代替として名乗りを上げた形です。
AnthropicのCEOは何と言ったのか
Anthropic CEOのダリオ・アモデイ氏は、期限前日の声明で自社の立場を明確にしています。
アモデイ氏は、AIを国防に活用することの重要性は認めた上で、2つの例外を設けている理由を説明しました。1つは、現在のAI技術が完全自律型兵器として安全に動作できるほど信頼性が高くないこと。もう1つは、大規模監視が民主主義の価値を損なうリスクがあること。
「脅しによって我々の立場は変わらない。良心に従えば、彼らの要求を受け入れることはできない」——これがアモデイ氏の最終的な回答でした。
一方、国防総省側は「自律型兵器にも大規模監視にも関心はない。単にすべての合法的用途に使えるようにしてほしいだけだ」と反論。交渉は完全に決裂しました。
この出来事が示す「AIツール選び」の新しい基準
ここからが、中小企業にとって重要な話です。
「うちは軍事とは関係ないから」——そう思うかもしれません。しかし、この出来事が突きつけているのは、もっと根本的な問いです。「自分が使っているAIツールの開発元は、どこまで信頼できるのか」。
AIツールには、私たちの業務データ、顧客情報、社内のノウハウが日々入力されています。そのデータがどう扱われるかは、開発元の方針次第です。
Anthropicは300億円の契約を失ってでも、自社の安全方針を曲げなかった。OpenAIはペンタゴンと契約を結びつつ、技術的なセーフガードを組み込むと説明した。どちらが「正解」かは立場によって異なります。
重要なのは、AIツールを選ぶ際に「機能」と「価格」だけでなく、「開発元の方針」も判断基準に加える時代になったという事実です。
「安全なAI」を標榜するAnthropicの特徴
Anthropicは、OpenAIの元幹部たちが「AIの安全性研究をもっと重視すべきだ」という理念のもとに設立した企業です。
同社が開発したConstitutional AI(憲法AI)という技術は、AIモデル自身が倫理的な判断を行えるように設計されたもので、Claudeの回答が慎重で正確と言われる理由の一つです。
今回の事件は、この「安全第一」の理念が言葉だけではなかったことを証明しました。300億円の契約と政府との関係を犠牲にしても方針を曲げないという判断は、企業としてのリスクは極めて大きい。しかし、結果としてApp Storeのダウンロード数ではChatGPTを追い抜き、新規ユーザーは60%以上増加、有料課金者は2倍以上に急増しました。
「信頼」がブランド価値になるという、ある意味では教科書的な展開です。
ただし、Anthropicも「完全に潔白」ではない
公平を期すために、反論も紹介しておきます。
Redditのスレッドでは、Anthropicが2024年11月にPalantirおよびAWSを通じて米情報機関や国防省にClaudeへのアクセスを提供する契約を結んでいた点を指摘する声があります。つまり、Anthropicは軍事利用そのものを拒否しているわけではなく、「完全自律型兵器」と「大規模国内監視」という2つの特定用途を拒否しているにすぎません。
また、MIT Technology Reviewの分析では、OpenAIが結んだ契約にも実質的に同様の制限(自律型兵器と大規模監視の禁止)が含まれているとされ、両社の立場の差は「契約条文の書き方」にあったとする見方もあります。
物事は常に白黒つけられるほど単純ではありません。しかし、「契約条文の書き方」にこだわって300億円を失う判断をしたこと自体が、Anthropicの姿勢を物語っています。
中小企業が今日からできること
この出来事を、自社のAI活用にどう活かすか。具体的なアクションを3つ提案します。
1つ目は、使っているAIツールのプライバシーポリシーを一度読むこと。「入力データが学習に使われるか」「データの保存期間はどれくらいか」「第三者へのデータ提供はあるか」——この3点だけでも確認しておくと、万が一のときに説明責任を果たせます。
2つ目は、機密度に応じてツールを使い分けること。社外に出せないデータを扱う場面ではClaude ProやTeamプラン(入力データが学習に使われない)を使い、一般的な調べ物には無料プランを使う。こうした使い分けはコスト管理にもなります。
3つ目は、AIツールの選定基準に「企業の方針」を加えること。これは大企業だけの話ではありません。取引先に「御社はどのAIを使っていますか?データはどう管理していますか?」と聞かれる時代は、すぐそこまで来ています。
実際に、EU圏ではAI規制法(EU AI Act)が2025年から段階的に施行されており、AIツールのリスク管理は法的義務になりつつあります。日本でも経済産業省が「AI事業者ガイドライン」を策定しており、AI導入時のリスク評価はいずれ「やったほうがいい」から「やらなければならない」に変わるでしょう。今のうちに基準を持っておくことが、将来の競争力につながります。
まとめ
Anthropicが米軍との2億ドルの契約を失ってまで守ったのは、「大規模監視に使わせない」「自律型兵器に使わせない」という2つの原則でした。この判断の是非は立場によって分かれますが、AIツールの選択に「開発元の信頼性」が影響する時代になったことは間違いありません。
技術力、価格、そして企業の価値観。AIツール選びの基準は、確実に増えています。
当社マスタングでは、Claudeを中心にAIをWeb制作やSEO、業務効率化に活用しています。AI導入の第一歩として何を選べばいいか迷っている方は、お気軽にご相談ください。ツールの比較から、自社に合った使い方のご提案まで対応しています。
→ 関連記事: ChatGPTからClaudeに乗り換えた人たちの本音——海外の口コミを読んでわかったこと → 関連記事: Claudeとは?読み方・始め方から料金まで、最初に知っておくべきこと → 関連記事: Claudeの無料プランでどこまでできる?有料版との違いを徹底比較


コメント