AI企業の「良心」は、いったいどこに宿るのだろう。
CEOの信念か。企業理念のスローガンか。それとも、契約書に刻まれた一文と、モデルに実装された拒否の仕組みか。
2026年2月、その問いが突然、現実の交渉テーブルに引きずり出された。米国防総省(DoD)が求めたのは「すべての合法的目的で使える」こと。Anthropicが死守しようとしたのは、「大量監視」と「人間の関与なしに人を殺せる自律兵器」への明確な歯止めだ。言葉は静かだが、衝突は正面からだった。
「脅し」が走った48時間
Axiosの報道によれば、国防長官ピート・ヘグセス氏はAnthropicのダリオ・アモデイCEOに対し、軍が求める条件を飲まなければ制裁もありうると通告した。具体的には、最大2億ドル規模の契約破棄にとどまらず、「サプライチェーン上のリスク」指定や国防生産法(Defense Production Act)の発動まで選択肢に含まれた。
期限として報じられたのは「金曜の夕方5時01分(米東部時間)」
Anthropicは交渉の席を離れなかった。だが、提示された新しい契約文言を精査した結果、「大量監視と完全自律兵器を防ぐ実質的な進展がない」として受け入れを拒否した。これはAnthropicの推測や外部の観測者の解釈ではない。同社が公式に発表した声明の言葉だ。さらにAnthropicは「AIの能力が急速に伸びているのに、法律がまだ追いついていない」とまで踏み込んだ。
本当の争点は「使わせない」ではなく「縛らせろ」だ
ここで一つ、誤解を解いておく必要がある。
Anthropicは「国防を支援しない」と言っているわけではない。この交渉の本質は、軍がAIを使う是非ではなく、「AI企業が使い道に拒否権を持てるのか」という構造問題だ。
DoD側も「違法な大量監視も完全自律の殺傷兵器も求めていない」と反論している。だが報道が示す構図はこうだ。DoDは契約に「将来の運用を縛る明文化」を盛り込むことを嫌い、「all lawful purposes(すべての合法的目的)」という広い一文で押し通そうとしている。
対立の構造を整理すれば、こうなる。
DoD側の論理は「合法かどうかの責任は国が負う。企業が先回りで制限を設けるべきではない」。Anthropicの論理は「合法であっても、民主主義に致命傷を与える使い方は存在する。だからこそ、契約上の明文化が必要だ」。
これは倫理の衝突のように見えて、その実態はガバナンスの衝突だ。「良心」とは感情や理念ではなく、制約の設計であるという冷たい現実が、ここに露わになった。
Claudeが狙われた理由
圧力がこれほど強くなった背景には、Claudeの立ち位置がある。報道によれば、Claudeは機密(classified)環境で運用できる重要なポジションを占めていた。
DoDはAnthropicのほかにOpenAI・Google・xAIとも最大2億ドル規模の契約を結んでいると報じられている。しかし「同等の代替がすぐ立つか」は別問題であり、そこが交渉力の綱引きを生んでいる。
要するに、Claudeは「便利だから揉めた」。この事件が倫理の炎上に見えるのは表面だけで、火種はおそらく性能と運用実績だ。
同じ週に「安全の誓い」も揺れた
ただ、この事件を単純な勧善懲悪に仕立てられないのは、もう一つの動きがあったからだ。
Anthropicは2026年2月24日付で「Responsible Scaling Policy(RSP)v3.0」を公開した。そして同じ週、TIMEがAnthropicの「象徴的だった安全コミットメントが変更された」と報じた。
Anthropic’s Responsible Scaling Policy: Version 3.0
この事実の読み方は二つある。一つは「軍事の一線は死守しながら、現実的に運用できる安全枠組みに刷新した」という好意的な解釈。もう一つは「競争圧力には結局抗えない。守れる良心だけを守っている」という批判的な見方だ。
どちらが正しいかは、まだわからない。ただ一つ言えるのは、「良心」は一枚岩ではないということだ。どの戦場で、どの一線を、いくらのコストを払って守るか――その配分こそが、企業の倫理の実態を決める。
他の三社はどこに立っているか
OpenAI――「禁じている」が、契約は別の話
OpenAIは国家安全保障分野への関与方針を公式に示し、ポリシー上「武器開発や人に危害を加える利用は禁じている」と述べている。だが報道では、DoD当局者が「OpenAIは”all lawful purposes”での利用に同意した」と説明したとされる。
重要なのは、OpenAIが公的に禁じている「武器の開発・調達・使用」と、DoDが言う「合法な目的」が、完全に同じ集合とは限らないという点だ。このズレが、今後いちばんの火種になる。
Google――「やらない」を撤回し「条件付きでやる」へ
Googleは2025年2月、AI原則から「武器や監視への適用をしない」という趣旨のコミットメントを削除したとワシントン・ポストが報じた。現在の原則ページは「責任ある開発と展開」など抽象度の高い言葉で構成されている。
Googleはすでに「やらない」から「民主主義国家が主導する形で責任を持ってやる」という方向へと軸足を移した。地政学と市場圧力の現れと見ていい。
xAI――速度は速いが、別の地雷がある
xAIのGrokは、性的コンテンツや未成年に関わる深刻な問題でたびたび批判と調査の対象になってきた。それでも国防分野での採用が進む流れが報じられており、DoDの「使えるものは使う」という姿勢が透けて見える。
「自律兵器」と「意思決定支援」の境界は、溶ける
Anthropicが明確に拒否しているのは二つだ。大量監視と、人間の関与なしに致死力を行使する完全自律型の兵器。どちらも倫理的には「赤信号」に見える。
しかし実戦の現場では、信号はグラデーションになる。
たとえばAIの役割が「偵察画像の要約」だったとしても、その要約がターゲティング会議に入力され、意思決定のスピードを上げるなら、実質的に殺傷プロセスの一部を担うことになる。そこに人間が残っていても、それが単なる承認の押印になるなら、「人間の関与」という原則は形だけになる。
DoDには自律兵器に関する指針(Directive 3000.09)があり、倫理原則やガバナンスに言及している。国際的にも責任ある軍事AI利用の枠組み形成が進みつつある。しかし今回の交渉の揉め方を見ると、「原則がある」だけでは足りないことがわかる。制約は、契約の文言とモデルの拒否機構に落ちてはじめて機能する。
今後の3つのシナリオ
現実的な着地点は、大きく三通りだ。
シナリオA:Anthropicが折れる
「all lawful purposes」を丸呑みするか、政府向けに別モデルを用意してガードレールを緩める。ただし、ブランドの毀損と社内外からの反発は避けられない。Reutersは他社社員からAnthropicへの支持の声が出たとも報じている。
シナリオB:DoDが強硬策に踏み込む
「サプライチェーンリスク」指定や国防生産法の発動が現実になれば、Anthropicだけでなく同社と取引するあらゆる企業に波及しうる。それが脅しとして強い理由は、ここにある。
シナリオC:明文化された例外で妥協する
DoDは「違法な大量監視はしない」と言っている。Anthropicは「将来の濫用も含めた歯止めが必要」と言っている。落としどころは、用途別の許可、監査ログ、第三者レビュー、モデル側の透明化など、政治的に飲める形の制約に収束する可能性がある。
三つの中でいちばん現実的なのはCだが、今の圧力の強さを見ると、BをひとしきりやってからCに着地する展開も十分ありえる。
この事件が問いかけるもの
AnthropicのDarioは、良心のある経営者かもしれない。しかしそれは、今回の争いの本質とはあまり関係がない。
AIが強くなるほど、「止める力」は善意ではなく、設計・契約・監督という硬い骨格に移っていく。良心は胸ではなく、プロトコルに宿る時代になった。
ニュースを読む時、「その会社は何を言ったか」だけでなく、「どこに拒否権が実装されているか」を問う習慣が、これからは必要になる。
Anthropicが良心を守れるかどうかは、その習慣を持った目で、今後の契約の中身と安全方針の変化を追い続けることでしか、判断できない。
参考資料

コメント