CNN要約|「AI兵器」利用を巡る官民バトル…アンソロピック排除の裏にある政権の狙い|サクッと読める英文ビジネスニュース
Trump administration orders military contractors and federal agencies to cease business with Anthropic|CNN|Feb 28, 2026
* * *
Defense Secretary Pete Hegseth later said on X that Anthropic will be deemed a “supply chain risk,” a type of designation usually reserved for companies thought to be extensions of foreign adversaries.アンソロピック(Anthropic)は「サプライチェーン上のリスク(supply chain risk)」だ。
米国ヘグセス国防長官が先日投稿した内容だ。
この「リスク」指定、通常は外国の敵対勢力の延長線(extensions)上にあるとされる企業、つまりスパイ企業みたいなものに適用されるものらしい。
ところが、アンソロピックは純粋なアメリカ企業で、国防総省も同社のAIモデルを利用していた。元OpenAIのメンバーによって設立された同社は、今話題の「AIエージェント」の先駆者的な一社だ。
ところが、アンソロピックは純粋なアメリカ企業で、国防総省も同社のAIモデルを利用していた。元OpenAIのメンバーによって設立された同社は、今話題の「AIエージェント」の先駆者的な一社だ。
そんな企業が国賊まがいの指定をされた背景には、やはり政権側との確執があった。今回紹介する記事はこのことについて伝えている。
ぜひ全文を読んで欲しい。
* * *
|「禁止条項」を巡る争い
Anthropic’s Claude was the first AI model to work on the military’s classified networks. The company struck a contract worth up to $200 million with the Pentagon last summer.
Within Anthropic’s “acceptable use policy” in the contract are prohibitions against the use of Claude in mass surveillance and autonomous weapons.今回「リスク」指定されたアンソロピック(Anthropic)社。今後、連邦機関および軍と提携する請負業者は、同社との取引ができなくなってしまった。
同社が提供するAIモデル「Claude」。AI自らが複数のステップを自分で組み立てて実行する「AIエージェント」と呼ばれる。
具体的には、人間がデータを入力してボタンを押さなくてもAIがその場で複数のソフトを横断して操作してくれる。つまり、人間が操作する「あらかじめ作られた完成品のソフト」は将来的には不要になるかもしれないのだ。
その意味で、AIエージェントの登場は「SaaSの死」をもたらしたなどと言われている。
* * *
実はこのClaude、軍の機密ネットワーク(classified networks)上で稼働した最初のAIモデルだった。
一方、OpenAIなどの他のAI企業は「非機密」ネットワーク上でしか軍と契約を結んでいない。つまりアンソロピック社は軍のシステムで非常に重要な役割を担っていたといえる。
ところが、アンソロピックと軍との契約には「利用ポリシー」というものがあった。
その内容は、このClaudeを「大量監視(mass surveillance)および自律型兵器(autonomous weapons)で使用してはならない」というものだった。
それらの禁止条項は、アンソロピック社にとっての「two redlines(二つのレッドライン(譲れない一線))」というもので、具体的には、AI知能を『殺人ロボットの脳』や『市民のプライバシー侵害』には使わせない、という内容だ。
いっきに話がSFチックになってきた。
大量監視や自律型兵器も、国防総省が行う以上は「適法」だということか。
ペンタゴンが業者からの制約を受けるのを望まないのは、「禁止事項を抱えたまま戦術作戦を指揮することはできない」からだ。
それらの禁止条項は、アンソロピック社にとっての「two redlines(二つのレッドライン(譲れない一線))」というもので、具体的には、AI知能を『殺人ロボットの脳』や『市民のプライバシー侵害』には使わせない、という内容だ。
いっきに話がSFチックになってきた。
* * *
|どちらが「マトモ」?
The Pentagon, which uses Anthropic’s Claude AI system on its classified networks, wants to be able to use it for “all lawful purposes.”
In the Pentagon’s view, it doesn’t want to be in the middle of a national security situation, needing to ask a company for permission and guardrails to be dropped.機密ネットワーク上でアンソロピックのAIシステムを使用しているペンタゴンは、Claudeを「あらゆる適法な目的(all lawful purposes)」に使用できることを求めていた。
大量監視や自律型兵器も、国防総省が行う以上は「適法」だということか。
ペンタゴンが業者からの制約を受けるのを望まないのは、「禁止事項を抱えたまま戦術作戦を指揮することはできない」からだ。
たしかに、国家安全保障上の事態(a national security situation)の最中に、制限を外すために企業にわざわざ許可を求めなければならなくなることは迅速性に欠ける。
何より、そういった制約が潜在的にアメリカ人兵士をリスクに晒すことになる。
これはもっともな主張だろう。
* * *
|大いなる「先例」
“I think in the broader sense, this sends a message to the other AI companies that they are negotiating with to make sure they do not attempt to put any sort of restrictions on AI’s uses,”本記事によると、アンソロピック社にとっては今回の軍との2億ドルの契約を失うことは大した脅威ではないらしい。
むしろ、「サプライチェーン・リスク指定」によって、これまで既存顧客であった大企業(それらもペンタゴンと何らかの契約を結んでいる可能性)が離れていくことによるダメージの方が大きい。
これこそが、ヘグセス長官やトランプ政権の「狙い」だろう。もちろん、政権の方針に背いた報いとしてだ。契約解除に止まらず、いわゆる「ブラックリスト」指定で追放までしようとする意図はここにある。
これこそが、ヘグセス長官やトランプ政権の「狙い」だろう。もちろん、政権の方針に背いた報いとしてだ。契約解除に止まらず、いわゆる「ブラックリスト」指定で追放までしようとする意図はここにある。
アンソロピックが事実上排除された数時間後、OpenAIのアルトマンCEOは、国防総省と機密ネットワーク向けのAI提供について合意したと発表した。
この「これ見よがし」的な動きをしたOpenAIは、逆に「日和見主義的(Opportunistic)」と批判されているとのことだ。
* * *
今回の措置、「交渉中の他のAI企業に対し、AIの使用にいかなる制限も加えようとするな(do not attempt to put any sort of restrictions)というメッセージだ」と専門家は語る。
両者の言い分はもっともだが、「要求に従わなければ排除」といった追い込みをするあたり、「合法」利用にあたり、政権側も後ろめたいところあったのではと勘ぐってしまうのだが…?
*****
