【CNN要約】「AI兵器」利用を巡る官民バトル…アンソロピック排除の裏にある政権の狙い|サクッと読める英文ビジネスニュース

Trump administration orders military contractors and federal agencies to cease business with Anthropic|CNN|Feb 28, 2026






この記事の論点:
アンソロピックはなぜ「AI兵器利用」を巡る対立で政権から排除されたのか。
—政府とAI企業の思惑がぶつかる中で、業界に投げかけたメッセージを整理。


* * *

Defense Secretary Pete Hegseth later said on X that Anthropic will be deemed a “supply chain risk,” a type of designation usually reserved for companies thought to be extensions of foreign adversaries.
アンソロピック(Anthropic)は「サプライチェーン上のリスク(supply chain risk)」だ。

米国ヘグセス国防長官が先日投稿した内容だ。

この「リスク」指定、通常は外国の敵対勢力の延長線(extensions)上にあるとされる企業、つまりスパイ企業みたいなものに適用されるものらしい。

ところが、アンソロピックは純粋なアメリカ企業で、
国防総省も同社のAIモデルを利用していた。元OpenAIのメンバーによって設立された同社は、今話題の「AIエージェント」の先駆者的な一社だ。

そんな企業が国賊まがいの指定をされた背景には、やはり政権側との確執があった。今回紹介する記事はこのことについて伝えている。

ぜひ全文を読んで欲しい。


* * *

「禁止条項」を巡る争い:軍とアンソロピックは何を巡って対立したのか

Anthropic’s Claude was the first AI model to work on the military’s classified networks. The company struck a contract worth up to $200 million with the Pentagon last summer.  
Within Anthropic’s “acceptable use policy” in the contract are prohibitions against the use of Claude in mass surveillance and autonomous weapons.
今回「リスク」指定されたアンソロピック(Anthropic)社。
今後、連邦機関および軍と提携する請負業者は、同社との取引ができなくなってしまった。

同社が提供するAIモデル「Claude」。
AI自らが複数のステップを自分で組み立てて実行する「AIエージェント」と呼ばれる。

具体的には、人間がデータを入力してボタンを押さなくてもAIがその場で複数のソフトを横断して操作してくれる仕組みのことをいう。つまり、人間が操作する「あらかじめ作られた完成品のソフト」は将来的には不要になるかもしれないのだ。

その意味で、AIエージェントの登場は「SaaSの死」をもたらしたなどと言われている。


* * *


実はこのClaude、軍の機密ネットワーク(classified networks)上で稼働した最初のAIモデルだった。

一方、OpenAIなどの他のAI企業は「非機密」ネットワーク上でしか軍と契約を結んでいない。つまりアンソロピック社は、軍のシステムで非常に重要な役割を担っていたといえる。

ところが、アンソロピックと軍との契約には「利用ポリシー」というものがあった。

その内容は、このClaudeを「大量監視(mass surveillance)および自律型兵器(autonomous weapons)で使用してはならない」というものだった。

それらの禁止条項は、アンソロピック社にとっての「two redlines(二つのレッドライン(譲れない一線))」というもので、具体的には、AI知能を『殺人ロボットの脳』や『市民のプライバシー侵害』には使わせない、という内容だ。

いっきに話がSFチックになってきた。


* * *

|どちらが優先?—国家安全保障と企業の倫理

The Pentagon, which uses Anthropic’s Claude AI system on its classified networks, wants to be able to use it for “all lawful purposes.”  
In the Pentagon’s view, it doesn’t want to be in the middle of a national security situation, needing to ask a company for permission and guardrails to be dropped.
機密ネットワーク上でアンソロピックのAIシステムを使用しているペンタゴンは、Claudeを「あらゆる適法な目的(all lawful purposes)」に使用できることを求めていた。

大量監視や自律型兵器も、国防総省が行う以上は「適法」だということか。

なぜペンタゴンが業者からの制約を受けるのを望まないかというと、軍は「禁止事項を抱えたまま戦術作戦を指揮することはできない」からだ。

たしかに、国家安全保障上の事態(a national security situation)の最中に、制限を外すために企業にわざわざ許可を求めなければならなくなることは迅速性に欠ける。

何より、そういった制約が潜在的にアメリカ人兵士をリスクに晒すことになる。

国家安全保障の観点から見れば、筋の通った主張とも言える。


* * *

|大いなる「先例」:今回の措置が他のAI企業に与えるメッセージ

“I think in the broader sense, this sends a message to the other AI companies that they are negotiating with to make sure they do not attempt to put any sort of restrictions on AI’s uses,”
本記事によると、アンソロピック社にとっては軍との2億ドルの契約を失うことは大した脅威ではないらしい。

むしろ、「サプライチェーン・リスク指定」によって、これまで既存顧客であった大企業(それらもペンタゴンと何らかの契約を結んでいる可能性)が離れていくことによるダメージの方が大きい。

 これが、ヘグセス長官や政権側の狙いだと見る向きもある。もちろん、政権の方針に背いた報いとしてだ。契約解除に止まらず、いわゆる「ブラックリスト」指定で追放までしようとする意図はここにある。

他方で、アンソロピックが事実上排除された数時間後、OpenAIのアルトマンCEOは、国防総省と機密ネットワーク向けのAI提供について合意したと発表した。

 本記事によれば、この「これ見よがし」な動きを見せたOpenAIに対し、専門家の間からは「日和見主義的(opportunistic)」だとの批判も出ているという。


* * *


今回の措置、「交渉中の他のAI企業に対し、AIの使用にいかなる制限も加えようとするな(do not attempt to put any sort of restrictions)というメッセージだ」と専門家は語る。

両者の言い分はもっともだが、「要求に従わなければ排除」といった追い込みをするあたり、「合法」利用にあたり、政権側も後ろめたいところあったのではと勘ぐってしまうのだが…?


* * *

このニュース、
英語で読んだ印象はいかがでしたか?

*****

本ブログは、FT・Bloomberg・BBCなど一流英字メディアから、
要点を背景や文脈まで含めて読み解き、忙しいビジネスパーソン向けに再整理しています。
「時短でビジネス教養」と「英語力強化」に役立ちましたら、

▶️ サポートで活動を応援いただけると今後の継続の励みになります ※いただいたサポートは、メディア購読や執筆活動に充てさせていただきます。

英字メディアの読み解き、情報整理、勉強会・社内共有などのご相談があれば、

▶️ こちらのフォーム からご連絡ください。 ※内容を拝見し、対応可能なものに限りご返信いたします。