33年ネット諸兄姉どの(2026.03.17)
アンソロピック社は、オープンAIにいた二人の兄妹によって2001年に設立されきわめて倫理観の強いたベンチャー企業&公益法人である。詳しくはhttps://www.anthropic.com/を見られたい。
この会社とトランプの間に繰り広げられた戦いはー日本では見られないー戦いは注目に値する。以下はNYTimesの記事である。なお、これらの記事から遅れること7日、3月11日に朝日新聞も報道した。以下その記事、
★アンソロピック国防総省を提訴
AI制限緩和巡り「安保リスク指定は違法」
米AI (人工知能)開発企業アンソロピックは9日、米国防総省が同社を「国家安全保障上のサプライチェーン(供給網)リスク」に指定したことは違法だとして、差し止めなどを求める訴訟を起こした。AI の安全性をめぐって国防総省と対立し、契約解除された末に法廷で争う。テック業界には波紋も広がっている。生成AI 「クロード(Claude Model)」の開発元であるアンソロピックは、自社の技術を兵器などに使わせないという独自の制限を設けている。国防総省はこの制限の緩和を求めたが、同社が応じなかったため、今月初めに国防総省と取引のある企業がアンソロピックと取引ができなくなるサプライチェーンリスクに指定していた。訴状によると、同社は「Aが戦争や監視に与える意味について、活発な対話と議論をするべき世界の人々(新たに契約のオープンAl 解約相次ぎ離職も)に対し、回復不能な損害をもたらす」などと指摘した。一方、アンソロピックと国防総省の契約が解除された後、新たに契約を勝ち取ったライバルのオープンAIには批判的な見方が強まっている。サンフランシスコにあるオープンAI 本社の前では、3 日に抗議集会が開かれた。ネット上では同社の生成AI 「chatGPT(チャットGPT )」の利用をやめる運動も広がった。主催するウェブサイトによると、400万人が解約や不使用を宣言した。人材も離れている。オープンAI のロボット部門幹部のケイトリン・カリノウスキー氏は7 日にX (旧ツイッター)で退職を明かし、ドローンといった「完全自律型兵器」などを念頭に、 「より熟考に値する一線だった」と書いた。
(サンフランシスコ= 市野塊)
★The New York Times nytdirect@nytimes.com 2026.2.28(土)8:38
Anthropic’s A.I. Tierney L. Cross/The New York Times
President Trump has ordered all federal agencies to stop using artificial intelligence technology made by Anthropic. He disparaged the A.I. maker this afternoon as a “radical left, woke company” and accused it of trying to “strong-arm” the U.S. military.
Soon after, Defense Secretary Pete Hegseth said he was designating Anthropic a “supply-chain risk to national security.” That would mean that any contractor or supplier that works with the military would be prohibited from doing business with the A.I. company. Anthropic, which spent today negotiating with the Pentagon, is expected to challenge the designation in court.
Anthropic is the only A.I. company operating on the military’s classified systems, so banning it could complicate C.I.A. analysis and defense work.
For days, Anthropic and the Pentagon have been locked in an escalating battle that, on its surface, is over the terms of the Pentagon’s use of Anthropic’s A.I. model, called Claude. The company said it wanted to embed safeguards in its technology to prevent it from being used to support mass surveillance or fully autonomous weapons. The Pentagon, which indicated it had no plans to use the A.I. for those purposes, said that private contractors did not get to make those kinds of decisions.
Underlying this all is a debate about how A.I. should be used, what its risks are and who gets to set limits on the technology.
In other military news: A Pentagon laser inadvertently downed a government drone, prompting the F.A.A. to ban flights over a remote part of Texas.
In other A.I. news: OpenAI raised another $110 billion, valuing the company at $730 billion.
★AnthropicのAI
トランプ大統領は、すべての連邦機関に対し、Anthropic製の人工知能技術の使用を停止するよう命じました。彼は本日午後、このAIメーカーを「急進的な左派の目覚めた(woke)会社」と中傷し、米軍を「強引に脅そうとしている」と非難した。
その直後、ピート・ヘグセス国防長官はアンソロピックを「国家安全保障に対するサプライチェーンリスク」と指定すると発表しました。つまり、軍と取引する契約者やサプライヤーは、AI企業と取引することを禁止されるということです。本日ペンタゴンと交渉を行ったアンソロピックは、この指定に法廷で異議を唱える見込みです。
アンソロピックは軍の機密システム上で唯一活動しているAI企業であるため、禁止すればCIAの分析や防衛業務が複雑になる可能性がある。
ここ数日、アンソロピックとペンタゴンは激化する戦いに巻き込まれており、表面的にはペンタゴンが使用するAnthropicのAIモデル「クロード(Claude)」の条件をめぐってのものだ。同社は、大量監視や完全自律型兵器(fully autonomous weapons)の支援に使われないように、技術に安全策を組み込むことを望んでいると述べました。国防総省は、AIをそのような目的で使用する予定がないと示し、民間請負業者にはそのような決定を下す権利はないと述べた。
この背後には、AIをどのように使うべきか、そのリスクは何か、そして誰が技術の制限を設けるのかという議論があります。
その他の軍事ニュースとして:ペンタゴンのレーザーが誤って政府のドローンを撃墜し、これによりFAAはテキサスの辺鄙な地域上空での飛行を禁止しました。
その他のAI関連ニュースとして、 OpenAIはさらに1100億ドルを調達し、 同社の評価額は7300億ドルに達しました。
★The New York Times nytdirect@nytimes.com 2026.03.04(水)6:00
By Katrin Bennhold(記者、名前を入れればキャリア、記者の姿勢、自分自身を、メールアドレスなども公表してる。日本の記者と比較にならない。)
Good morning, world. If there’s a war unfolding somewhere in 2026 — and there are currently several — there’s a good chance that artificial intelligence is playing a part in it.
A.I. is being used in fighting in Iran and Ukraine. The U.S. used it when it captured the leader of Venezuela. Israel used it during its war in Gaza.
And the use of A.I. on the battlefield is only just getting started. That’s why another battle that unfolded last week between the Trump administration and Anthropic, an American A.I. company, is so important. I asked my colleague Julian E. Barnes what the fight means for the future of warfare, for Americans and for the world.
おはよう、世界。 もし2026年にどこかで戦争が進行しているなら――現在も複数ありますが――人工知能がその一端を担っている可能性が高いです。
AIはイランやウクライナでの戦闘で使われています。アメリカはベネズエラの指導者を捕らえた際にもこの武器を使用しました。イスラエルはガザでの戦争中にこれを使用しました。
そして、戦場でのAIの活用は、まだ始まったばかりです。だからこそ、先週トランプ政権とアメリカのAI企業アンソロピックとの間で繰り広げられた別の対立は非常に重要なのです。
私は同僚のジュリアン・E・バーンズに、この戦いが戦争の未来、アメリカ人、そして世界にとって何を意味するのか尋ねました。
★A fight about the future of war
Anthropic is one of the world’s leading A.I. companies. Its Claude model has been widely used by the Pentagon to collect intelligence, identify targets, map out operations and more. But the fight last week wasn’t about how A.I. is currently being used. It was about how it could be used.
Anthropic’s contract set out two restrictions: The government could not use its technology for surveillance of U.S. citizens. And it could not use Claude with autonomous weapons that kill without human involvement.
The Pentagon balked. It said it didn’t want to use A.I. for domestic surveillance or autonomous killer robots. But it refused to let a private company put restrictions on how the military uses its product.
The standoff has been a messy mix of contract dispute and culture war, a focal point for fears about A.I. and worries about U.S. competitiveness in the global race for A.I. pre-eminence.
On Friday, after negotiations failed, President Trump ordered all federal agencies to stop using Anthropic. The Pentagon also labeled it a “supply-chain risk to national security,” potentially barring any military contractor from doing business with the firm.
Julian, who writes about intelligence and national security, was covering the fight between Anthropic and the Pentagon before he started covering the war in Iran. (He’s been busy.)
★Julian, how much is A.I. already integrated into warfare and national security?
It’s totally integrated. The use of A.I. in warfare is no longer theoretical. A.I. is on the battlefield. We do not believe that large language models are being used to command drones or fire weapons yet. But A.I. is deeply embedded in the process of collecting intelligence and using it to shape strategic decisions.
★And what exactly is Anthropic worried about?
One of their concerns was that the government could use A.I. to analyze commercially available data on U.S. citizens. Our web browsing data, our telephone metadata — commercial firms can scoop that up and use A.I. to figure out where you’ve been, what you’ve visited, what you purchased.
Anthropic is also worried about this idea of killer drones.
★戦争の未来をめぐる戦い
アンソロピックは世界有数のAI企業の一つです。そのクロードモデルは、ペンタゴンによって情報収集、目標の特定、作戦のマッピングなどに広く活用されています。しかし先週の争いは、現在のAIの使い方についてではありませんでした。それは、どのように使われるかについてでした。
アンソロピックの契約には2つの制限が定められていた。政府は自社の技術を米国市民の監視に使用してはならない。そして、人間の関与なしに殺害を起こす自律兵器を持つクロードを使うこともできません。
ペンタゴンは躊躇しました。国内監視や自律殺人ロボットにAIを使いたくないと述べました。しかし、軍の製品の利用に民間企業が制限を設けることは許さなかった。
この膠着状態は契約紛争と文化戦争が混ざり合った混沌としたものであり、AIに対する懸念や、AIの覇権を巡る世界的な競争における米国の競争力への懸念の焦点となっています。
金曜日、交渉が決裂した後、トランプ大統領はすべての連邦機関にAnthropicの使用を停止するよう命じました。また、国防総省はこれを「国家安全保障に対するサプライチェーンリスク」と位置づけ、軍事請負業者が同社と取引することを禁じる可能性があると述べた。
情報と国家安全保障について執筆するジュリアンは、イラン戦争を取材する前はアントロピックとペンタゴンの争いを取材していました。(彼は忙しかった。)
ジュリアン、AIはすでに戦争や国家安全保障にどれほど統合されているのでしょうか?
完全に統合されています。戦争におけるAIの使用はもはや理論的なものではありません。AIは戦場にいる。私たちは、まだ大規模な言語モデルがドローンの指揮や武器発射に使われているとは考えていません。しかし、AIは情報収集と戦略的意思決定のプロセスに深く根ざしています。
★では、Anthropicは具体的に何を心配しているのでしょうか?
彼らの懸念の一つは、政府が米国市民の商業的に利用可能なデータを分析するためにAIを利用できるというものでした。私たちのウェブ閲覧データや電話のメタデータ――商業企業はそれらを収集し、AIを使ってあなたがどこに行ったか、何を訪れ、何を購入したかを把握できます。
Anthropicもこの殺人ドローンのアイデアを懸念しています。
★A drone workshop in Ukraine. Brendan Hoffman for The New York Times
And why is the government objecting to these red lines?
The U.S. says it will always have a human in the loop when artificial intelligence is making decisions around whether or not to kill someone. But there are problems that go along with that, because whoever can observe, think and decide faster is going to win in a battle, and humans can slow that process down.
The central question here is the role of humans in future warfare. And that will probably look very different than today. We still need them, but we haven’t decided what their role is going to be. And that makes it hard to write A.I. rules in advance.
ウクライナのドローンワークショップ。 ニューヨーク・タイムズのブレンダン・ホフマン
そしてなぜ政府はこれらのレッドラインに反対しているのでしょうか?
アメリカは、人工知能が誰かを殺すかどうかの判断を下す際には常に人間が関与すると言っています。しかし、それに伴う問題もあります。なぜなら、観察し、考え、判断を速くできる方が戦いで勝てるからです。人間はその過程を遅らせることができます。
ここでの中心的な問いは、将来の戦争における人間の役割です。そしてそれはおそらく今とは大きく異なる姿になるでしょう。まだ必要ですが、彼らの役割がどうなるかはまだ決めていません。そのため、AIのルールを事前に作成するのは難しいのです。
★What does the law have to say about A.I. and warfare?
The Pentagon says that the existing laws that govern the conduct of war should be enough. Because the principles of ethical warfare are the same if I’m dropping a bomb or using software to improve my targeting.
But Anthropic says A.I. is not like other weapons. Other weapons are confined by their hardware. This plane flies to this spot, and drops a bomb. This plane flies to this spot, and shoots another plane.
Large language models are different. You can have them analyze data for insights. You can have them suggest places to bomb. You could have them design a cyberattack. Their use constantly evolves.
Anthropic’s line is that this is special technology and we need to have special guardrails on it.
・法律はAIと戦争について何と言っているのでしょうか?
ペンタゴンは、戦争遂行を規定する既存の法律で十分であるべきだと述べています。なぜなら、私が爆弾を投下するときも、ソフトウェアを使ってターゲティングを改善するときも、倫理戦争の原則は同じだからです。
しかしAnthropicは、AIは他の武器とは異なると言っています。他の武器はハードウェアによって制限されています。この飛行機はその場所に飛んできて、爆弾を落とす。この飛行機はこの場所に飛んできて、別の飛行機を撃ちます。
大規模言語モデルは異なります。データを分析して洞察を得ることもできます。爆撃場所を提案させることもできます。サイバー攻撃を設計させることもできます。その使い方は常に進化しています。
Anthropicの方針は、これは特別な技術であり、特別なガードレールが必要だということです。
★So if we boil it down, what is this fight really about?
It’s about politics and about principle — on both sides.
saying: This is the woke Anthropic wants to show that it’s a responsible, safety-minded company. That’s their brand. And the Pentagon is A.I. company! We’re cracking down on woke! That’s the MAGA brand.
As for principles, the Pentagon is saying there is one standard for all companies who do business with us: We are constrained by the lawful use of this technology, not by any conditions dictated by private companies.
And Anthropic is saying that existing laws are not fit to regulate A.I.
How does this fit into the bigger A.I. race between the U.S. and China? I assume Chinese companies don’t ask the government to put in place guardrails.
Definitely not. Chinese law commands Chinese companies to give up their technology to the state. That’s also why the threat of China hangs over what just happened in Washington. Because the U.S. believes that if there is a war with China over Taiwan, the opening battle will be a battle of drones over the Taiwanese Strait. The drones that can move and decide faster are going to win.
No guardrails also means the Chinese government has asked A.I. companies to develop mass disinformation tools. It has used A.I. for mass surveillance. It has used large language models to identify dissidents. So how China has used A.I. is the actual nightmare scenario that Anthropic is warning about. Related: OpenAI, Anthropic’s primary rival, signed a deal with the Pentagon immediately after Trump’s order. On Monday, OpenAI said it was amending the contract to say its A.I. systems “shall not be intentionally used for domestic surveillance of U.S. persons and nationals.”
では、要点をまとめると、この戦いは本当は何についてのものなのでしょうか?
それは政治であり、原則の問題でもあります――両陣営において。
こう言います:これはAnthropicが責任感があり安全を重視する会社であることを示したいウォークな姿です。それが彼らのブランドです。そしてペンタゴンはAI企業です! ウォーク(ウォーク)を取り締まっています! それがMAGAブランドです。
原則について言えば、国防総省は私たちと取引するすべての企業に対して一つの基準があると言っています。それは、民間企業が定める条件ではなく、この技術の合法的な使用によって制約されるということです。
そしてAnthropicは、既存の法律はAIを規制するにふさわしくないと言っています。
これは米中間のより大きなAI競争の中でどのように位置づけられるのでしょうか?中国企業は政府にガードレールを設置するよう求めていないのだろう。
絶対に違います。中国の法律は中国企業に技術を国家に譲渡することを命じています。だからこそ、ワシントンで起きたばかりの出来事に中国の脅威が重くのしかかっているのです。なぜなら、アメリカは台湾を巡って中国と戦争が起きた場合、最初の戦いは台湾海峡でのドローン戦になると考えているからです。より速く動き、判断できるドローンが勝つでしょう。
ガードレールがないということは、中国政府がAI企業に大量偽情報ツールの開発を依頼したことを意味します。AIを大規模監視に利用しています。大規模な言語モデルを用いて反体制派を特定しています。つまり、中国がAIをどのように活用してきたかこそが、Anthropicが警告している実際の悪夢シナリオです。
関連記事:Anthropicの主要なライバルであるOpenAIは、トランプ大統領の命令直後にペンタゴンと契約を結びました。月曜日、OpenAIは契約を修正し、自社のAIシステムは「米国人および国民の国内監視に意図的に使用されてはならない」と明記した。
イチハタ