英文
※太字部分は解説がのちほどあり。
Anthropic boss rejects Pentagon demand to drop AI safeguards:
Anthropic has said it will not back down in a fight with the US Department of Defense (DoD) over how its artificial intelligence (AI) technology is used.
The firm’s chief executive Dario Amodei said on Thursday that his company would rather not work with the Pentagon than agree to uses of its tech that may “undermine, rather than defend, democratic values.”
His comments come two days after a meeting with US Secretary of Defense Pete Hegseth over demands that Anthropic accept “any lawful use” of its tools. It ended with a threat to remove Anthropic from the DoD’s supply chain.
“These threats do not change our position: we cannot in good conscience accede to their request,” Amodei said.
At issue for Anthropic is the potential use of its AI tools like Claude for two purposes: “Mass domestic surveillance” and “Fully autonomous weapons.”
Amodei said “such use cases have never been included in our contracts with the Department of War, and we believe they should not be included now.”
The Department of War is a secondary name for the Defense Department under an executive order signed by US President Donald Trump in September.
“Should the Department choose to offboard Anthropic, we will work to enable a smooth transition to another provider,” Amodei said.
An Anthropic spokeswoman added on Thursday that while the company received updated wording from the DoD for its contract on Wednesday night, it represented “virtually no progress on preventing Claude’s use for mass surveillance of Americans or in fully autonomous weapons.”
“New language framed as compromise was paired with legalese that would allow those safeguards to be disregarded at will,” she said. “Despite [the Department of War’s] recent public statements, these narrow safeguards have been the crux of our negotiations for months.”
A representative of the Defense Department could not be reached for comment.
Emil Michael, the US Undersecretary for Defense, personally attacked Amodei on Thursday night, writing on X that the executive “wants nothing more than to try to personally control the US Military and is ok putting our nation’s safety at risk.”
In an interview with CBS News, Michael said: “At some level, you have to trust your military to do the right thing.”
The uses of AI that Anthropic is fearful of are already barred by the law and by Pentagon policies, he said. And asked why the Pentagon would not agree to contract language demanded by Anthropic, he said: “We do have to be prepared for what China is doing.”
A Pentagon official previously told the BBC that should Anthropic not comply, Hegseth would ensure the Defense Production Act was invoked the Defense Production Act on the company.
The act essentially gives a US president the authority to deem a given company or its product so important that the government can require it to meet defence needs.
But Hegseth also threatened to label Anthropic a “supply chain risk”, meaning the company would be designated as not secure enough for government use.
A former DoD official who asked not to be named told the BBC on Thursday that Hegseth’s grounds for either measure were “extremely flimsy”.
A person familiar with the negotiations who asked not to be named said tensions between Anthropic and the Pentagon “go back several months,” before it was publicly known that Claude was used as part of a US operation to seize Venezuelan President Nicolás Maduro.
While Amodei did not specify exactly how Anthropic could be or had been used by the DoD for mass surveillance or fully autonomous weapons, he wrote in a company blog post that AI can be used to “assemble scattered, individually innocuous data into a comprehensive picture of any person’s life – automatically and at massive scale.”
“We support the use of AI for lawful foreign intelligence and counterintelligence missions,” Amodei said. “But using these systems for mass domestic surveillance is incompatible with democratic values.”
As for AI being used in weapons, Amodei said even today’s most advanced and capable AI systems “are simply not reliable enough to power fully autonomous weapons.”
“We will not knowingly provide a product that puts America’s warfighters and civilians at risk,” Amodei said. “Without proper oversight, fully autonomous weapons cannot be relied upon to exercise the critical judgment that our highly trained, professional troops exhibit every day. They need to be deployed with proper guardrails, which don’t exist today.”
He added that Anthropic had “offered to work directly with the Department of War on R&D to improve the reliability of these systems, but they have not accepted this offer.”
Hegseth had demanded the Tuesday meeting with Amodei, a source previously told the BBC.
英文の引用元:https://www.bbc.com
理解度チェックのクイズ
Q1. Anthropicが国防総省の要求を拒否した主な理由は何ですか?
A. 契約金額が低すぎたから
B. 民主的価値を損なう可能性がある用途を認めたくなかったから
C. AIの性能が低すぎたから
Q2. “back down” の意味として最も近いものはどれですか?
A. 譲歩する
B. 立ち上がる
C. 拒否する
Q3. “accede to their request” の意味として正しいものはどれですか?
A. 彼らの要求を拒絶する
B. 彼らの要求に同意する
C. 彼らの要求を変更する
Q4. Anthropicが懸念しているAIの利用目的はどれですか?
A. 教育分野での活用
B. 医療診断の自動化
C. 大規模な国内監視と完全自律型兵器
Q5. “invoke the Defense Production Act” はどういう意味ですか?
A. 法律を廃止する
B. 法律を発動する
C. 法律を改正する
――――――――――
答えと解説
A1. 正解:B
解説:本文では “agree to uses of its tech that may ‘undermine, rather than defend, democratic values.’” とあり、民主的価値を守るどころか損なう用途には同意しないと述べています。
A2. 正解:A
解説:本文の “it will not back down” は「引き下がらない」「譲歩しない」という意味です。back down は議論や対立の場面でよく使われます。
A3. 正解:B
解説:“we cannot in good conscience accede to their request” とあります。accede to は「(要求などに)同意する」という意味です。
A4. 正解:C
解説:“Mass domestic surveillance” と “Fully autonomous weapons.” と明記されています。
A5. 正解:B
解説:本文で “ensure the Defense Production Act was invoked” とあり、invoke は「(法律などを)発動する」という意味です。
ニュースの背景解説
このニュースは、AI企業Anthropicとアメリカ国防総省(DoD)の対立についてです。AnthropicはClaudeというAIを開発しています。一方、国防総省は軍事や安全保障のためにAI技術を活用したいと考えています。
問題となっているのは、AIを「大規模な国内監視」や「完全自律型兵器」に使う可能性です。Anthropic側は、それが民主主義の価値を損なう恐れがあると主張しています。一方、国防総省側は、中国など他国との競争を理由に、より柔軟な利用を求めています。
AIの軍事利用は世界的に大きな議論になっており、安全性・倫理・国家安全保障のバランスが大きなテーマとなっています。
英文の和訳
Anthropic boss rejects Pentagon demand to drop AI safeguards:
Anthropicのトップ、AIの安全対策を外せという国防総省の要求を拒否
Anthropic has said it will not back down in a fight with the US Department of Defense (DoD) over how its artificial intelligence (AI) technology is used.
Anthropicは、自社の人工知能(AI)技術がどのように使われるかをめぐって米国防総省(DoD)と争っている件について、引き下がらないと述べました。
The firm’s chief executive Dario Amodei said on Thursday that his company would rather not work with the Pentagon than agree to uses of its tech that may “undermine, rather than defend, democratic values.”
同社の最高経営責任者(CEO)ダリオ・アモデイ氏は木曜日、自社の技術が「民主的価値を守るどころか損なう」可能性のある用途に同意するくらいなら、国防総省と仕事をしないほうがよいと述べました。
His comments come two days after a meeting with US Secretary of Defense Pete Hegseth over demands that Anthropic accept “any lawful use” of its tools.
この発言は、Anthropicが自社ツールの「いかなる合法的使用」も受け入れるよう求められた件について、米国防長官ピート・ヘグセス氏と会談してから2日後に出されたものです。
It ended with a threat to remove Anthropic from the DoD’s supply chain.
その会談は、AnthropicをDoDのサプライチェーンから外すという脅しで終わりました。
“These threats do not change our position: we cannot in good conscience accede to their request,” Amodei said.
「こうした脅しは私たちの立場を変えません。私たちは良心に照らして、彼らの要求に同意することはできません」とアモデイ氏は述べました。
At issue for Anthropic is the potential use of its AI tools like Claude for two purposes: “Mass domestic surveillance” and “Fully autonomous weapons.”
Anthropicが問題視しているのは、Claudeのような自社AIツールが「大規模な国内監視」と「完全自律型兵器」という2つの目的に使われる可能性です。
Amodei said “such use cases have never been included in our contracts with the Department of War, and we believe they should not be included now.”
アモデイ氏は、「そのような用途は、これまで“戦争省(Department of War)”との契約に含まれておらず、今後も含めるべきではないと私たちは考えています」と述べました。
The Department of War is a secondary name for the Defense Department under an executive order signed by US President Donald Trump in September.
「戦争省」は、9月に米国大統領ドナルド・トランプ氏が署名した大統領令により、国防総省の別称として位置づけられた名称です。
“Should the Department choose to offboard Anthropic, we will work to enable a smooth transition to another provider,” Amodei said.
「もし同省がAnthropicを外すことを選ぶなら、別の提供事業者への円滑な移行ができるよう協力します」とアモデイ氏は述べました。
An Anthropic spokeswoman added on Thursday that while the company received updated wording from the DoD for its contract on Wednesday night, it represented “virtually no progress on preventing Claude’s use for mass surveillance of Americans or in fully autonomous weapons.”
Anthropicの広報担当者は木曜日、同社が水曜夜にDoDから契約文言の更新案を受け取ったものの、それは「米国民に対する大規模監視や完全自律型兵器へのClaudeの使用を防ぐ点で、事実上ほとんど進展がない」ものだったと付け加えました。
“New language framed as compromise was paired with legalese that would allow those safeguards to be disregarded at will,” she said.
担当者は「妥協案のように見せかけた新しい文言には、そうした安全対策を恣意的に無視できてしまう法律用語(の条項)が組み合わされていました」と述べました。
“Despite [the Department of War’s] recent public statements, these narrow safeguards have been the crux of our negotiations for months.”
「(戦争省の)最近の公の発言にもかかわらず、これらの限定的な安全対策こそが、私たちの交渉の核心であり、それは何か月も前から続いています。」
A representative of the Defense Department could not be reached for comment.
国防総省の担当者にはコメントを求めたものの連絡が取れませんでした。
Emil Michael, the US Undersecretary for Defense, personally attacked Amodei on Thursday night, writing on X that the executive “wants nothing more than to try to personally control the US Military and is ok putting our nation’s safety at risk.”
米国防次官のエミル・マイケル氏は木曜夜、Xに投稿してアモデイ氏を個人的に非難し、その幹部は「米軍を個人的に支配しようとしているだけで、国家の安全を危険にさらすこともいとわない」と書きました。
In an interview with CBS News, Michael said: “At some level, you have to trust your military to do the right thing.”
CBSニュースのインタビューでマイケル氏は、「ある程度は、軍が正しいことをするという信頼が必要だ」と述べました。
The uses of AI that Anthropic is fearful of are already barred by the law and by Pentagon policies, he said.
マイケル氏は、Anthropicが恐れているAIの利用は、すでに法律と国防総省の方針によって禁じられていると述べました。
And asked why the Pentagon would not agree to contract language demanded by Anthropic, he said: “We do have to be prepared for what China is doing.”
そして、なぜ国防総省がAnthropicの求める契約文言に同意しないのかと問われると、「中国がしていることに備えなければならない」と答えました。
A Pentagon official previously told the BBC that should Anthropic not comply, Hegseth would ensure the Defense Production Act was invoked on the company.
国防総省の関係者は以前BBCに対し、Anthropicが従わない場合、ヘグセス氏は同社に対して国防生産法(Defense Production Act)を発動するよう確実に手配すると語っていました。
The act essentially gives a US president the authority to deem a given company or its product so important that the government can require it to meet defence needs.
この法律は要するに、ある企業やその製品が非常に重要だと米大統領が判断した場合に、政府が国防上の必要を満たすようその企業に要求できる権限を与えるものです。
But Hegseth also threatened to label Anthropic a “supply chain risk”, meaning the company would be designated as not secure enough for government use.
しかしヘグセス氏は、Anthropicを「サプライチェーン上のリスク」として指定するとも脅しており、それは同社が政府利用に十分安全ではないと認定されることを意味します。
A former DoD official who asked not to be named told the BBC on Thursday that Hegseth’s grounds for either measure were “extremely flimsy”.
匿名を求めた元DoD高官は木曜日、BBCに対し、いずれの措置についてもヘグセス氏の根拠は「極めて薄弱だ」と語りました。
A person familiar with the negotiations who asked not to be named said tensions between Anthropic and the Pentagon “go back several months,” before it was publicly known that Claude was used as part of a US operation to seize Venezuelan President Nicolás Maduro.
交渉に詳しい匿名の人物は、Anthropicと国防総省の緊張関係は「数か月前までさかのぼる」と述べ、Claudeがベネズエラ大統領ニコラス・マドゥロ氏を拘束する米国の作戦の一部として使われたことが公になる前から続いていたと語りました。
While Amodei did not specify exactly how Anthropic could be or had been used by the DoD for mass surveillance or fully autonomous weapons, he wrote in a company blog post that AI can be used to “assemble scattered, individually innocuous data into a comprehensive picture of any person’s life – automatically and at massive scale.”
アモデイ氏は、Anthropicがどのようにして、あるいは実際にDoDによって大規模監視や完全自律型兵器のために使われ得る(または使われてきた)のかを具体的には示しませんでしたが、会社ブログの投稿で、AIは「散在する、一つひとつは無害に見えるデータを組み合わせ、あらゆる人の人生について包括的な全体像を――自動的に、しかも大規模に――作り上げる」ことができると書きました。
“We support the use of AI for lawful foreign intelligence and counterintelligence missions,” Amodei said.
「私たちは、合法的な対外情報活動や防諜任務のためのAI利用は支持します」とアモデイ氏は述べました。
“But using these systems for mass domestic surveillance is incompatible with democratic values.”
「しかし、これらのシステムを大規模な国内監視に使うことは、民主的価値と相いれません。」
As for AI being used in weapons, Amodei said even today’s most advanced and capable AI systems “are simply not reliable enough to power fully autonomous weapons.”
AIが兵器に使われることについて、アモデイ氏は、今日最も高度で高性能なAIシステムでさえ、「完全自律型兵器を動かすほどには、単純に信頼性が十分ではない」と述べました。
“We will not knowingly provide a product that puts America’s warfighters and civilians at risk,” Amodei said.
「私たちは、米国の戦闘員と民間人を危険にさらす製品を、承知の上で提供することはありません」とアモデイ氏は述べました。
“Without proper oversight, fully autonomous weapons cannot be relied upon to exercise the critical judgment that our highly trained, professional troops exhibit every day.
「適切な監督がなければ、完全自律型兵器が、日々高度な訓練を受けたプロの部隊が示しているような重要な判断力を発揮できると信頼することはできません。
They need to be deployed with proper guardrails, which don’t exist today.”
それらは適切な安全装置(ガードレール)とともに配備される必要がありますが、そうしたものは現在存在しません。」
He added that Anthropic had “offered to work directly with the Department of War on R&D to improve the reliability of these systems, but they have not accepted this offer.”
さらに同氏は、Anthropicは「これらのシステムの信頼性を高めるための研究開発(R&D)で戦争省と直接協力する提案をしたが、相手はその提案を受け入れていない」と付け加えました。
Hegseth had demanded the Tuesday meeting with Amodei, a source previously told the BBC.
情報筋が以前BBCに語ったところによると、ヘグセス氏が火曜日のアモデイ氏との会談を要求していました。
英語学習ポイント解説
- back down
意味は「引き下がる」「譲歩する」です。本文の it will not back down は「引き下がらない」という強い意思を表しています。ビジネスや政治の対立場面でよく使われる重要表現です。 - would rather A than B
本文の would rather not work with the Pentagon than agree to uses… は「~するくらいならBするほうがよい」という比較構文です。
形は would rather A than B で覚えましょう。英作文でも非常に使いやすい表現です。 - accede to their request
accede to は「(要求などに)同意する」という少しかたい表現です。
we cannot in good conscience accede to their request は「良心に照らしてその要求に同意できない」という意味になります。ニュース英語でよく使われます。 - invoke the Defense Production Act
invoke は「(法律などを)発動する」という意味です。
ensure the Defense Production Act was invoked は「国防生産法を発動させるようにする」という意味になります。法律関連ニュースで頻出の語です。 - incompatible with democratic values
incompatible with は「~と両立しない」という意味です。
is incompatible with democratic values は「民主的価値と両立しない」という意味になります。be compatible with(~と両立する)とセットで覚えると効果的です。