【衝撃】国防総省、イラン攻撃にAnthropicのAI「Claude」使用!トランプ氏は利用停止命令
国防総省とAI利用の概要
アメリカ軍が、週末のイラン攻撃において、エヌビディアと提携するAnthropic社のClaude AIモデルを使用し、現在も使用を継続していることが、関係筋を通じて明らかになった。
国防総省は、AIツールの具体的な使用方法を公表していないものの、先週の同社との間で発生した技術利用に関する意見の対立にもかかわらず、その利用を続けている。
この対立は、Anthropic社が、Claudeをアメリカ国民に対する大規模な監視や完全自律型兵器の開発に利用することを明確に禁止するガードレール(安全対策)を設けることを求めたことに起因する。
国防総省は、「合法的目的」であればClaudeを自由に利用する権利を主張し、Anthropic社の懸念は、すでにアメリカ国民に対する大規模な監視が違法であり、軍内部の規定で完全自律型兵器の使用が制限されているため、実質的な問題ではないと反論した。
国防総省のチーフ・テクノロジー・オフィサーであるエミル・マイケル氏は、軍を信頼して正しい行動をとるべきだと述べている。
一方、Anthropic社のCEOであるダリオ・アモデイ氏は、政府による技術利用において「レッドライン」を設ける必要性を訴え、アメリカの価値観に反する行為を防ぐため、自社の価値観を主張した。
ドナルド・トランプ大統領は、連邦機関に対しAnthropic社の技術利用を停止するよう指示し、ピート・ヘグセス国防長官は同社をサプライチェーンリスクと認定した。
国防省がClaudeの機能を他のAIプラットフォームに置き換えるには、3ヶ月以上の時間を要する可能性があると報じられている。
国防総省のマイケル氏は、Claudeが文書の要約やロジスティクス、サプライチェーンの効率化など、様々なタスクに利用されていると述べている。
イラン攻撃とAIの注目ポイント
- アメリカ国防総省は、イラン攻撃にAnthropic社のClaude AIモデルを使用、現在も活用中。
- Anthropic社は、アメリカ国民の監視や自律型兵器への利用を阻止する「ガードレール」を要求し、国防総省と対立。
- ドナルド・トランプ大統領は、Anthropic社の技術利用を停止命令、国防総省は代替AIプラットフォームの移行に時間を要すると見られる。
AI倫理と国防戦略の分析・解説
アメリカ国防総省によるAnthropic社のClaude AIモデル利用に関する分析
報道によれば、国防総省はイラン攻撃においてClaude AIモデルを使用しており、政府全体での利用禁止令下においても継続利用している。
この背景には、Anthropic社がアメリカ国民に対する大規模監視や完全自律型兵器への利用を明示的に阻止するためのガードレールを求めたことと、国防総省が「合法的目的」での利用を要求したこととの対立がある。
国防総省は、既存の法規制や内部規定により監視や自律兵器利用は既に制限されていると主張し、軍への信頼を訴えている。
Anthropic社のCEOは、アメリカの価値観を守るために政府との意見の相違を表明し、愛国者としての立場を強調している。
しかし、トランプ大統領はAnthropic社の技術利用停止を命じ、国防総省は同社をサプライチェーンリスクと認定した。
Claude AIモデルの代替プラットフォームへの移行には数ヶ月を要する可能性があり、国防総省の業務効率化への影響が懸念される。
この事例は、AI技術の軍事利用における倫理的課題と、政府と民間企業との間で生じる価値観の衝突を浮き彫りにしている。
AIの軍事利用は、国家安全保障上の利点と、人権やプライバシーへの潜在的リスクとの間で、慎重なバランスを考慮する必要がある。



