AI提携破綻のニュース概要

アメリカ国防総省とAI企業アントロピックの提携が破綻の危機に瀕している。国防総省はアントロピックに対し、同社のAIモデルを「全ての合法的目的」で使用することを認めるか、もしくは国防総省との有利な契約を失うかの選択を迫っている。

アントロピックは、自社の強力な「クロード」モデルがアメリカ国民の大量監視や自律的な軍事作戦に使用されることを明確に禁止する条項を求めている。国防総省の技術責任者エミル・マイケルは、連邦法や国防総省の方針でAIの使用が制限されていることを書面で明示すると提案したが、アントロピック側はこれを不十分だと判断した。

マイケルは、軍が「正しいことをする」と信頼されるべきだと主張し、AIの利用を制限する条項を明記する必要はないと述べた。しかし、アントロピックのCEOダリオ・アモデイは、国防総省の脅迫的な姿勢は変わらず、良心的に要求を受け入れられないと反論している。

国防総省は、アントロピックとの提携を打ち切り、サプライチェーンリスクに指定する方針を示唆。さらに、国防生産法を動員してアントロピックに要求を遵守させることも検討している。アントロピックは、国防総省の機密ネットワークにモデルを導入している唯一のAI企業であり、2億ドルの契約を結んでいる。

この対立は、AIのリスク軽減に関する政策立案者とテクノロジー企業の間のより広範な意見の相違を浮き彫りにしている。アントロピックはAIの安全性と透明性を重視する一方、国防総省はAI規制がイノベーションを阻害し、アメリカのAI産業の競争力を低下させることを懸念している。マイケルは、アントロピックがAIの力を恐れていると指摘し、AIを他の技術と同様に合法的に使用するべきだと主張している。




国防総省とアントロピックの注目ポイント

  1. 米ペンタゴンとAI企業アンソロピック間の契約が破談の危機。国防総省はAIモデルの「合法的な利用」を要求。
  2. アンソロピックは、米国民の監視や自律型兵器への利用を明示的に禁止する条項を求めているが、国防総省は既存法で十分と主張。
  3. 国防総省は、中国などの脅威に対抗するため、AI開発を推進。アンソロピックとの合意に至らなければ、代替企業との連携を検討。
【衝撃】AIスキル需要は高騰!でも給与は…7割が現状維持、IT人材の悲鳴AI人材需要と給与の概要 人工知能(AI)のスキルを持つ人材への需要が高まっているものの、企業は必ずしもそのスキルに対して高い報酬を支払...

AI規制の分析・解説

米国国防総省とAI企業Anthropicとの提携が破綻の危機に瀕している。
国防総省はAnthropicに対し、AIモデルを「全ての合法的目的」で使用する許可を得るか、2億ドルの契約を失うかの二者択一を迫っている。
Anthropicは、自社のClaudeモデルが米国民の大量監視や自律的な軍事作戦に使用されることを明確に禁止する条項を求めている。
国防総省は連邦法や既存の国防政策でこれらの使用が既に禁止されていると主張し、Anthropicに対し信頼を求めている。
しかしAnthropic側は、提示された契約条項では安全対策が不十分であると反論している。
この対立は、AIのリスク軽減に関する政策立案者とテクノロジー企業の間のより広範な意見の相違を浮き彫りにしている。
国防総省は、中国などの米国の敵対国がAIを活用していることを考慮し、自国の防衛能力を強化する必要性を強調している。
Anthropicが合意に至らない場合、国防総省は提携を解消し、Anthropicをサプライチェーンリスクと指定する可能性がある。
また、国防生産法を動員し、Anthropicに要求を遵守させることも検討されている。
この問題は、AI技術の軍事利用における倫理的、法的、戦略的な課題を提起している。

※おまけクイズ※

Q. アントロピックが国防総省に対し、自社のAIモデル「クロード」の使用に関して求めている条項とは?

ここを押して正解を確認

正解:アメリカ国民の大量監視や自律的な軍事作戦への利用を明確に禁止する条項

解説:記事の中で、アントロピックが自社のAIモデルがこれらの目的に使用されることを明確に禁止する条項を求めていると明記されています。

【衝撃】国防総省、AIアントロピックに二者択一!2億ドル契約を左右する「クロード」の行方AI国防契約のニュース概要 アメリカ国防総省は、エヌビディアを含む複数のAI企業とAI技術に関する契約を結んでいる。 その中で、アントロ...




詳しい記事の内容はこちらから

参照元について

『CBS News』のプロフィールと信ぴょう性についてここでは『CBSNews.com(CBS News)』の簡単なプロフィール紹介と発信する情報の信ぴょう性についてまとめています。 ...