Googleは、_The Information_の報告によると、機密作業のためにペンタゴンにAIモデルを提供する契約を結んだ。
この契約により、米国防総省はGoogleのAIを「合法的な政府目的のために」使用できると、関係者は_The New York Times_に語った。この表現は、先月ペンタゴンがOpenAIやxAIと結んだ契約と同じ内容で、これらのAIモデルを機密ネットワークで使用することを許可している。
「私たちは、国家安全保障を支援するためにAIサービスとインフラを提供する主要なAI研究所やテクノロジー・クラウド企業の広範なコンソーシアムの一員であることを誇りに思います」と、Googleの広報担当者は_The New York Times_に語った。「私たちは、AIは適切な人間の監督なしに国内の大量監視や自律兵器に使用されるべきではないという民間・公共セクターの合意に引き続きコミットしています。」
Google、従業員の反対を受けて機密作業のために国防総省とAI契約を締結
要約
Googleは、_The Information_の報告によると、機密作業のためにペンタゴンにAIモデルを提供する契約を結んだ。 この契約により、米国防総省はGoogleのAIを「合法的な政府目的のために」使用できると、関係者は_The New York Times_に語った。この表現は、先月ペンタゴンがOpenAIやxAIと結んだ契約と同じ内容で、これらのAIモデルを機密ネットワークで使用することを許可している。 「私たちは、国家安全保障を支援するためにAIサービスとインフラを提供する主要なAI研究所やテクノロジー・クラウド企業の広範なコンソーシアムの一員であることを誇りに思います」と、Googleの広報担当者は_The New York Times_に語った。「私たちは、AIは適切な人間の監督なしに国内の大量監視や自律兵器に使用されるべきではないという民間・公共セクターの合意に引き続きコミットしています。」
Googleは_Decrypt_からのコメント要請には直ちに応じなかった。 詳細は明らかにされていないが、この契約に先立ち、多数のGoogle従業員がCEOのSundar Pichaiに対し、同社のAIシステムをペンタゴンに提供しないよう求める公開書簡に署名した。 「私たちはAIが人類に利益をもたらすことを望んでいます。非人道的または極めて有害な方法で使用されるのを見たくありません」と書簡は述べている。現在、Googleがそのような害と関係付けられないことを保証する唯一の方法は、機密作業を拒否することだ。そうしなければ、そのような用途が私たちの知らないうちに行われたり、止める力がなくなったりする可能性がある。
この書簡は、AIシステムは「間違いを犯す」ことがあり、「権力を集中させる」可能性があると指摘し、Googleには「最も非倫理的で危険な用途」を防ぐ責任があると主張している。その中には「致死性自律兵器」や「大量監視」も含まれる。 従業員たちは、「今すぐ誤った判断を下すことは、Googleの評判、事業、世界における役割に取り返しのつかないダメージを与える」と警告している。 ペンタゴンは、1月に国防長官のPete Hegsethがこの技術を軍全体に統合すべきだと述べて以来、主要なAI企業との契約締結を加速させている。 この書簡は、戦争における技術の使用方法について、軍と一部のAI開発者の間に拡大する溝を浮き彫りにしている。 3月、ペンタゴンはAnthropicを「サプライチェーンリスク」と指定し、サンフランシスコのスタートアップが連邦政府と協力することを事実上禁止した。CEOのDario AmodeiがAIモデルの無制限使用を拒否したためだ。Anthropicはその後、この指定に対して訴訟を起こし、他の政府機関との協力を続けようとしている。 従業員からの反発にもかかわらず、Googleはペンタゴンとの契約を進めているようで、国防総省は機密作業におけるAIの利用を拡大している。 「簡単に言えば、米国は21世紀の技術的優位性を確保するための戦略的競争に勝たなければならない」とHegsethは1月にイーロン・マスクのStarbaseでのスピーチで述べ、「長い間待ち望まれていたことだ」と語った。 「まもなく、私たちの部門のすべての非機密・機密ネットワークに、世界をリードするAIモデルが配置されるだろう」と彼は述べた。