La Casa Blanca acusa a China de robo a "escala industrial" de modelos de IA estadounidenses

En resumen

  • La Casa Blanca dice que entidades extranjeras, principalmente en China, están llevando a cabo campañas de “escala industrial” para copiar modelos de IA estadounidenses.
  • Funcionarios dicen que los atacantes usan cuentas proxy y jailbreaks para extraer capacidades del modelo y datos propietarios.
  • El memorando llama a las agencias federales y a la industria privada a desarrollar defensas y responsabilizar a los actores extranjeros.

La Casa Blanca advirtió el jueves que “entidades extranjeras” supuestamente están llevando a cabo campañas de “escala industrial” para copiar las capacidades de modelos de inteligencia artificial estadounidenses, usando tácticas que incluyen jailbreaks y redes de cuentas falsas para extraer información propietaria y replicar su rendimiento. En un memorando titulado “Destilación adversarial de modelos de IA estadounidenses,” el Asistente del Presidente para Ciencia y Tecnología y Director de la Oficina de Ciencia y Política Tecnológica, Michael Kratsios, dijo que el gobierno de EE. UU. tiene información que indica esfuerzos coordinados para destilar sistemas de IA de frontera estadounidenses. “EE. UU. tiene evidencia de que entidades extranjeras, principalmente en China, están llevando a cabo campañas de destilación a escala industrial para robar IA estadounidense,” escribió Kratsios en X. “Tomaremos medidas para proteger la innovación estadounidense.”

Según la administración del presidente Donald Trump, las campañas están usando “decenas de miles de cuentas proxy” para evadir detección y explotar técnicas de jailbreak para extraer capacidades de manera sistemática, en lo que se conoce como un ataque de destilación.

EE. UU. tiene evidencia de que entidades extranjeras, principalmente en China, están llevando a cabo campañas de destilación a escala industrial para robar IA estadounidense. Tomaremos medidas para proteger la innovación estadounidense.

Estas entidades extranjeras están usando decenas de miles de proxies y jailbreaks… pic.twitter.com/kSp1FReI7J

— Director Michael Kratsios (@mkratsios47) 23 de abril de 2026

Un ataque de destilación es un método de entrenar un modelo de IA más pequeño para aprender de las salidas de uno más grande. El problema se ha convertido en una preocupación creciente entre las empresas de IA de EE. UU. En febrero, Anthropic acusó a laboratorios de IA chinos DeepSeek, Moonshot y MiniMax de extraer millones de respuestas de Claude—usando aproximadamente 24,000 cuentas fraudulentas—para entrenar sistemas competidores. Los modelos desarrollados mediante campañas de destilación no autorizadas pueden no igualar el rendimiento completo de los originales. Sin embargo, pueden parecer comparables en ciertos puntos de referencia a una fracción del costo.

La administración advirtió que los ataques de destilación también podrían eliminar salvaguardas de seguridad y otros controles diseñados para mantener los sistemas de IA “ideológicamente neutrales y en busca de la verdad.”  La administración de Trump dijo que las agencias federales trabajarán con empresas de IA estadounidenses para fortalecer las protecciones en torno a modelos de frontera, coordinar con la industria privada para desarrollar defensas contra campañas de destilación a gran escala, y explorar formas de responsabilizar a los actores extranjeros. Aunque el memorando reconoció que la destilación legal puede ayudar a crear modelos más pequeños, eficientes y de código abierto, dijo que los esfuerzos no autorizados para copiar sistemas de IA estadounidenses cruzan la línea. “No hay nada innovador en extraer y copiar sistemáticamente las innovaciones de la industria estadounidense,” dijo el memorando. La Oficina de Ciencia y Tecnología no respondió de inmediato a una solicitud de comentario de Decrypt.

Ver originales
Esta página puede contener contenido de terceros, que se proporciona únicamente con fines informativos (sin garantías ni declaraciones) y no debe considerarse como un respaldo por parte de Gate a las opiniones expresadas ni como asesoramiento financiero o profesional. Consulte el Descargo de responsabilidad para obtener más detalles.
  • Recompensa
  • Comentar
  • Republicar
  • Compartir
Comentar
Añadir un comentario
Añadir un comentario
Sin comentarios
  • Anclado