El acuerdo se produce días después de que el Pentágono anunciara un acuerdo con siete gigantes tecnológicos para utilizar inteligencia artificial en sistemas secretos.
Publicado el 5 de mayo de 2026
Los gigantes tecnológicos Microsoft, Google y xAI han anunciado que permitirán al gobierno federal de EE. UU. acceder a sus nuevos modelos de IA para pruebas de seguridad nacional.
El Centro de Estándares de Innovación e Inteligencia Artificial (CAISI) del Departamento de Comercio anunció el acuerdo el martes en medio de crecientes preocupaciones sobre las capacidades que el modelo Mythos recientemente presentado por Anthropic podría proporcionar a los piratas informáticos.
Historias recomendadas
Lista de 4 artículosFin de la lista
Según el nuevo acuerdo, el gobierno de EE. UU. podrá evaluar modelos antes de su despliegue y realizar investigaciones para evaluar sus capacidades y riesgos de seguridad.
El acuerdo cumple una promesa hecha por la administración del presidente estadounidense Donald Trump en julio pasado de asociarse con empresas de tecnología para examinar sus modelos de inteligencia artificial en busca de «riesgos para la seguridad nacional».
La compañía dijo en un comunicado que trabajará con científicos del gobierno estadounidense para probar sistemas de inteligencia artificial «de maneras que exploren comportamientos inesperados». La compañía dijo que trabajarán juntos para desarrollar conjuntos de datos y flujos de trabajo compartidos para probar los modelos de la compañía.
Microsoft firmó un acuerdo similar con el Instituto de Seguridad de Inteligencia Artificial del Reino Unido, según el comunicado.
En Washington crece la preocupación por los riesgos para la seguridad nacional que plantean los poderosos sistemas de inteligencia artificial. Al asegurar el acceso temprano a los modelos líderes, los funcionarios estadounidenses pretenden identificar amenazas que van desde ataques cibernéticos hasta el uso indebido militar antes de que las herramientas se implementen ampliamente.
El desarrollo de sistemas avanzados de inteligencia artificial, incluido Mythos de Anthropic, en las últimas semanas ha generado rumores a nivel mundial, incluso entre funcionarios y empresas estadounidenses, sobre su capacidad para motivar a los piratas informáticos.
«La metrología independiente y rigurosa es esencial para comprender la IA de frontera y sus implicaciones para la seguridad nacional», dijo Chris Vale, director de CAISI, en un comunicado.
La medida se basa en los acuerdos de 2024 con OpenAI y Anthropic bajo la administración del presidente Joe Biden, cuando CAISI era conocido como el Instituto Americano para la Seguridad de la Inteligencia Artificial. Bajo Biden, el instituto se ha centrado en desarrollar pruebas, definiciones y estándares de seguridad voluntarios de IA. Fue dirigido por la asesora de tecnología de Biden, Elizabeth Kelly, quien desde entonces se unió a Anthropic, según su perfil de LinkedIn.
CAISI, que actúa como el principal centro del gobierno para probar modelos de IA, dijo que ya había completado más de 40 evaluaciones, incluidos modelos de vanguardia que aún no estaban disponibles para el público.
La agencia dijo que los desarrolladores a menudo entregan versiones de sus modelos sin las barreras de seguridad para que el centro pueda investigar los riesgos de seguridad nacional.
xAI no respondió de inmediato a una solicitud de comentarios. Google se negó a hacer comentarios.
En Wall Street, las acciones de Microsoft cayeron un 0,6% en las operaciones del mediodía tras el anuncio. Por otro lado, Alphabet, la empresa matriz de Google, iba en la dirección opuesta. La acción subió un 1,3 por ciento. xAI no cotiza en bolsa.
Estos anuncios se produjeron tras un acuerdo entre el Pentágono y siete importantes empresas de tecnología (Google, Microsoft, Amazon Web Services, Nvidia, OpenAI, Reflection y SpaceX) para utilizar sus sistemas de inteligencia artificial a través de redes informáticas secretas.
El Departamento de Defensa dijo que el acuerdo proporcionaría sus recursos para ayudar a «mejorar la toma de decisiones de los combatientes en entornos operativos complejos».
Vale la pena señalar que la empresa de inteligencia artificial Anthropic está ausente de la lista luego de su disputa pública y batalla legal con la administración Trump sobre la ética y la seguridad del uso de la inteligencia artificial en la guerra.



