Lectura 2:00 min
Microsoft, Google y xAI darán al gobierno de EU acceso anticipado a su IA por seguridad nacional
Microsoft, Google y xAI acordaron conceder al Gobierno de Estados Unidos acceso anticipado a nuevos modelos de inteligencia artificial para realizar pruebas de seguridad nacional.
Microsoft, Google y xAI -propiedad de Elon Musk- acordaron conceder al Gobierno de Estados Unidos acceso anticipado a nuevos modelos de inteligencia artificial para realizar pruebas de seguridad nacional, ante la creciente preocupación de las autoridades por las capacidades de piratería informática de Mythos, el nuevo modelo presentado recientemente por Anthropic.
El Centro de Normas e Innovación en IA del Departamento de Comercio (CAISI, por sus siglas en inglés) informó este martes que el acuerdo le permitirá evaluar los modelos antes de su implementación y llevar a cabo investigaciones para valorar sus capacidades y riesgos de seguridad.
Te puede interesar
El acuerdo cumple una promesa que el Gobierno del presidente Donald Trump hizo en julio de asociarse con empresas tecnológicas para examinar sus modelos de IA en busca de "riesgos para la seguridad nacional".
Microsoft colaborará con científicos del Gobierno para probar sistemas de IA "de formas que detecten comportamientos inesperados", según indicó la empresa en un comunicado. Juntos desarrollarán conjuntos de datos y flujos de trabajo compartidos para probar los modelos, agregó, señalando que firmó un acuerdo similar con el Instituto de Seguridad de la IA de Reino Unido.
En Washington crece la preocupación por los riesgos para la seguridad nacional que plantean los potentes sistemas de IA. Al asegurarse un acceso temprano a los modelos de vanguardia, las autoridades pretenden identificar amenazas que van desde los ciberataques hasta el uso indebido con fines militares antes de que las herramientas se implanten de forma generalizada.
El desarrollo de sistemas avanzados de IA, incluido Mythos de Anthropic, ha causado revuelo a nivel mundial en las últimas semanas, incluso entre los funcionarios estadounidenses y el sector empresarial del país, debido a su capacidad para potenciar a los hackers.
Te puede interesar
"Es esencial tener una ciencia de la medición independiente y rigurosa para comprender la IA de vanguardia y sus implicaciones para la seguridad nacional", afirmó en un comunicado el director del CAISI, Chris Fall.
La iniciativa se basa en acuerdos previos con OpenAI y Anthropic, establecidos en 2024 bajo el Gobierno de Joe Biden, cuando el CAISI se conocía como el Instituto de Seguridad de la Inteligencia Artificial de Estados Unidos.