Buscar
Tecnología

Lectura 2:00 min

Anthropic dice que no dará al ejército de EU un uso incondicional de su IA

El Pentágono también amenazó con calificar a Anthropic como un riesgo para la cadena de suministro.

Anthropic presenta parte de su tecnología.Foto EE: Cortesía

La compañía Anthropic dijo el jueves que no otorgaría al Departamento de Defensa de Estados Unidos el uso militar sin restricciones de su tecnología de inteligencia artificial, a pesar de las presiones del Pentágono.

"Estas amenazas no cambian nuestra posición: no podemos, en conciencia, acceder a su solicitud", dijo en un comunicado Dario Amodei, director ejecutivo de la empresa.

El gobierno de Donald Trump le dio a la startup hasta las 17:01 (22:00 GMT) de este viernes para aceptar el uso militar incondicional de su IA, a pesar de que esa petición viola los lineamientos éticos de la empresa.

De negarse, el Pentágono dijo que la empresa se enfrentaba a una orden de cumplimiento forzoso bajo la Ley de Producción de Defensa.

Esta normativa de la era de la Guerra Fría otorga al gobierno federal amplios poderes para obligar a la industria privada a priorizar las necesidades de seguridad nacional.

El Pentágono también amenazó con calificar a Anthropic como un riesgo para la cadena de suministro, una designación normalmente reservada para empresas de países adversarios que podría perjudicar seriamente la reputación de la compañía.

Amodei dijo que los modelos de Anthropic han sido desplegados por el Pentágono y las agencias de inteligencia para defender al país, pero que la compañía traza una línea ética respecto a su uso para la vigilancia masiva de ciudadanos estadounidenses y para armas totalmente autónomas.

"El uso de estos sistemas para la vigilancia doméstica masiva es incompatible con los valores democráticos", afirmó el ejecutivo.

Y añadió que los sistemas de IA de vanguardia aún no son lo bastante fiables como para confiarles el control de armas letales sin que haya un ser humano con el control último.

Únete infórmate descubre

Suscríbete a nuestros
Newsletters

Ve a nuestros Newslettersregístrate aquí

Últimas noticias

Noticias Recomendadas