Sam Altman, CEO de OpenAI, anunció un nuevo convenio con el Departamento de Defensa de Estados Unidos que establece pautas claras en el uso de inteligencia artificial. Un aspecto fundamental de este acuerdo es la firme negativa a la vigilancia masiva, así como el compromiso de que todo sistema autónomo sea supervisado por humanos. Este entendimiento se da en un momento de tensiones en el sector, tras el rechazo de Anthropic a aceptar modificaciones en sus principios por parte del gobierno estadounidense, lo que llevó a la suspensión del uso de sus modelos de inteligencia artificial en agencias federales.

En el marco de este acuerdo, OpenAI se encargará de implementar sus modelos dentro de la red clasificada utilizada por el gobierno estadounidense. Altman destacó en sus redes sociales que el Departamento de Defensa comparte los principios esenciales de la empresa, que priorizan la protección de la privacidad y la necesidad de supervisión humana en los sistemas de armas autónomas. "El Departamento de Guerra está alineado con estos principios, los incorpora en sus políticas y los hemos incluido en nuestro acuerdo", afirmó Altman, quien también subrayó la importancia de la seguridad de la inteligencia artificial y el acceso responsable a la tecnología como pilares de su visión empresarial.

Además, Altman elogió la disposición y el nivel de colaboración del Departamento de Defensa, señalando que se percibe un genuino interés por parte del Pentágono en alcanzar un entendimiento que beneficie a ambas partes. El acuerdo incluye la implementación de "salvaguardas técnicas" para limitar el comportamiento de los modelos, así como mecanismos automáticos y manuales para evitar desviaciones de la normativa. Por su parte, el subsecretario de Defensa, Emil Michael, resaltó la relevancia de asociarse con empresas que operen de manera ética y transparente, describiendo a OpenAI como un “socio confiable y estable” en el contexto de la inteligencia artificial bélica.