La relación entre los gigantes de la inteligencia artificial y el Estado estadounidense ha alcanzado un punto de ruptura histórico. Anthropic, la firma creadora de Claude, protagonizó un enfrentamiento directo con el Departamento de Guerra al negarse a eliminar los “guardarraíles” o límites éticos de su modelo para uso gubernamental. La negativa de la empresa se centró en impedir que su tecnología fuera utilizada en programas de espionaje masivo doméstico y el desarrollo de armas completamente autónomas. La respuesta de Washington fue drástica: una amenaza de declarar a Anthropic como un “riesgo en la cadena de suministro”, lo que implicaría el cese de toda relación contractual federal.
Ante el vacío dejado por Anthropic, OpenAI intervino rápidamente para cerrar un acuerdo con el Departamento de Guerra. El contrato firmado por la organización liderada por Sam Altman incluye una cláusula de “usos legales”, un término que genera controversia pues permite que las restricciones del modelo se adapten si la legislación evoluciona. Mientras Anthropic integra sus límites técnicos desde el entrenamiento base del modelo, OpenAI utilizaría capas de seguridad posteriores, lo que otorga una flexibilidad técnica que el gobierno estadounidense considera vital para sus operaciones de defensa y seguridad nacional.
Este escenario redefine el papel de la IA como infraestructura crítica del Estado. El debate trasciende lo puramente técnico y se instala en la soberanía: ¿debe una empresa privada dictar los límites éticos de una herramienta de defensa nacional, o tiene el Estado el derecho de exigir el control total de una tecnología que redefine la productividad y la guerra? La decisión de OpenAI establece un precedente sobre la maleabilidad de los límites de la IA frente al poder militar, mientras que la postura de Anthropic resalta la fragilidad de las empresas que intentan imponer una gobernanza técnica independiente. (NP-Gemini-Jon Hernández News)
