El reciente enfrentamiento entre el Pentágono, Anthropic y OpenAI por la tecnología de IA está planteando serias dudas para las nuevas empresas que están considerando trabajar con el gobierno federal. Hace apenas unas semanas, Anthropic abandonó un acuerdo con el Pentágono después de que la administración Trump lo calificara como un riesgo para la cadena de suministro, mientras que OpenAI rápidamente intervino para llenar el vacío. Este movimiento provocó una reacción inmediata: los usuarios eliminaron ChatGPT y llevaron a Claude de Anthropic a la cima de las listas de aplicaciones.
La situación es inusual porque tanto Anthropic como OpenAI declaran públicamente su deseo de imponer restricciones sobre cómo se utiliza su IA, sin embargo, el Pentágono intentó alterar los términos del contrato existente, una medida que los expertos de la industria dicen que “no es normal” dada la naturaleza prolongada y rígida de la contratación pública.
¿Por qué esto es importante? ¿Un panorama cambiante?
El debate se centra en la ética del despliegue de IA en contextos letales, un factor que atrae mucho más escrutinio hacia estas empresas de alto perfil que hacia los contratistas de defensa tradicionales como General Motors, que durante mucho tiempo ha suministrado vehículos militares con poca atención pública. Este caso pone de relieve una tensión creciente entre las empresas de tecnología que desean controlar sus productos y la demanda del gobierno de flexibilidad en las aplicaciones de seguridad nacional.
La atención se centra en la IA frente a la defensa tradicional
A diferencia de muchos contratistas de defensa establecidos que operan bajo el radar, OpenAI y Anthropic producen herramientas ampliamente utilizadas por el público. Esta visibilidad magnifica su participación en proyectos militares, creando una intensa presión pública. Mientras tanto, empresas como Applied Intuition, que comercializan tecnología de “doble uso”, pueden enfrentar menos escrutinio simplemente porque sus productos son menos conocidos.
Choques de personalidad e inestabilidad contractual
Sumándose a la complejidad, la animosidad personal entre el director ejecutivo de Anthropic y un funcionario de alto rango del Pentágono supuestamente alimentó la disputa. Más importante aún, el intento del Pentágono de reescribir un contrato existente indica un posible cambio en la forma en que el gobierno negocia con los proveedores de tecnología, lo que genera preocupaciones de que futuros acuerdos puedan estar sujetos a cambios impredecibles.
La medida de OpenAI resultó en un aumento del 295% en las desinstalaciones de ChatGPT, lo que demuestra la voluntad del público de actuar sobre cuestiones éticas. Este incidente debería servir como advertencia para las nuevas empresas: trabajar con el Departamento de Defensa ahora conlleva un mayor riesgo de reacciones políticas y términos contractuales inestables.
Las acciones del Pentágono son una señal clara de que es posible que los procedimientos establecidos ya no se apliquen, y las empresas deben sopesar cuidadosamente las posibles consecuencias antes de solicitar fondos federales.
