Atención al afiliado: 114338 6449- 114338 6450 1136065367-1136065397

Lineas virtuales: 26449/26450

AMFEAFIP

Asociación Mutual Federal

Inteligencia de guerra

Inteligencia de guerra

La IA empieza a ocupar un lugar central en el terreno militar. La reciente disputa entre Anthropic y el Pentágono reactivó el debate sobre los riesgos y dilemas éticos de entregar el control de armas letales a estas herramientas. Viaje a un presente distópico en la nota de la semana de Revista Acción.​​​​​​​

 

Por Esteban Magnani, Revista Acción Newsletter Banco Credicoop,, 1 de abril de 2026

​​​​​​​Uno de los principales incentivos para el desarrollo tecnológico a lo largo de la historia ha sido el uso militar. El ejemplo paradigmático es el Proyecto Manhattan, que durante la Segunda Guerra Mundial reunió en los Estados Unidos a los mejores cerebros y muchísimo dinero para desarrollar en solo tres años una bomba atómica antes de que lo hiciera, como se temía, el régimen de Adolf Hitler. El conocimiento desarrollado con apuro permitió luego, en tiempos de paz, aprovechar la energía nuclear.

​​​​​​​En la actualidad, la tecnología que podría compararse con ese ambicioso proyecto es la IA generativa: países como Estados Unidos y China, sobre todo, compiten por desarrollar sus modelos, a los que consideran clave para definir la disputa geopolítica entre ambas potencias.

​​​​​​​El uso bélico de la IA generativa se discute desde hace tiempo: un caso que avivó la discusión y la instaló en un primer plano internacional ocurrió en 2024, durante el contraataque de Israel a Palestina. Durante varios días prácticamente se delegó en una IA llamada Lavender el bombardeo sobre presuntos blancos terroristas, a pesar del margen de error estadístico de esta herramienta.

​​​​​​​Ahora la discusión se reactivó en los Estados Unidos por la negativa de la empresa Anthropic a que su herramienta de IA generativa tenga control total sobre armas letales o sea usada para tareas de vigilancia interior. La disputa escaló y abrió un debate necesario sobre el uso militar de estas herramientas.

Una empresa moral

​​​​​​​Darío Amodei es el CEO de Anthropic, una empresa que fundó luego de abandonar OpenAI por discrepar con su CEO, Sam Altman. Desde el punto de vista de Amodei, la urgencia económica no daba tiempo para testear los potenciales usos peligrosos de las herramientas. Por eso, en 2021 decidió armar su propia compañía.

Anthropic no solo parecía la cara más «ética» de Silicon Valley, sino que lanzó una de las herramientas mejor valoradas del mercado de IA generativa: Claude. Gracias a su posterior asociación con Amazon, que le prestó infraestructura, dinero y contactos, la nueva empresa pudo conseguir algunos anhelados contratos con el Estado norteamericano, incluido el aparato militar, que le permitieron importantes ingresos.​​​​​​​​​​​​​​​​​​​​​

​​​​​​​El dinero fue bienvenido, pero generó una fuerte tensión con el discurso ético de Amodei, quien se mostró independiente de su nuevo cliente. Sobre el tema específico de la IA generativa, denunció violaciones a acuerdos sobre el uso de una versión de Claude retocada para uso militar que fue utilizada en el secuestro de Nicolás Maduro. Amodei dio a conocer públicamente sus opiniones frente a un Gobierno al que no le gusta en absoluto la disidencia.

​​​​​​​El diálogo terminó de quebrarse el 26 de febrero cuando el CEO de Anthropic publicó una carta abierta en la que reconocía que era el Departamento de Guerra, «no empresas privadas, quienes toman las decisiones militares», pero que «en algunos pocos casos, la IA puede minar, más que defender, valores democráticos. Algunos usos también están fuera de los límites de lo que la tecnología de hoy puede hacer de manera segura y confiable».

​​​​​​​Como era de esperar, la publicación fue leída como una declaración de guerra por el propio presidente Donald Trump quien respondió en su red social Truth Social con un extenso posteo: «Los locos izquierdistas de Anthropic acaban de cometer un ERROR DESASTROSO intentando torcer EL BRAZO del Departamento de Guerra».

​​​​​​​Urgido, el mismo Amodei pidió reabrir las negociaciones, sin suerte, por lo que presentó una demanda contra el Gobierno de los Estados Unidos. Aun si consigue un fallo favorable, su relación con los clientes más grandes quedará seriamente dañada, al menos hasta que haya un cambio de signo político en el Gobierno estadounidense.

​​​​​​​Dinero y locura

La inversión en IA generativa que se está realizando en los Estados Unidos es tan desmedida que cada vez más especialistas señalan que va a ser imposible recuperarla. Por eso, cualquier contrato es valorado enormemente, no tanto por los ingresos que propicia (que no llegan a modificar una ecuación muy deficitaria), sino porque ayuda a generar un aura de sostenibilidad económica. Por eso, no resulta extraño que OpenAI y Google se hayan alineado rápidamente para conseguir los contratos del Estado que Anthropic acaba de perder. Negocios son los negocios.

​​​​​​​Más allá de la problemática cuestión comercial, lo más preocupante es que el Gobierno de los Estados Unidos considere una buena idea delegar el control total de armas de guerra en IA generativas. Tal como explicó Amodei, estas no dan garantías suficientes para tareas que requieren certezas.

​​​​​​​Es que, pese a lo engañoso del nombre, la inteligencia artificial no es inteligencia, sino estadística. Si bien resulta sorprendente lo que puede hacer, el mecanismo probabilístico sobre el que se construye también define sus límites. Por eso se repiten las historias en que distintas IA cometen lo que resulta un error evidente para cualquier humano. Al ser herramientas estadísticas que se basan en miles de millones de ejemplos, carecen de un criterio propio y pueden generar respuestas poco sensatas en áreas para las que no tienen suficientes datos.

​​​​​​​Este límite puede no ser tan grave en casos de una tarea escolar o una receta de cocina, pero cuando se trata de un arma letal, puede costar miles de vidas. De hecho, se sabe que la IA Claude fue utilizada en el ataque a Irán pese a la prohibición publicada por Trump horas antes.

​​​​​​​La disputa entre Anthropic y el Gobierno de los Estados Unidos es excepcional para ilustrar la relación simbiótica entre una industria que necesita contratos y desregulación, por un lado, y un Gobierno que busca automatizar decisiones con IA para conseguir un aura de neutralidad ideológica que reduzca las críticas y disidencias internas.​​​​​​​

Novedades

Inteligencia de guerra

La IA empieza a ocupar un lugar central en el terreno militar. La reciente disputa entre Anthropic y el Pentágono reactivó el debate sobre los riesgos y dilemas éticos de entregar el control de armas letales a estas herramientas.

El gran juicio a las redes sociales

Tecnología y sociedad: Comenzó en Estados Unidos un proceso histórico contra las grandes plataformas: se las acusa de ser adictivas y de profundizar una crisis de salud mental que afecta sobre todo a los jóvenes. 

Vivir100 años

Mientras la ciencia explora cómo retrasar el envejecimiento, la cantidad de personas centenarias se multiplicó por cinco en apenas dos décadas. Una mirada a los factores biológicos y sociales que intervienen en la longevidad y a los múltiples desafíos que conlleva.

Noticias Institucionales

Razón Social: Asociación Mutual Federal de Empleados de las Administraciones Fiscales Públicas Matrícula INAES 1729