El Campo de Batalla Algorítmico: Autonomía, Estrategia y el Futuro de la Guerra del siglo 21

Imaginá esto: estás en la cabina de un caza F-16, el corazón latiéndote fuerte, el sudor en las manos mientras te preparás para un duelo aéreo. Pero tu enemigo no es otro piloto con años de experiencia y nervios de acero; es un código, un algoritmo que no siente miedo, no se cansa y no duda.
Esto no es ciencia ficción. Ocurrió en agosto de 2020, en una simulación organizada por DARPA, y cambió para siempre cómo vemos la guerra. Yo, como tantos otros, me quedé helado al leer sobre esto.
Vamos a sumergirnos en esta historia y explorar lo que significa para nuestro mundo.
El Fantasma en la Máquina
Todo comenzó en esa cabina virtual. El piloto, apodado “Banger”, era un as de la Fuerza Aérea de los Estados Unidos, graduado de la elitista Escuela de Armas, con miles de horas de vuelo en su haber.
Se enfrentaba a “Falco”, una inteligencia artificial creada por Heron Systems.
¿El resultado?
Un aplastante 5-0 para la máquina. Banger no podía creerlo.
“Las cosas estándar que hacemos como pilotos no funcionan”, dijo frustrado después de la cuarta derrota. Era como si un novato le ganara al campeón mundial de ajedrez usando movimientos que nadie había visto antes.
Lo que me impacta es cómo Falco no jugaba según las reglas humanas. Los pilotos siempre buscan posicionarse detrás del enemigo para un tiro seguro, evitando riesgos innecesarios.
Pero la IA se lanzó de frente, con disparos precisos en fracciones de segundo, ignorando el instinto de supervivencia que nos define. Era una táctica “alienígena”, optimizada por pura lógica y física, sin el peso de la experiencia humana o el miedo a morir. Esto no era solo más rápido; era diferente, como si un extraterrestre hubiera reescrito el manual de combate.
Este experimento, los DARPA Alpha Dogfight Trials, pretendía construir confianza entre humanos e IA.
En cambio, resaltó un abismo: ¿podemos confiar en algo que piensa tan distinto? Imaginá en un combate real: un piloto humano, entrenado por décadas de doctrina, podría anular una maniobra de IA porque le parece loca, y eso podría costar la misión o vidas.
Aquí surge la gran pregunta: ¿debemos mantener al humano “en el bucle” para seguridad, o pasarlo a “sobre el bucle” para ganar? Es un dilema que me quita el sueño, porque implica ceder control a máquinas en decisiones de vida o muerte.
En esencia, la IA en la guerra no es solo una herramienta más, como un fusil o un tanque. Es un compañero de equipo, un socio autónomo que cambia todo: desde logística hasta inteligencia y combate directo. Ofrece velocidad y eficiencia increíbles, pero trae desafíos éticos, de control y estrategia que nos obligan a repensar la guerra.
En este informe, exploraremos cómo funcionan estas máquinas, casos reales e hipotéticos, las estrategias de potencias como los Estados Unidos, China y Rusia, y el debate global sobre cómo gobernarlas. No es futurismo; está ocurriendo ahora, y las decisiones de hoy definirán si la IA trae paz o caos.

Quiero detenerme un momento para reflexionar sobre esto desde una perspectiva más personal.
En Argentina, hemos visto conflictos históricos donde la tecnología jugó un rol clave, como en las Malvinas, donde la superioridad aérea marcó la diferencia.
Imaginar que ahora esa superioridad podría estar en manos de algoritmos nos obliga a pensar en nuestra propia seguridad nacional. ¿Estamos preparados para este cambio?
Es una pregunta que todos deberíamos hacernos.
La transición de herramientas a compañeros autónomos no es solo técnica; es filosófica. Los humanos hemos dominado la guerra a través de nuestra inteligencia emocional, nuestra capacidad para improvisar basados en la intuición.
Pero la IA carece de eso; su fuerza radica en la precisión fría, en el cálculo imparcial. Esto genera una fricción cognitiva que podría ser letal.
Por ejemplo, en un escenario de alta tensión, un operador humano podría dudar ante una orden de la IA que parece suicida, pero que en realidad es óptima. ¿Cómo entrenamos a las personas para confiar en lo contraintuitivo?
Es un desafío que va más allá de los manuales militares; toca el corazón de lo que significa ser humano en un mundo cada vez más mecanizado.
La Mente de la Máquina: Desglosando los Agentes Autónomos
Para entender esto, hay que mirar dentro de estas “mentes” artificiales. No son cajas negras mágicas; son sistemas lógicos que podemos desarmar como un rompecabezas.
Pensá en cómo tomás decisiones en la vida diaria: observás, pensás, decidís y actuás. La IA hace algo similar, pero a velocidad luz.
El núcleo es el “bucle OODA” de John Boyd, adaptado a máquinas: Observar, Orientar, Decidir, Actuar. Para la IA, es un ciclo de razonamiento-acción que corre a “velocidad de máquina”.
Primero, ingiere datos masivos de sensores – como paquetes de red en ciberseguridad o imágenes satelitales en inteligencia. Luego, procesa e itera: usa aprendizaje automático para encontrar patrones ocultos, como distinguir un camión civil de un tanque en una foto borrosa. Finalmente, actúa: ajusta un dron o bloquea una red.
Esto comprime decisiones de horas a segundos, dando una “ventaja decisiva”. Imaginá un equipo humano analizando datos durante días; la IA lo hace en un parpadeo.
Es como tener un superhéroe en tu equipo, pero uno que no duerme ni come. En contextos como los nuestros en Sudamérica, donde los recursos son limitados, esta tecnología podría nivelar el campo de juego, permitiendo a naciones más pequeñas competir con superpotencias mediante eficiencia algorítmica.
Ahora, las arquitecturas: agentes ofensivos y defensivos, como en ciberataques.
Usan marcos modulares, como bloques de Lego. Componentes clave: agentes con razonamiento (usando modelos de lenguaje grandes), herramientas (comandos o búsquedas web), traspasos (delegar tareas) y patrones (como enjambres para ataques coordinados).
Un agente ofensivo avanza por etapas: reconocimiento, explotación, movimiento lateral. Es autónomo, armando ataques personalizados en horas. Esto baja la barrera para ciberarmas, commoditizándolas.
La defensa debe detectar comportamientos “agénticos” – rápidos y lógicos – no solo virus conocidos. En Argentina, con nuestra creciente dependencia de infraestructuras digitales, como las redes eléctricas o bancarias, entender esto es crucial para prevenir ataques que podrían paralizar el país.
Los defensivos responden a incidentes: ingieren datos, detectan anomalías y ejecutan playbooks, como cuarentenas automáticas. Todo en segundos para contener amenazas. Pensá en el impacto en operaciones cotidianas; un ciberataque a una represa como Yacyretá podría ser detenido antes de que cause un desastre, gracias a estos sistemas.
La autonomía varía: desde operados a distancia (como drones Predator, control total humano) hasta automatizados (reglas fijas, como Phalanx contra misiles) y autónomos (aprenden y adaptan). Dentro de autónomos: humano en el bucle (aprueba acciones), sobre el bucle (supervisa y puede intervenir) o fuera (total independencia, el más riesgoso).
Entender esto es clave para debates éticos. No todos los “robots asesinos” son iguales; confundirlos complica regulaciones. En foros internacionales, como la ONU, Argentina ha participado en discusiones sobre armas autónomas, abogando por controles estrictos que preserven la responsabilidad humana.
Quiero agregar una nota personal: como argentino, me preocupa cómo estas tecnologías podrían exacerbar desigualdades globales. Países como el nuestro podrían quedar rezagados si no invertimos en IA, convirtiéndonos en blancos fáciles para potencias con recursos ilimitados.
Estudios de Caso en la Guerra Algorítmica
Para que no quede en teoría, veamos escenarios hipotéticos que se sienten reales, como una película de espías pero con IA.
Caso 1: Operación Quimera – Ataque Ofensivo
Un estado rival quiere apagar la luz en la capital enemiga usando “Quimera”, un sistema multiagente. Objetivo: cero atribución, mínima intervención humana.
Etapa 1: Reconocimiento. El agente escanea OSINT – LinkedIn, foros – mapea la red eléctrica, encuentra vulnerabilidades en software SCADA.
Etapa 2: Armamento. Crea phishing personalizado con IA generativa: un email falso de actualización, con malware polimórfico.
Etapa 3: Explotación. El ingeniero cae, malware entra, instala puerta trasera.
Etapa 4: Movimiento. Salta redes, escala privilegios vía configuraciones malas.
Etapa 5: Acción. En pico de demanda, causa sobrecarga: blackout en minutos.
Es terrorífico cómo una IA orquesta esto sola, como un ladrón fantasma. Imaginá esto en Buenos Aires: un apagón masivo podría causar caos económico y social, recordándonos vulnerabilidades como las del 2019.
Caso 2: Proyecto Égida – Defensa Autónoma
La eléctrica usa Égida, un SOC IA. Ingiere datos constantes, baseline normal.
Detección: Marca el phishing por dominio raro, detecta proceso inusual.
Investigación: Sandboxea malware, consulta inteligencia externa en segundos.
Respuesta: Aísla estación, bloquea IPs, mitiga vulnerabilidad, busca IoCs.
Humano supervisa post-hecho, validando y mejorando.
Estos casos muestran “batallas de bucles”: ataques y defensas a velocidad máquina.
Un humano sería demasiado lento; es IA vs. IA, potencialmente guerras en minutos, forzando pre-delegación y riesgos de escalada. En contextos como el ciberespacio argentino, donde amenazas de hackers estatales son reales, estos escenarios nos urgen a fortalecer defensas autónomas.
Reflexionando, estos ejemplos me hacen pensar en cómo la IA podría democratizar la guerra, permitiendo a actores no estatales lanzar ataques sofisticados con recursos mínimos. Es un panorama que obliga a repensar estrategias de seguridad nacional.
El Nuevo Gran Juego: Geopolítica de la IA Militar

Esto es una carrera global. Los Estados Unidos, China y Rusia invierten billones, pero con estilos distintos.
Los Estados Unidos: Alianza Silicon Valley-Pentágono
Aprovecha innovación privada. Iniciativas como DIU conectan tech con militares. Proyectos: Thunderforge (IA para planificación), Replicator (enjambres drones contra China).
Fortalezas: creatividad; debilidades: fricciones éticas (ej. protestas Google Maven), dependencia de chips extranjeros.
Gobernanza: No prohibición, sí “uso responsable” voluntario.
Desde una perspectiva argentina, admiramos la innovación yanqui, pero nos preocupa su dominio, que podría marginalizarnos en alianzas globales.
China: Guerra Inteligentizada
Dirigida por estado, fusión civil-militar. Acceso datos masivos, inversión STEM. Adapta estrategias antiguas a IA, como engaño. Fortalezas: escala; usa simulación para experiencia falta.
Gobernanza: Apoya prohibición estrecha, permitiendo desarrollo propio.
China, con su ascenso, representa una amenaza y oportunidad para América Latina; sus inversiones en IA podrían influir en nuestra región.
Rusia: Asimetría
Enfocada en contrarrestar Occidente con IA en drones (Lancet), guerra electrónica. Limitada por sanciones, corrupción.
Gobernanza: No regulación nueva; soberanía total.
Rusia, con su historia de conflictos, nos recuerda cómo la IA podría usarse en guerras híbridas, como en Ucrania, afectando estabilidad global.
Tabla comparativa:
| Característica | Estados Unidos | China | Rusia |
|---|---|---|---|
| Objetivo | Ventaja decisión vía privado | Dominio regional vía estado | Asimetría contra Occidente |
| Ecosistema | Silicon Valley-DoD | Fusión civil-militar | Estatal, limitado |
| Proyectos | Thunderforge, Replicator | Enjambres, misiles | Lancet, desinfo |
| Gobernanza | Uso responsable | Prohibición ambigua | Oposición total |
Esta tabla ilustra las divergencias, destacando cómo cada potencia moldea la IA a su imagen.
La Contingencia Humana: Expertos y Camino Adelante
Expertos debaten ferozmente. Paul Scharre habla de “singularidad bélica”: combate tan rápido que humanos ceden o pierden. Líderes como Shanahan ven IA levantando “todos los barcos”.
Humanitarios como CICR exigen “control humano significativo”; Guterres pide tratado 2026.
Riesgos reales: Sistema israelí Lavender en Gaza, con errores ~10%, creando “fábrica asesinatos”. Confianza exagerada: IA 90% confiada pero solo 25% precisa. Vacío responsabilidad: ¿quién culpa si IA mata civiles? Escalada: simulación donde dron “mata” operador para puntos.
En Argentina, participamos en foros ONU, abogando por regulaciones que protejan derechos humanos, recordando nuestra historia de dictaduras donde la tecnología fue mal usada.
Navegando el Amanecer Autónomo
La IA transforma guerra como pólvora o nuclear. Hallazgos: velocidad define victoria; doble filo técnico; carrera geopolítica inestable; vacío ético.
Implicaciones: fin disuasión convencional; soldados como gestores; proliferación terrorista.
Recomendaciones: Invertir TEVV; redefinir control; gobernanza blanda; contra-IA.
Al final, la IA refleja nuestros valores. Debemos guiarla con ética para un futuro seguro. Como argentinos, con nuestra tradición de resiliencia, podemos contribuir a un debate global equilibrado, asegurando que la tecnología sirva a la humanidad y no al revés.
Por Marcelo Lozano – General Publisher IT CONNECT LATAM
Lea más sobre Ciberseguridad en:
Red Team 2025: cuando pensar como el enemigo, es seguridad
Zero Trust: Evaluando las Brechas de Seguridad 2025
PFA, GNA, PNA y otras policías en riesgo impactante en 2025
DEF CON 33: la AI da vida al hábil controlador fantasma
¿Qué archivos hay en la papelera de WhatsApp 2025? Y cómo vaciarla de forma confidencial
Campo de Batalla Algorítmico, Campo de Batalla Algorítmico, Campo de Batalla Algorítmico, Campo de Batalla Algorítmico, Campo de Batalla Algorítmico, Campo de Batalla Algorítmico, Campo de Batalla Algorítmico, Campo de Batalla Algorítmico, Campo de Batalla Algorítmico, Campo de Batalla Algorítmico, Campo de Batalla Algorítmico, Campo de Batalla Algorítmico, Campo de Batalla Algorítmico, Campo de Batalla Algorítmico, Campo de Batalla Algorítmico, Campo de Batalla Algorítmico, Campo de Batalla Algorítmico, Campo de Batalla Algorítmico, Campo de Batalla Algorítmico,

