Inteligencia Artificial / Seguridad
¿Puede la IA tomar el control de las armas nucleares?
Aunque por un lado la IA puede mejorar la tecnología de defensa, por otro lado abre dudas su papel sin un control humano real

¿Es inevitable una alianza estrecha entre IA y armas nucleares? / Crédito: ZHENYU LUO en Unsplash.
Pablo Javier Piacente / T21
Un contexto en el cual una IA, o redes de IA, son dedicadas a salvaguardar un arsenal de armas nucleares no suena descabellado, más aún teniendo en cuenta el papel cada vez más protagónico de estas tecnologías en múltiples áreas. Algunos especialistas creen que esto es solo cuestión de tiempo, siendo imprescindible establecer regulaciones al respecto.
La convergencia de la Inteligencia Artificial (IA) y los arsenales atómicos ha dejado de ser una hipótesis futurista para convertirse en una posibilidad concreta y cada vez más cercana, según advierten especialistas reunidos recientemente en foros internacionales dedicados a la seguridad global, entre ellos algunos galardonados con el Premio Nobel y ex-funcionarios de áreas de defensa estadounidense.
Según informa Futurism, la sensación de urgencia se intensifica a medida que la misma comunidad científica admite no comprender íntegramente las implicaciones de otorgar a algoritmos capas de decisión críticas en situaciones de alto riesgo, sin una supervisión humana específica y determinada en regulaciones o instrumentos legales concretos de aplicación internacional.
Una IA omnipresente
En un artículo publicado en Wired, distintos expertos en armas nucleares admitieron que integrar IA en los sistemas de comando y control “es inevitable", en función del peso que ha tomado esta industria en casi todos los órdenes de la economía y la organización social. Pese a la incertidumbre sobre el comportamiento real de estos sistemas, al parecer nadie cuestiona ya su entrada en la ecuación estratégica de las potencias nucleares.
La adopción de IA responde al deseo de optimizar la detección de amenazas y la gestión de misiles balísticos intercontinentales, así como de acelerar los tiempos de reacción ante ataques de alto impacto, que hubieran sido inimaginables algunas décadas atrás.
De esta manera, aplicaciones como el análisis de trayectorias, la predicción de fallas mecánicas o el filtrado de datos sensibles lograrían optimizar su velocidad y precisión al calor de la IA. Sin embargo, también se amplificaría al mismo tiempo el peligro de malinterpretaciones y “alucinaciones” que se observan en los modelos de inteligencia artificial. La gran diferencia es que aquí no hablamos de un chatbot o de un asistente: se trata de un contexto en el cual se podrían desencadenar órdenes catastróficas para la población global.
Seguridad cibernética y falta de regulaciones
Además de las limitaciones técnicas, existe un riesgo inherente de seguridad cibernética. Los modelos de IA, con sus vulnerabilidades aún por optimizar, podrían convertirse en puertas de entrada para adversarios o incluso redes de IA hostiles, que manipulen códigos de lanzamiento y permisos de acceso a ojivas nucleares. Este escenario, que parece extraído de una obra de ciencia ficción, es cada vez más real para muchos especialistas, que reclamaron mejorar el control de la IA frente a las brechas de protección en el ciberespacio.
Algunos datos de la realidad son claros: bajo la actual administración estadounidense, la firma OpenAI, creadora de ChatGPT, anunció un acuerdo con los Laboratorios Nacionales de ese país para aportar sus modelos a programas de seguridad nuclear. Considerada como un “nuevo Proyecto Manhattan”, la IA es para los funcionarios estadounidenses una forma de fortalecer la toma de decisiones, aunque (dicen) sin ceder la palabra final al factor humano, de acuerdo a palabras del propio general de la Fuerza Aérea Anthony Cotton, quien está a cargo del arsenal de misiles nucleares.
La comunidad científica y los expertos en defensa abogan por marcos regulatorios sólidos, para garantizar lo que llaman “control humano efectivo” sobre cualquier decisión o lanzamiento. Sostienen que delegar funciones clave de alerta temprana y análisis de datos en máquinas inteligentes puede reducir errores humanos, pero también introduce nuevos peligros e inseguridades, con consecuencias que podrían ser planetarias.
- Dos castellonenses se afianzan entre los más ricos de España
- Una tienda 'outlet' de Estados Unidos aterriza en Castelló
- El acuerdo de la Unión Europea con Sudáfrica desploma la cosecha de mandarinas en un 40%
- Fallece un trabajador en un accidente laboral en un polígono de Morella
- Una exmiembro de la secta sexual de Vistabella: «El peluquero Juan Miguel me presentó al Tío Toni»
- Aemet activa la alerta amarilla por lluvia y granizo en Castellón
- Así se prepara uno de los pueblos más bonitos de España, en Castellón, para brillar en Navidad: las novedades
- Cuatro escenas clave que arrojan luz sobre cómo era el día a día en la secta sexual de Vistabella