Amenazas a gran escala ponen en peligro la civilización humana. Algunas de estas amenazas surgen de fenó- menos naturales. Las erupciones supervolcánicas o el impacto de grandes asteroides que producen polvo y puede permanecer en el aire durante meses o años, lo que evita la entrada de luz solar, reduce la temperatura atmosfé- rica, interfiere con la fotosíntesis, provoca la devastación de civilizaciones y, en última instancia, amenaza con la extinción de muchas especies biológicas. Otras amenazas a gran escala son totalmente de origen humano como una guerra nuclear o a la exacerbación de la crisis climática causada por las emisiones antropogénicas de Gases de Efecto Invernadero (GEI). De hecho, el estudio de amenazas a gran escala para la humanidad y sus implicaciones políticas es el enfoque temático de diversas organizaciones: el Instituto para el Futuro de la Hu- manidad de la Universidad de Oxford, el Centro para el Estudio de Riesgo Existencial en la Universidad de Cambridge y el Instituto del Futuro de la Vida. Estas organizaciones suministran información para reducir las amenazas a gran escala derivadas de las armas nucleares, el cambio climático global (CCG), el uso indebido de las biotecnologías y la Inteligencia Artificial (IA).
Cambio Climático Global
Los datos climáticos se utilizan para construir modelos de IA con el objeto de mitigar y adaptar al CCG métodos de Aprendizaje Automático (AA). Sin embargo, al mismo tiempo, algunas aplicaciones de IA están propiciando mayores emisiones de GEI, contribuyendo así al aumento de la temperatura global. Básicamente, la IA es ag- nóstica respecto al clima y tiene un doble impacto en la crisis climática. Por un lado, la IA ayuda a los científicos del clima a desarrollar modelos climáticos y herramientas de predicción, apoyando así a la comunidad científica para contrarrestar el CCG; al aprender a identificar y recompensar patrones de consumo energético más ahorra- tivos en la manufactura, el transporte, la logística, la calefacción y otros sectores caracterizados por altos niveles de emisiones de GEI. Así, algunas compañías de petróleo y gas aprovechan la IA para mejorar la eficiencia de sus oleoductos industriales. Modelos entrenados con datos de experimentos sísmicos y otros datos geológicos guían la búsqueda de nuevos pozos de petróleo y gas. Otras aplicaciones de la IA mejoran la eficiencia del transporte, la refinería, el almacenamiento y la comercialización de combustibles fósiles. Al mejorar la eficien- cia de estos procesos, las compañías de petróleo y gas buscan aumentar la disponibilidad de combustibles fósi- les, incentivando así su consumo al reducir su precio unitario, y de esta forma contradiciendo sus compromisos de alcanzar pronto la neutralidad de carbono.
Sin embargo, estas herramientas pueden utilizarse indistintamente para mitigar o exacerbar la crisis climática. Dado su carácter agnóstico respecto al clima, orientar el uso de la IA hacia la mitigación del CCG es una cuestión de decisión colectiva. Además de las aplicaciones individuales de la IA, es necesario considerar el impacto global de la IA en el cambio climático como área de investigación, industrial y comercial. Este tema ha cobrado relevancia a raíz de las alarmantes estimaciones del consumo de energía eléctrica atribuidas a otras actividades de procesamiento de información y sus infraestructuras de hardware. Las transacciones de Bitcoin requieren anualmente tanta energía eléctrica como un país como Argentina. Los centros de datos y las redes de transmisión de datos son responsables de aproximadamente el 1 % de las emisiones mundiales de GEI relacionadas con la energía.
Estudios revelan que el entrenamiento de modelos grandes de IA para el Procesamiento del Lenguaje Natural (PLN) tiene aproximadamente la misma huella de carbono que cinco automóviles promedio a lo largo de su ciclo de vida. De hecho, hasta el 15 % del consumo total de electricidad de Google se atribuye al desarrollo y uso de los modelos de IA de la compañía entre 2019 y 2021. Además, solo el 10 % del consumo eléctrico de la IA comercial se destina al entrenamiento. El 90 % restante respalda la inferencia estadística y la predicción mediante modelos ya entrenados. No es claro cómo se desarrollarán estos patrones de consumo en el futuro. Una consideración alarmante es que el consumo de electricidad es sensible al tamaño de los modelos de IA, y el objetivo de lograr inferencias y predicciones más precisas se ha perseguido predominantemente mediante el desarrollo de modelos de IA cada vez más grandes basados en arquitecturas de redes neuronales profundas. El tamaño de estas redes suele medirse en función del número de conexiones ponderadas entre sus unidades neu- ronales. En el ámbito del PLN, el número de estos parámetros aumentó de forma constante desde los 350 mi- llones de parámetros de un modelo de lenguaje de 2018, hasta los 175 000 millones de parámetros de GPT-3 en 2020, y a los pocos billones de parámetros de GPT-4 en 2023. Los investigadores e ingenieros que operan en otros ámbitos de aplicación de la IA se ven igualmente incentivados a buscar una mayor precisión mediante modelos cada vez más grandes. Claramente, la suma de estas decisiones de diseño contribuye a ampliar la demanda de electricidad y en efecto, la huella de carbono de la investigación y la industria de la IA. De hecho, las aplicaciones de IA que permiten reducir la huella de carbono de servicios y procesos pueden incentivar indirectamente un uso más amplio de dichos servicios y procesos. Estos efectos rebote, ciertamente difíciles de evaluar con precisión, pueden aumentar considerablemente la huella de carbono general de la IA.
Disuasión Nuclear
Desde el final de la Segunda Guerra Mundial, la guerra nuclear se cierne sobre la humanidad como una amenaza a gran escala de origen humano. Al firmar el Tratado sobre la No Proliferación de las Armas Nucleares (TNP), que entró en vigor en 1970, las principales potencias nucleares se comprometieron a prevenir la proliferación de armas nucleares y, con el tiempo, lograr el desarme nuclear mundial. Sin embargo, 50 años después, el número de Estados que poseen arsenales nucleares ha aumentado, no se ha logrado ningún progreso significativo hacia el desarme nuclear y las políticas de disuasión siguen siendo el principal instrumento del que se valen las potencias nucleares para prevenir un holocausto nuclear.
De acuerdo a la teoría de la disuasión nuclear, la posesión de un arsenal nuclear suficientemente grande y efi- cientemente desplegable promete un contraataque de represalia y, por lo tanto, disuade a otros Estados nucleares de ser los primeros en utilizar armas nucleares. Las principales debilidades de las políticas de disuasión y sus premisas se han identificado e investigado desde hace tiempo. Sin embargo, la IA están exponiendo nuevas debilidades para el desarrollo de sistemas autónomos y la generación de «deepfakes» (contenido multimedia generado o manipulado por IA, generalmente vídeos o imágenes, que representan de forma convincente a al- guien haciendo o diciendo algo que nunca hizo). De hecho, la capacidad de represalia nuclear de EE. UU. se basa en plataformas terrestres, aéreas y marítimas para sistemas de armas nucleares. Estas incluyen silos de misiles balísticos intercontinentales terrestres, submarinos armados con MBLS (Misiles Balísticos Lanzados desde Submarinos) y aeronaves con armas nucleares. En consecuencia, el uso de buques para la guerra antisub- marina podría erosionar la capacidad de disuasión marítima.
Estos buques, cuyas capacidades de navegación autónoma se basan en tecnologías de IA, pueden identificar submarinos al salir del puerto o atravesar estrechos cuellos de botella marítimos, siguiéndolos durante largos periodos. Ejemplo de buque autónomo para la identificación y el seguimiento de submarinos es el estadouni- dense Sea Hunter. Originalmente prototipado en el marco de un programa de guerra antisubmarina. El Sea Hunter lo ha desarrollado por la Oficina de Investigación Naval de EE. UU., para realizar misiones de segui- miento autónomas de hasta tres meses de duración. Otro ejemplo es el vehículo submarino no tripulado extra- grande (XLUUV) Orca, fabricado por Boeing para realizar operaciones submarinas, incluyendo misiones de seguimiento y guerra antisubmarina sin la necesidad de una tripulación humana. Funcionalidades similares se atribuyen ampliamente al submarino autónomo ruso Poseidón.
De igual manera, China tiene un programa para el desarrollo de vehículos blindados de gran cilindrada (XLUUV). Según un informe británico los vehículos submarinos no tripulados «Unmanned Underwater Vehi- cle» (UUV), de larga duración o de rápido despliegue y los vehículos de superficie no tripulados (USV) proba- blemente socaven el sigilo de los submarinos existentes. Y según un informe más reciente de la National Secu- rity College de la Universidad Nacional Australiana, es al menos probable, en la mayoría de los casos, y, desde algunas perspectivas, muy probable, que los océanos se vuelvan transparentes para la década de 2050. En par- ticular, los submarinos que portan misiles balísticos serán “detectados en los océanos del mundo debido a la evolución de la ciencia y la tecnología.
Por tanto, al socavar el sigilo de las fuerzas de represalia submarinas que de otro modo serían difíciles de detectar y neutralizar, se espera que estos buques autónomos dotados de IA tengan un impacto significativo en la erosión de la disuasión nuclear basada en el mar. La disuasión nuclear se ve además debilitada por los sistemas de IA que generan datos sintéticos denominados «deepfakes». Las Redes Generativas Antagónicas (RGA) se utilizan para fabricar vídeos cada vez más realistas y engañosos de líderes políticos. Los alcaldes de Berlín, Madrid y Viena, sin percatarse de que estaban siendo engañados, mantuvieron videollamadas en junio de 2022 con un «deepfake» del alcalde de Kiev, Vitali Klitschko. Los «deepfakes» de líderes políticos pueden inducir ideas erróneas sobre su personalidad, comportamiento, posturas políticas y acciones. Los vídeos «deepfakes» de líde- res de energía nuclear como Barack Obama, Donald Trump y Vladimir Putin circularon ampliamente. Alimen- tando dudas sobre su racionalidad y coherencia, estos vídeos ponen en peligro la eficacia de las políticas de disuasión nuclear, que se basan fundamentalmente en la credibilidad de las amenazas de un segundo ataque para disuadir un primer uso de armas nucleares.
Militarización de la IA
Las propuestas para utilizar la IA en los sistemas de defensa nuclear se enmarcan en una carrera más amplia hacia la militarización de la IA. La Comisión de Seguridad Nacional de EE. UU. sobre Inteligencia Artificial recomendó integrar las tecnologías basadas en IA en todas las facetas de combate. Se encuentra un llamamiento sorprendentemente similar en el Plan de Desarrollo de Inteligencia Artificial de Nueva Generación de China, que subraya la necesidad de promocionar todo tipo de tecnología de IA para que se integre rápidamente en el campo de la innovación en defensa nacional. De forma más concisa, el presidente ruso Vladímir Putin afirmó que quien se convierta en el líder en IA gobernará el mundo.
En el marco de estos objetivos integrales de militarización de la IA, la Comisión de Seguridad Nacional sobre Inteligencia Artificial recomendó que la IA debería asistir en algunos aspectos del mando y control nuclear: alerta temprana, detección temprana de lanzamientos y fusión multisensorial. Esta recomendación se basó de- bido a que los sistemas de alerta temprana, cada vez más automatizados, permitirán reducir el tiempo necesario para adquirir y procesar información de diversas fuentes perceptivas. En consecuencia, los operadores humanos podrían estar en condiciones de adquirir con mayor rapidez el conocimiento de la situación necesario y ganar más tiempo para la toma de decisiones posterior. Desde un punto de vista psicológico, estos beneficios previstos aliviarían la enorme presión ejercida sobre los oficiales encargados de evaluar si un ataque nuclear está real- mente en curso.
De hecho, difícilmente se puede esperar que la IA brinde estos beneficios sin introducir debilidades y vulnera- bilidades relacionadas con la IA en la infraestructura de comando, control y comunicación nuclear; riesgos pueden surgir de los esfuerzos por automatizar los sistemas de alerta temprana nuclear, tal como el falso positivo de un ataque nuclear, detectado por el sistema de alerta temprana soviético OKO el 26 de septiembre de 1983. OKO confundió las lecturas de los sensores de la luz solar reflejada en las nubes con las señales de cinco Misiles Balísticos Intercontinentales (MBIC) entrantes. En consecuencia, el coronel Stanislav Petrov, oficial de servicio del centro de mando de OKO, conjeturó correctamente que el sistema de alerta temprana había señalado un falso positivo y se abstuvo de informar de este evento a un nivel superior de la jerarquía de mando.
Años después, al comentar su trascendental decisión, Petrov remarcó que cuando se inicia una guerra, no se inicia con solo cinco misiles. La evaluación de Petrov sobre la respuesta del sistema fue el resultado de un razonamiento causal contrafáctico y una comprensión abierta de los contextos militares y políticos. Claramente, este recurso mental excedió las limitadas capacidades de evaluación de OKO. Pero la lección que debe apren- derse se extiende hasta nuestros días. De hecho, el razonamiento causal contrafáctico y la comprensión de con- diciones contextuales amplias siguen estando fuera del alcance de los modelos actuales de IA.
Así, los modelos de IA suelen requerir inmensas cantidades de datos de entrenamiento para lograr un buen rendimiento. Por tanto, la escasez de datos reales sobre lanzamientos nucleares puede impedir un entrenamiento adecuado del sistema de alerta temprana de IA deseado. En este escenario, no se puede descartar la ocurrencia de errores. De hecho, la naturaleza estadística de la toma de decisiones de la IA permite intrínsecamente clasi- ficaciones erróneas. Por muy infrecuentes que sean, el falso positivo de un ataque nuclear es un evento de alto riesgo, ya que puede desencadenar el uso injustificado de armas nucleares. En vista del alto riesgo asociado con los falsos positivos de ataques nucleares, los responsables de la toma de decisiones deben verificar cuidadosa- mente las respuestas de los sistemas de alerta temprana basados en IA. Sin embargo, esta verificación requiere tiempo, lo que posiblemente compense el tiempo adicional que se espera ganar para los responsables de la toma de decisiones mediante la automatización basada en IA. En este proceso de verificación, las limitaciones tem- porales son sólo uno de los factores críticos a considerar.
El sesgo de automatización es otro elemento crucial; es decir, la tendencia a confiar excesivamente en las res- puestas de las máquinas, minimizando el papel de contrastar los juicios humanos. Detectados en una variedad de tecnologías de automatización y dominios de aplicación, los sesgos de automatización son la causa de múl- tiples accidentes. Por tanto, los operadores humanos deben recibir capacitación para contrarrestar los sesgos de automatización en sus interacciones con los sistemas de alerta temprana basados en IA. Sin embargo, una capa- citación efectiva de este tipo se ve obstaculizada por el carácter de caja negra de gran parte del procesamiento de la información de IA y la dificultad asociada de explicar sus resultados.
Una importante dificultad interpretativa surge del hecho de que muchos sistemas de IA procesan la información de forma subsimbólica, sin operar con enunciados declarativos comprensibles para las personas ni aplicar infe- rencia lógica o causal gradual. Además, las características estadísticamente significativas de los datos de entrada que los modelos de IA aprenden a identificar y utilizar pueden diferir significativamente de las características que los humanos identifican y utilizan para llevar a cabo las mismas tareas de resolución de problemas. Debido a estas notables diferencias entre el procesamiento de la información humana y la máquina, los sistemas de aprendizaje de IA resultan opacos y difíciles de interpretar desde la perspectiva perceptual y cognitiva humana. Los riesgos adicionales que surgen del uso de sistemas de IA en la alerta temprana nuclear se derivan de las vulnerabilidades de los modelos de IA desarrollados sobre la base de métodos de aprendizaje automático. El aprendizaje automático adversarial revela errores inesperados y contraintuitivos que cometen los sistemas de IA y que los operadores humanos evitarían fácilmente.
Referencias
Emery-Xu, N., Jordan, R. & Trager, R. (2025). International Governance of Advancing Artificial Intelligence. AI & Soc 40, 3019–3044 (2025). https://doi.org/10.1007/s00146-024-02050-7
Faroldi, F.L.G. (2025) Risk and artificial general intelligence. AI & Soc 40, 2541–2549. https://doi.org/10.1007/s00146-024-02004-z
Greco, R. (2024). Ethical Considerations in the Development and Use of Artificial Intelligence in Weapon Sys- tems. In: Latifi, S. (eds) ITNG 2024: 21st International Conference on Information Technology-New Ge- nerations. ITNG 2024. Advances in Intelligent Systems and Computing, vol 1456. Springer, Cham. https://doi.org/10.1007/978-3-031-56599-1_24
Hoell, M. & Mishra, S. (2023). Artificial Intelligence in Nuclear Command, Control, and Communications: Implications for the Nuclear Non-Proliferation Treaty. In: Berghofer, J., Futter, A., Häusler, C., Hoell, M., Nosál, J. (eds) The Implications of Emerging Technologies in the Euro-Atlantic Space. Palgrave Macmi- llan, Cham. https://doi.org/10.1007/978-3-031-24673-9_8
Kreissl, R. & von Laufenberg, R. (2024). The Controversy About Risks and Threats in Artificial Intelligence. In: Heinlein, M., Huchler, N. (eds) Artificial Intelligence in Society. Springer, Wiesbaden. https://doi.org/10.1007/978-3-658-45708-2_9
Lee, B.G. (2025). Challenges of Digital and AI Transformation. In: Understanding the Digital and AI Transfor- mation. Springer, Singapore. https://doi.org/10.1007/978-981-96-0033-5_8
Novikov, V. (2025). Modern Challenges of Using Artificial Intelligence in the Socio-Economic Processes of Society: Opportunities and Threats. In: Skhvediani, A., Kulachinskaya, A., Mateeva Petrova, M. (eds) Digital Transformation of Socio-Economic and Technical Systems: Theory and Practice. Lecture Notes in Networks and Systems, vol 1309. Springer, Cham. https://doi.org/10.1007/978-3-031-85608-2_3
Rosli, W.R.W. (2025). Waging Warfare Against States: The Deployment of Artificial Intelligence In Cyber Espionage. AI Ethics 5, 47–53 (2025). https://doi.org/10.1007/s43681-024-00628-x






