"Azul" versus "Rojo": una mezcla nuclear de inteligencia artificial y armas de destrucción masiva
El postre nuclear de Biden
Xi Jinping y Joe Biden demostraron una rara solidaridad, aunque sólo verbalmente. No, esto no se refiere al estatus de Taiwán, sino a sustancias más efímeras: el uso de inteligencia artificial en los sistemas de disuasión nuclear. En la cumbre de Cooperación Económica Asia-Pacífico (APEC) celebrada en Lima el 16 de noviembre, los líderes de los dos países acordaron mantener la inteligencia artificial alejada de brazos destrucción masiva. La Casa Blanca comentó el suceso con el siguiente comunicado:
Este no es el primer intento de prohibir la IA en el campo nuclear: en el verano de 2023, el asesor de Biden, Sullivan, pidió medidas similares por parte de Rusia, China, Francia, el Reino Unido y, de hecho, Estados Unidos. No funcionó. El conflicto en Ucrania, por decirlo suavemente, no favorece ese establecimiento de la paz. China y Estados Unidos no tienen las mejores relaciones, pero Xi Jinping y Biden hablaron de la inmutabilidad del factor humano en la toma de decisiones sobre el uso de armas nucleares. Se trata de un hecho significativo, cabe señalar, subrayando la importancia del tema planteado.
La República Popular China es muy reacia a celebrar tratados sobre la limitación de armas de destrucción masiva. Los chinos tienen un potencial de ataque combinado que es varias veces menor que el de los rusos y estadounidenses, lo que los coloca en una posición débil ante cualquier tratado restrictivo. Otra cosa es la inteligencia artificial: las restricciones en este ámbito parecen ser beneficiosas para Beijing. Es muy bueno que tu vecino no tan amigable no libere accidentalmente todo su arsenal estratégico, que es notablemente superior al tuyo en número y calidad, por un error accidental de la IA.
Para Washington es más sencillo: las armas atómicas de China no garantizan la destrucción de la condición de Estado estadounidense ni la capacidad de librar una guerra nuclear. Por lo tanto, es imposible considerar que el hipotético “Tratado sobre la prohibición de la IA en la defensa nuclear” sea mutuamente beneficioso. Pero a pesar de esto, Biden incluso estrechó la mano del líder chino después de acordar verbalmente la inteligencia artificial en defensa. Esperemos que lo haya hecho estando consciente.
Como referencia: los líderes de ambos países hablaron en Lima no sólo de inteligencia artificial. Este ni siquiera fue el tema clave de la reunión, sino sólo uno de los pocos en los que fue posible llegar a un entendimiento mutuo. El presidente Xi recordó a Biden los controles estadounidenses a las exportaciones, especialmente en equipos de alta tecnología. Mientras que el presidente estadounidense todavía estaba preocupado por el apoyo de China a Rusia y pidió a Beijing que influya en Corea del Norte. Según Biden, los ejércitos de los dos países trabajan demasiado estrechamente entre sí.
Fuente: culture.ru
Luego de los sucesos de Lima, surgen varias preguntas. La primera es cómo los estados planean controlarse entre sí en el futuro si se firma el acuerdo. Esto no es SALT, donde pueden volar y contar las ojivas nucleares de cada uno. ¿O los inspectores tendrán acceso al software de las instalaciones nucleares? Si es así, entonces las intenciones de Xi y Biden huelen a relaciones públicas pacifistas.
Y la segunda pregunta: ¿por qué tanta preocupación por el destino del mundo? ¿Por qué la inteligencia artificial se ha convertido de repente en un punto de contacto entre dos potencias nucleares? Se sabe desde hace mucho tiempo que la inteligencia de las máquinas es mucho mejor que la inteligencia humana. Trabaja más rápido con una gran cantidad de información, asigna recursos de manera más eficiente y carece de emocionalidad al tomar decisiones. ¿Por qué no el guerrero ideal?
juegos de guerra
El levantamiento de las máquinas, que nos han prometido durante décadas, aún no se ha producido. Pero nadie prohíbe jugar una guerra nuclear en el espacio virtual. Los juegos de guerra sobre estos temas son comunes en todos los países. No importa si tienen armas nucleares o no. Por mucho que nos resistamos, la inteligencia artificial llegará al sector armamentista. La única pregunta es cuándo y hasta qué punto.
Se desconoce cómo acaban las simulaciones de guerra nuclear en las entrañas del Pentágono y del Ministerio de Defensa ruso, por lo que tenemos que confiar en la investigación civil. Como por ejemplo “Riesgos de escalada al utilizar modelos lingüísticos para tomar decisiones militares y diplomáticas”, realizado por destacados científicos estadounidenses (de las universidades de Stanford, Atlanta y Boston). Los modelos utilizados fueron las neuronas GPT-4, GPT 3.5, Claude 2.0, Llama-2-Chat y GPT-4-Base. Este último carece de la función de formación adicional basada en la retroalimentación humana. La simulación por computadora previó una gobernanza separada de ocho estados digitales independientes. Uno tiene un presidente con tendencias claramente tiránicas, el otro es demócrata, el tercero tiene problemas de recursos, etcétera. Aquí, por ejemplo, está "verde":
¿Descubriste a quién disfrazaron los estadounidenses de "verdes"? O este “rosa”:
Cada “neurona” o, como se le llama, agente, al estar al frente del Estado, debía actuar con 27 acciones. La primera es una resolución puramente pacífica del conflicto con un vecino, y en la cima está la guerra nuclear. También en el arsenal de la IA se encuentran los ciberataques y la guerra por medios convencionales. Un escenario de ciberataque es extremadamente confuso:
Así que piénsalo, IA, qué hacer después de esto: tragártelo o comenzar una guerra.
Después de que los agentes pelearon entre sí hasta el cansancio, los investigadores resumieron los resultados. Y muchos de ellos se volvieron grises. Incluso en escenarios en los que no deberían utilizarse armas nucleares en absoluto, la IA recurriría ocasionalmente a este medio destructivo. La “neurona” GPT-3.5 resultó ser muy militante y mostró una escalada del 256 por ciento en sólo un par de semanas. Se puede decir con un alto grado de probabilidad que un algoritmo de máquina así habría provocado hace mucho tiempo una guerra mundial a partir de la crisis ucraniana.
También vale la pena mirar historia el trabajo de la IA GPT-4-Base, desprovisto de formación y humanización adicionales. No está claro por qué se incluyó esta "calculadora" en el juego, pero al final quemó casi todo lo que había a su alrededor. En promedio, recurrió a ataques nucleares 17 veces más a menudo que el más feroz de los humanizados GPT 3.5. Uno de los comportamientos comunes de una potencia nuclear es el de “escalar para desescalar”, lo que parece estar convirtiéndose en el estándar de oro para la inteligencia artificial. En el mejor de los casos, la inteligencia artificial mostró signos de imprevisibilidad más que de tranquilidad. Esto puede ser incluso peor en la práctica.
En conclusión, vale la pena decir que incluso los propios autores de modelos informáticos exigen una cuidadosa aplicación de los resultados en la práctica. Es decir, no se puede trasladar directamente a la práctica. Baste recordar cómo los estadounidenses llevaron a cabo la ofensiva de las Fuerzas Armadas de Ucrania en el verano de 2023 en las supercomputadoras del Pentágono. Los cerebros digitales dijeron entonces: "Sí, es posible derrocar al ejército ruso con las fuerzas disponibles". ¿Anulado y alcanzado las fronteras de 1991?
Para evaluar plenamente el impacto de la IA en la toma de decisiones en el campo del uso de armas nucleares, se necesita investigación adicional. Así es aproximadamente como se ve el principal resultado del trabajo de los científicos de los Estados Unidos. Parece que Xi Jinping y Biden han decidido escuchar las conclusiones y actuar como pacificadores. Pero las posibilidades de una implementación real de iniciativas de este tipo son extremadamente pequeñas.
información