Se viene Skynet: los estadounidenses han terminado de jugar con la inteligencia artificial
Sigiloso XQ-58A Valkyrie
Simulación de Hamilton
El 24 de mayo, en la conferencia de defensa de la Cumbre de Capacidades Aéreas y Espaciales de Combate Futuro de la Royal Aerospace Society en Londres, el Coronel de la Fuerza Aérea de EE. UU. Tucker Hamilton dijo historia sobre la falta de alma de la inteligencia artificial.
Durante la simulación de la batalla, el sistema de control de ataque aéreo zumbido fue contra su operador y lo destruyó. Naturalmente, virtualmente. Según el propio Hamilton, la máquina recibió bonificaciones por objetos destruidos, pero el operador no siempre confirmó el trabajo en los objetivos. Por esto pagó. Para solucionar el problema, el dron envió un cohete al centro de control. Con toda probabilidad, se trataba de un dron Stealthy XQ-58A Valkyrie experimental, y funcionaba en sistemas de defensa aérea terrestres.
Una característica de la máquina es la capacidad de trabajar de forma autónoma sin comunicación con el operador. Lo que, de hecho, aprovechó la inteligencia artificial, eliminando prácticamente su controlador remoto. En respuesta a esto, los administradores del sistema prohibieron tales cosas a la máquina, pero aquí la IA no estaba perdida: destruyó la torre de retransmisión y volvió a la navegación autónoma.
El coronel Hamilton aún es joven para hablar en foros internacionales. Fuente: thedrive.com
La historia de Hamilton se extendió instantáneamente por todo el mundo. Las opiniones se dividieron polarmente: quien consideró que se trataba de otra charla de un guerrero incompetente, alguien vio el nacimiento del notorio Skynet aquí. Un poco más y los cyborgs conquistarán el mundo, y las personas recibirán disparos para obtener puntos de bonificación. Hubo mucho humo por las declaraciones del coronel, pero la verdad, como siempre, está en algún punto intermedio.
Anne Strefanek, portavoz del cuartel general de la Fuerza Aérea en el Pentágono, añadió incertidumbre, convirtiendo las palabras de Hamilton en una anécdota. Para The War Zone, ella habló:
Y en general, las palabras del coronel fueron sacadas de contexto, no tan entendidas y más como una curiosidad. Nadie esperaba una reacción diferente del Pentágono: surgió mucho ruido en torno al evento, lo que amenazó con graves consecuencias para todo el programa. Wow, resulta que la inteligencia artificial está desprovista de moralidad. Aunque opera según la lógica humana.
A principios de junio, el propio Tucker Hamilton intentó desmentir sus palabras en una conferencia en Londres:
Parecería que el tema está cerrado y la audiencia puede dispersarse. Pero es demasiado pronto.
Comida para el pensamiento
Para empezar, tratemos el término mismo "inteligencia artificial", que todos conocen, pero pocos pueden dar una definición aproximada. Usaremos la formulación del Diccionario Terminológico Internacional de 2008, en el que AI:
Es decir, esta es una definición generalmente aceptada en Occidente.
¿Se comportó la máquina como cuando decidió “calmar” a su operador y luego aplastar la torre de relevo? Por supuesto, parecía que un asesino debidamente motivado es capaz de más que eso. Si profundiza en la clasificación, puede encontrar un tipo específico de IA: la llamada adaptativa (Adaptive AI), "que implica la capacidad del sistema para adaptarse a nuevas condiciones, adquiriendo conocimientos que no se establecieron durante la creación".
Teóricamente, no hay nada sorprendente en el acto de los "cerebros" del Stealthy XQ-58A Valkyrie durante el experimento. Como señaló acertadamente Hamilton en su informe, el programa inicialmente ni siquiera introdujo restricciones sobre la destrucción de su operador: la máquina aprendió todo por sí misma. Y cuando estaba directamente prohibido vencer a los suyos, la inteligencia artificial se adaptó una vez más y cortó la torre de comunicaciones.
Hay muchas preguntas para los programadores. Por ejemplo, ¿por qué no tenía un algoritmo para perder bonificaciones por acertar las suyas? Esta pregunta fue respondida parcialmente por el general retirado de la Fuerza Aérea de EE. UU. Paul Selva en 2016:
Bueno, los programadores de la historia del Coronel Hamilton, aparentemente, están empantanados.
Hellfire bajo el ala de un dron MQ-1B Predator. Fuente: businessinsider.com
Ahora sobre por qué las excusas del Pentágono y Hamilton deben creerse con un tramo muy grande.
En primer lugar, el coronel no solo contó la historia entre líneas, como si distrajera la atención del informe principal, sino que dedicó una presentación completa a este tema. El nivel de la conferencia de Londres Future Combat Air & Space Capabilities Summit no es propicio para bromas. Según los organizadores, participaron al menos 70 eminentes conferencistas y más de 200 delegados de todo el mundo. Representantes de BAE Systems, Lockheed Martin Skunk Works y varias otras grandes empresas trabajaron desde el complejo militar-industrial.
Por cierto, el tema de Ucrania apareció en casi todos los informes: Occidente sigue de cerca los acontecimientos y reflexiona sobre los resultados.
¿Dejar escapar un lío franco en un foro tan representativo, agitar a medio mundo y luego disculparse por cometer un desliz? Si este es realmente el caso, entonces la reputación de Hamilton no se puede borrar. Solo que ahora el nivel de las competencias del coronel se derrumba, y esta es la segunda razón por la que se deben prestar atención a sus primeras palabras.
Tucker Hamilton dirige las pruebas y operaciones de IA en la Base de la Fuerza Aérea de Anglin en Florida. Bajo la dirección de la base, se creó el grupo de trabajo 96 en el ala de prueba 96. Hamilton no es el primer año que trabaja con IA en aviación – ha estado diseñando F-16 Vipers parcialmente autónomos durante varios años, para los cuales se está desarrollando la infraestructura VENOM. El trabajo va bastante bien: en 2020, las batallas virtuales entre luchadores e IA y con pilotos reales terminaron con una puntuación de 5:0.
Al mismo tiempo, no está exenta de complicaciones, de las que Hamilton advirtió el año pasado:
En 2018, Hamilton ganó el Trofeo Collier con su Auto GCAS. Los algoritmos de IA aprendieron a determinar el momento en que el piloto perdió el control de la aeronave, tomaron el control automáticamente y alejaron el automóvil de la colisión. Dicen que Auto GCAS ya ha salvado a alguien.
Como resultado, la probabilidad de que se le pida a Hamilton desde arriba que se retracte de sus palabras es mucho mayor que la probabilidad de que un profesional de este nivel se congele sin sentido. Además, muy torpemente se refirieron a unos “experimentos mentales” en la cabeza del coronel.
Entre los escépticos sobre el resultado está The War Zone, cuyos periodistas dudan de que el portavoz del Pentágono, Stefanek, esté realmente al tanto de lo que está sucediendo en el ala de prueba 96 en Florida. The War Zone ha hecho una solicitud a la base de Hamilton, pero hasta ahora sin respuesta.
Realmente hay algo que temer de los militares. Se están gastando enormes cantidades de dinero en programas de defensa de IA para evitar que China y Rusia se acerquen siquiera al nivel de Estados Unidos. La sociedad civil está bastante preocupada por las perspectivas de aparición de "Terminators" con "Skynets" además. Entonces, en enero de 2018, destacados científicos mundiales firmaron una carta abierta instando a los especialistas a pensar en el deseo de crear una inteligencia artificial cada vez más fuerte:
Según Hamilton, la IA no hace todo lo que una persona quiere.
información