Military Review

Conmoción del tanque. El Pentágono tiene la intención de dotar a los vehículos blindados de inteligencia artificial

24

Fuente: qz.com


ATLAS contradictorio


A principios del año pasado, el ejército de Estados Unidos alarmó al mundo noticias sobre el desarrollo del sistema ATLAS (Advanced Targeting and Lethality Aided System), diseñado para llevar las operaciones de combate a un nuevo nivel de automatización. La iniciativa provocó una reacción mixta entre la gente común y los expertos militares ilustrados. Gran parte de la culpa recayó en los desarrolladores (el centro militar C5ISR y el Centro de Armas del Ministerio de Defensa), quienes, en aras de la eufónica abreviatura ATLAS, incluyeron los términos "letalidad" y "designación de objetivo mejorada" en el nombre. Asustado cuentos Sobre los robots rebeldes, los estadounidenses criticaron la iniciativa del ejército, dicen, contradice la ética de la guerra. En particular, muchos se refirieron a la Directiva del Pentágono 3000.09, que prohíbe la transferencia del derecho a abrir fuego a un sistema automatizado. La integración de la inteligencia artificial y el aprendizaje automático en los vehículos terrestres, según los manifestantes, podría provocar muertes precipitadas entre civiles y tropas amigas. Entre los críticos había científicos bastante respetables, por ejemplo, Stuart Russell, profesor de informática en la Universidad de California en Berkeley.


Clásico tanques obsoleto y requiere una automatización temprana, según el ejército de EE. UU. Fuente: htstatic.imgsmail.ru

Los desarrolladores explicaron razonablemente que ATLAS no tiene nada que ver con los hipotéticos "robots asesinos" con los que la humanidad ha estado soñando desde el primer "Terminator". El sistema se basa en algoritmos de búsqueda de objetivos utilizando varios sistemas de sensores, seleccionando los más importantes e informando al operador sobre ellos. Ahora, en los EE. UU., Se está probando el vehículo blindado de transporte de personal M113 con el sistema ATLAS integrado. Para el operador del arma, los algoritmos de inteligencia artificial muestran no solo los objetivos más peligrosos en la pantalla, sino que también recomiendan el tipo de munición e incluso la cantidad de disparos para una derrota garantizada. Según los desarrolladores, la decisión final sobre dar en el blanco sigue siendo del tirador, y es él quien es responsable del resultado. La tarea principal de ATLAS en una versión blindada es aumentar la velocidad de respuesta a una amenaza potencial: en promedio, un tanque (BMP o transporte de personal blindado) abre fuego contra un objetivo con un asistente automático tres veces más rápido. Naturalmente, un vehículo blindado puede funcionar de manera más eficaz con objetivos grupales. En este caso, la inteligencia artificial selecciona rápidamente los objetivos en el orden de peligro del tanque, guía el arma por sí sola y recomienda el tipo de munición. Desde principios de agosto, en el campo de pruebas de Aberdeen se han probado varios tipos de vehículos blindados con sistemas ATLAS integrados. Con base en los resultados del trabajo, se tomará una decisión sobre las pruebas militares e incluso sobre la adopción de una similar. armas.

Conmoción del tanque. El Pentágono tiene la intención de dotar a los vehículos blindados de inteligencia artificial
Pruebas de componentes ATLAS en Aberdeen Proving Grounds. La foto muestra el compartimento de aterrizaje M113. Fuente: c4isrnet.com

Los tanques son ahora uno de los objetivos más conservadores del campo de batalla. Muchos de ellos no han mejorado fundamentalmente durante décadas, permaneciendo en los años 70-80 del siglo pasado en términos de desarrollo técnico. A menudo, esta inercia se asocia con el uso generalizado de tanques en países individuales. Para modernizar seriamente un ejército blindado de muchos miles, se requieren enormes recursos. Pero los medios para contrarrestar los tanques se están desarrollando a pasos agigantados. Un excelente ejemplo es el conflicto actual en Nagorno-Karabaj, cuando los drones turcos e israelíes son extremadamente efectivos contra los tanques armenios. Si nos abstraemos de las pérdidas humanas, el cálculo de la relación "precio / eficiencia" de tales armas antitanques las convierte simplemente en los reyes del campo de batalla. Por supuesto, ATLAS no protegerá contra amenazas aéreas, pero puede ser una buena herramienta para la alerta temprana de objetivos peligrosos para tanques, como tripulaciones ATGM o lanzadores de granadas individuales.


Estos son los objetivos potenciales que consideran los autores del concepto de Proyecto de Convergencia. Fuente: defensenews.com

El Pentágono considera el sistema ATLAS no como una estructura militar única, sino como parte de un gran Proyecto de Convergencia. Esta iniciativa debería llevar la conciencia de las tropas al siguiente nivel. A través del aprendizaje automático, la inteligencia artificial y la saturación sin precedentes del campo de batalla con drones, los estadounidenses esperan aumentar seriamente la capacidad de combate de sus unidades. La idea clave no es nueva: conectar todos los objetos en el campo de batalla con una estructura de información común y digitalizar la realidad circundante. Hasta ahora, ATLAS no está completamente incluido en el Proyecto Convergencia debido a la falta de habilidades de intercambio de datos con "vecinos", pero en el futuro, los cerebros artificiales del tanque se convertirán en propiedad común. Por cierto, en el comercial del proyecto, China y Rusia se designan como objetivos militares inequívocos.

Sin confianza en la electrónica


Las tropas estadounidenses ya tienen una experiencia negativa con los sistemas robóticos armados. En 2007, se enviaron a Irak tres plataformas de orugas de pequeño tamaño, SWORDS (abreviatura de Special Weapons Observation Reconnaissance Detection System), armadas con ametralladoras M249. Y aunque no eran vehículos totalmente autónomos, lograron asustar a los soldados con sus periódicos caóticos movimientos de los cañones de las ametralladoras mientras patrullaban las calles de Bagdad. Para el Pentágono, esto parecía una señal de imprevisibilidad, y los artilleros de las ametralladoras con orugas fueron enviados lentamente a casa. En 2012, se emitió una directiva que indica que los sistemas de armas automatizados y controlados a distancia no deben disparar por sí mismos. Formalmente, ATLAS se ha desarrollado íntegramente en el marco de esta disposición, pero no hay menos preguntas sobre la innovación. Algunos expertos (en particular, Michael S. Horowitz, profesor asistente de ciencias políticas en la Universidad de Pennsylvania) acusan la novedad de simplificar demasiado el proceso de dar en el blanco. De hecho, este nivel de automatización de búsqueda y designación de objetivos convierte el combate en un juego ordinario como World of Tanks para el artillero. En el sistema de guía ATLAS, el objetivo prioritario se resalta en rojo, suena una alarma y la técnica, como puede, estimula a una persona a abrir fuego. En condiciones de combate extremas, hay poco tiempo para tomar una decisión sobre disparar, y luego el "robot inteligente" te anima. Como resultado, el luchador simplemente no tiene tiempo para evaluar críticamente la situación y, sin entenderlo, abre fuego. Es necesario evaluar cómo ATLAS seleccionó correctamente los objetivos después de disparar. ¿Hasta qué punto es ético este enfoque y está en consonancia con la notoria directiva estadounidense? Microsoft, por cierto, ya ha logrado caer bajo la condena pública por un sistema de designación de objetivos montado en el casco para los militares, incluido un boicot de usuarios. En los Estados Unidos, ha habido disputas sobre los sistemas robóticos de detección y guía durante muchos años. Como ejemplo, los críticos citan ejemplos de errores del sistema de piloto automático en la vía pública, que ya han provocado víctimas. Si incluso después de conducir millones de kilómetros, los pilotos automáticos no se volvieron 100% confiables, entonces, ¿qué podemos decir acerca de un ATLAS completamente nuevo, que puede empujar a los camiones cisterna a disparar contra una persona inocente con un proyectil de 120 mm? Las guerras modernas son ahora tan sangrientas precisamente porque los militares tuvieron la oportunidad de matar a distancia, escondiéndose detrás de una barrera confiable. El ejemplo del mencionado Nagorno-Karabaj confirma una vez más esta verdad. Si el luchador también se ve privado de la oportunidad de evaluar críticamente los parámetros del objetivo (esto es exactamente a lo que conduce ATLAS), entonces las víctimas pueden llegar a ser mucho más y la culpa del asesinato ya puede ser parcialmente transferida a la máquina.

Y finalmente, el principal argumento en contra de los sistemas tipo ATLAS entre los comentaristas pacifistas fue la virtual ausencia de una prohibición sobre la apertura de fuego automático. Ahora solo los requisitos éticos del Pentágono (que también tienen muchas reservas) prohíben automatizar por completo el proceso de asesinato. Con la introducción de ATLAS, no habrá obstáculos técnicos para esto. ¿Podrá el Ejército de los EE. UU. Renunciar a una oportunidad tan prometedora para acelerar aún más el tiempo de respuesta a una amenaza y evitar que sus soldados sean atacados?
autor:
24 comentarios
información
Estimado lector, para dejar comentarios sobre la publicación, usted debe para registrarse.

Уже зарегистрированы? iniciar la sesión

  1. Sofá batyr
    Sofá batyr 5 noviembre 2020 06: 10
    +4
    Es necesario evaluar cómo ATLAS seleccionó correctamente los objetivos después de disparar.


    Tan pronto como leí el nombre del sistema - ATLAS, inmediatamente recordé un episodio de "Taxi-2" con el funcionamiento del sistema con el mismo nombre.

    1. gurzuf
      gurzuf 5 noviembre 2020 13: 42
      +1
      Y me acordé de esto https://youtu.be/f8AKH_wPmMc
      1. Insurgente
        Insurgente 5 noviembre 2020 14: 14
        +3
        Cita: gurzuf
        Y me acordé de esto https://youtu.be/f8AKH_wPmMc

        La cámara confundió el balón con la calva del árbitro

        Púlsalo ahora, chtol dalo, para no brillar y no engañar a la IA?
      2. Automovilista
        Automovilista 5 noviembre 2020 21: 50
        +4
        Cita: gurzuf
        Y me acordé de esto https://youtu.be/f8AKH_wPmMc

        Y me acordé de la caricatura sobre el tanque automático "Polígono" (1977), donde el tanque ataca a los que tienen miedo. ¡Mira! estáblecido,
  2. Ka-52
    Ka-52 5 noviembre 2020 06: 49
    +4
    Es necesario evaluar cómo ATLAS seleccionó correctamente los objetivos después de disparar.

    y que va a cambiar Los pilotos estadounidenses en los días de Yugoslavia destruían perfectamente tractores con refugiados, y en Irak periódicamente quemaban Guerreros Británicos. riendo "Dispara y luego pregunta" es un antiguo principio yanqui
  3. Victor Sergeev
    Victor Sergeev 5 noviembre 2020 07: 40
    0
    Cuando los estadounidenses se vuelven aburridos, el ejército está lleno de escoria, tienes que confiar en la inteligencia artificial. El problema es que antes de la invención de la IA, oh, qué tan lejos está, no hay ninguno y en un futuro cercano no lo estará, ya que los sistemas informáticos modernos todavía apestan.
    1. NDR-791
      NDR-791 5 noviembre 2020 12: 40
      +4
      Déjame contarte el secreto más importante de los programadores. No se creará IA. Porque el día en que se cree, todos los programadores se quedarán sin trabajo. ¿Y lo necesitan ??? wassat
      1. Thomas N.
        Thomas N. 5 noviembre 2020 15: 01
        +2
        Cita: NDR-791
        Déjame contarte el secreto más importante de los programadores. No se creará IA. Porque el día en que se cree, todos los programadores se quedarán sin trabajo. ¿Y lo necesitan ??? wassat

        No son los programadores los que crean la IA, sino el clásico "científico loco" como Emmett Brown de Regreso al futuro. riendo Y a su pérdida de trabajo ciertamente no le importa si necesita fama o "bendecir" a la humanidad. Los idealistas y soñadores son las personas más "peligrosas", ¡sí!
        1. Victor Sergeev
          Victor Sergeev 5 noviembre 2020 19: 12
          +1
          La IA necesita una computadora, en comparación con la cual las supercomputadoras modernas son simplemente personas estúpidas en comparación con Einstein.
          1. MyVrach
            MyVrach 5 noviembre 2020 20: 05
            0
            Cita: Victor Sergeev
            La IA necesita una computadora, en comparación con la cual las supercomputadoras modernas son simplemente personas estúpidas en comparación con Einstein.

            ¿De dónde tal conocimiento?
            1. Victor Sergeev
              Victor Sergeev 6 noviembre 2020 09: 32
              0
              De un cerebro que supera a cualquier superordenador en sus capacidades. Lo que el cerebro de una persona, y cualquier otra, es capaz de hacer, no lo puede hacer ninguna computadora moderna. Hasta ahora, una computadora es solo una calculadora compleja que no es capaz de pensar de verdad, lo que el cerebro humano puede dar al usar el subconsciente, ninguna computadora lo hará, al menos no todavía. Existe la palabra "intuición" y es ella quien define el pensamiento real, la inteligencia, la capacidad de comparar, sacar conclusiones basadas en la experiencia pasada, en el futuro esperado.
              1. MyVrach
                MyVrach 6 noviembre 2020 17: 06
                0
                Oh. completamente por.
                La mente subconsciente se puede agrupar con Etty, el monstruo de Lochnest, el Triángulo de las Bermudas, etc.
                Sin relación. Brillaré con mi conocimiento, diré que el problema del "cerebro y la mente" es popular en la filosofía. Y lo que está relacionado con esto lo pasaremos por alto, pero hablaremos de una manera sencilla. El cerebro es un órgano del sistema nervioso central, como todo lo demás en un organismo vivo, está diseñado para sobrevivir. (Lo crea o no, hay representantes del mundo vivo que, en un determinado período de su vida, se comen el cerebro por innecesario cuando ha cumplido su función). Volvamos al tema. El cerebro se adapta bien a su tarea principal, así como la computadora (software y hardware). La misma supercomputadora en grandes observatorios procesa en segundos tantos terabytes de información como el cerebro humano no recibe en un año.
                1. Victor Sergeev
                  Victor Sergeev 6 noviembre 2020 17: 56
                  -1
                  Todo su problema, al igual que el autor, es que no comprende en absoluto qué es el procesamiento de información por parte del cerebro y la diferencia entre una calculadora y un cerebro humano. Primero, determine cuál es el tamaño de la información de un sueño humano, que ocurre en una fracción de segundo, luego intente determinar cuánta información necesita procesar para poder ir. Pero lo más importante: el intelecto no debe procesar y contar, sino razonar, mostrar creatividad, tener la capacidad de prever una situación, incluso cuando no se ha enfrentado a tal situación, el cerebro humano lo hace en un microsegundo (intuición), y la computadora no puede hacerlo en principio por falta de información. ¿Te imaginas al menos cómo ve una persona una imagen y qué trabajo hace el cerebro en este momento?
                  Sabes, en nuestra escuela militar, un pimiento soltó sobre lo mismo que tú: una computadora tiene más memoria que un cerebro humano, fue divertido.
                  1. MyVrach
                    MyVrach 6 noviembre 2020 19: 35
                    0
                    Cita: Victor Sergeev
                    Primero, determine cuál es el tamaño de la información de un sueño humano, que ocurre en una fracción de segundo, luego intente determinar cuánta información necesita procesar para poder ir.

                    Con el debido respeto, pero la información en un sueño está más allá de mi percepción del mundo. La información en un sueño ni siquiera es Etty con el monstruo de Lochnee, es un OVNI y parapsicología, ya que la información, por definición, es información transmitida.
                    Cita: Victor Sergeev
                    Pero lo más importante: el intelecto no debe procesar y contar, sino razonar, mostrar creatividad, tener la capacidad de prever una situación, incluso cuando no ha cumplido tal situación, el cerebro humano lo hace en un microsegundo (intuición), y una computadora no puede hacerlo, en principio, por falta de información.

                    Hay juegos con un conjunto de reglas claras, y si este conjunto de reglas se carga en un determinado algoritmo de redes neuronales, luego de unas horas de "autoaprendizaje" este algoritmo vencerá al mejor jugador entre las personas. No necesariamente ajedrez o "ir", sino cualquier otro.
                    Cita: Victor Sergeev
                    ¿Te imaginas al menos cómo ve una persona una imagen y qué trabajo hace el cerebro en este momento?

                    Hasta ahora, algunos creen que una persona percibe y procesa la información en categorías, y si la información que recibe le es previamente familiar y puede determinarla, entonces no hay problema. De hecho, un adulto en el 99.999% no ve, pero reconoce lo que aprendió anteriormente. Una persona no puede percibir más de un cierto umbral, por ejemplo, la cantidad de memoria a corto plazo siete elementos , en relación con el cual hay un montón de fenómenos de ceguera por falta de atención.
                    Cita: Victor Sergeev
                    Sabes, en nuestra escuela militar, un pimiento soltó sobre lo mismo que tú: una computadora tiene más memoria que un cerebro humano, fue divertido.

                    Pechalka llanto
                    1. Victor Sergeev
                      Victor Sergeev 6 noviembre 2020 19: 57
                      -1
                      ¿Y su computadora vencerá a una persona en una situación en la que no necesita calcular fórmulas matemáticas, sino en una situación en la que no se conoce la mitad de la información y necesita llenarla con intuición? La computadora no es capaz de aprender, solo calcula las soluciones y listo, para eso necesita el código fuente. Y ahora sobre el sueño: en este momento, la conciencia de una persona se apaga y el subconsciente se interrumpe, una persona ve docenas, si no cientos de sueños en segundos, cada uno de los cuales es del tamaño de una película normal.
                      Todavía te aconsejo que estudies el tema de cómo una persona ve y dobla una imagen, te gustará, una computadora no puede hacerlo. El cerebro simultáneamente hace cientos de cosas, controla el cuerpo (un montón de órganos), procesa la información entrante. Solo para caminar (sin problemas, con claridad), el cerebro controla una docena de músculos con una precisión de un micrón, gastando una pequeña fracción de sus capacidades, los científicos de la computación no pueden crear algo así.
                      Deja que el sistema robótico entre al campo de batalla y perderá, porque al mismo tiempo surgirá una montaña de condiciones impredecibles, y el cerebro lo tomará en cuenta, se adaptará instantáneamente (como dicen, primero lo hace una persona, y luego se da cuenta de lo que hizo, en la máquina), y la computadora se congelará o comenzará a cometer terribles errores. , simplificando la tarea y siguiendo el patrón.
                      1. MyVrach
                        MyVrach 6 noviembre 2020 20: 35
                        0
                        Cita: Victor Sergeev
                        ¿Su computadora vencerá a una persona en una situación en la que no necesita calcular fórmulas matemáticas, pero en una situación en la que no se conoce la mitad de la información y necesita llenarla con intuición?

                        Uh ... ¿Estás diciendo que es más probable que una persona tome la decisión correcta con solo la mitad de la información que necesita? Entonces esto no es la mitad, sino suficiente información para tomar la decisión correcta.
                        Cita: Victor Sergeev
                        La computadora no es capaz de aprender, solo calcula las soluciones y listo, para eso necesita el código fuente.

                        No. Tal como escribí, y además, el programa de "autoaprendizaje" es capaz de superar al programa que calcula según algoritmos predefinidos y con bases de datos de situaciones de juego.
                        Cita: Victor Sergeev
                        Y ahora sobre el sueño: en este momento, la conciencia de la persona se apaga y el subconsciente se interrumpe,

                        Por lo que leo y por lo que entiendo. En ciencia, en principio, la palabra "subconsciencia" no se usa, y cualquier uso de ella determina la seriedad de un artículo científico.
                        Cita: Victor Sergeev
                        una persona ve docenas, si no cientos, de sueños en un segundo, cada uno de los cuales tiene el tamaño de una película normal.

                        Existe tal mito: una persona en una situación crítica percibe de forma acelerada, para él el tiempo parece ralentizarse. Decidimos comprobar los experimentos. En los experimentos, la gente realmente confirmó esto subjetivamente. Hasta que se les pidió durante el experimento que distinguieran algo en la pantalla, cambiando a una velocidad posible para la percepción en el estado de prueba. Resultado: la hipótesis no fue confirmada.
                        Cita: Victor Sergeev
                        Todavía te aconsejo que estudies el tema de cómo una persona ve y dobla una imagen, te gustará, una computadora no puede hacerlo.

                        Sería interesante familiarizarse con sus fuentes.
                      2. Victor Sergeev
                        Victor Sergeev 7 noviembre 2020 12: 57
                        -1
                        Con una falta de información, una persona tomará una decisión más correcta y comenzará a actuar en su ejecución, cambiando simultáneamente las acciones a medida que cambia la situación, la computadora se congelará estúpidamente, y tan pronto como pasen circunstancias impredecibles, que el programador no previó, la computadora comenzará a ceder de tal manera que llegará un final completo. Comp es bueno en situaciones simples, estándar, pero la guerra es muy impredecible, especialmente si la guerra de oponentes iguales.
  4. Sccksis
    Sccksis 6 noviembre 2020 22: 45
    0

    Todo el problema es que antes de la invención de la IA, ¡oh, qué tan lejos

    Pero esto no es un problema, sino la salvación.
  • Vasily Kiryanov
    Vasily Kiryanov 5 noviembre 2020 14: 10
    +2
    Los petroleros estadounidenses realmente necesitan inteligencia artificial. Como prótesis.
  • Undecim
    Undecim 5 noviembre 2020 14: 12
    +1
    Ahora, en los EE. UU., Se está probando el vehículo blindado de transporte de personal M113 con el sistema ATLAS integrado.
    No solo

    La torre ALAS-MC se instala en el chasis de General Dynamics Griffin para probar el sistema ATLAS.
  • Thomas N.
    Thomas N. 5 noviembre 2020 14: 54
    0
    "Estados Unidos está probando actualmente el vehículo blindado de transporte de personal M113 con un sistema ATLAS integrado".
    A juzgar por el equipo civil en la foto con la leyenda "Pruebas de componentes ATLAS en el campo de pruebas de Aberdeen. La foto muestra el compartimento de tropas M113. Fuente: c4isrnet.com" Esto es solo un banco de pruebas montado en un cómodo y espacioso compartimento de tropas del APC M113. Creo que el M113 no estará equipado con este sistema.
  • Traste
    Traste 5 noviembre 2020 16: 50
    +3
    está prohibido transferir el derecho a abrir fuego a sistemas automatizados


    ¿Desde cuándo está prohibido? Siempre permitido. Muchos civiles y animales perecieron al mismo tiempo. Pero esto no detuvo a nadie. Además, estos sistemas solían ser mucho más tontos que los modernos. Tomemos, por ejemplo, las mismas minas. La mina funciona con un soldado, un civil y un animal. En un buque de guerra y en un civil. A ella no le importa. Y nadie requiere que el operador seleccione el objetivo de la mina a través de una cámara de video. Mina no es diferente de un robot que dispara, mata de la misma manera. Y luego algo gritó.
  • Slon_on
    Slon_on 6 noviembre 2020 09: 25
    0
    Sí, ¿la IA se quedará atrapada en el Abrams, y nigraJon todavía arrojará los proyectiles al cañón?
  • Maksim_ok
    Maksim_ok 14 noviembre 2020 03: 54
    0
    "Entre los críticos había científicos bastante respetables, por ejemplo, Stuart Russell, profesor de informática en la Universidad de California en Berkeley". Esta universidad es un famoso semillero de izquierdistas semi-locos.

    "Muchos de ellos no han mejorado fundamentalmente durante décadas, permaneciendo en los años 70-80 del siglo pasado en términos de desarrollo técnico". Depende del tipo de tanques. Esto es cierto para el T-72B (1985) y el T-72BA (1999), pero tome el Leopard A7 y el Leopard-2 base, ¿no hay diferencias entre ellos? Si piensas en el nivel de la escuela primaria, entonces no. Hay una torreta con un cañón, así como pistas. El nombre es casi el mismo. Pero, de hecho, se trata de máquinas con distintas capacidades. En primer lugar, sobre la OMS y el componente de información. Navegación por satélite, TIUS, sistema de control de combate y capacidades de red, y luego una nueva arma, municiones y miras.

    En cuanto a ATLAS, definitivamente se necesita un sistema de este tipo.