Los robots de batalla asustan a los expertos
La organización no gubernamental Human Rights Watch (HRW) ha anunciado su intención de crear una coalición internacional que buscará concluir un tratado internacional global que imponga una prohibición integral y proactiva de las armas con inteligencia artificial incluso antes de que se creen. A la empresa por la prohibición de los militares”robotskillers”, que comenzó en la capital del Reino Unido, ya se ha unido a varias organizaciones no gubernamentales que han participado anteriormente en campañas para prohibir las municiones en racimo, las minas antipersonal y los láseres cegadores.
A diferencia del control remoto tanques y las tankettes, torpederos, que fueron probados en la Unión Soviética en la década de 1930, robots de combate totalmente autónomos, como dicen los activistas, tendrán una serie de defectos inherentes que pueden hacerlos mortales para la humanidad. Los sistemas totalmente autónomos más comunes del pasado, como el Phalanx, que derribó aviones o misiles que se acercaban a buques de guerra estadounidenses, tenían una especialización bastante estrecha, su propio nicho, y difícilmente podían funcionar debido a factores aleatorios o la población civil.
Pero la nueva generación de robots de combate, por ejemplo, el UAV Harpy totalmente autónomo de Israel, ya es mucho más peligroso. Hasta ahora, el Harpy busca y destruye solo radares en un modo completamente automático, disparándoles misiles en un modo de disparar y olvidar. Sin embargo, estos vehículos aéreos no tripulados son atractivos para los ejércitos de todo el mundo y no solo por el hecho de que no pueden ser pirateados y aterrizados en su aeródromo, como supuestamente hizo el ejército iraní con el ejército estadounidense en 2012. zumbido.
Lo más importante aquí es el bajo costo de operar robots de combate. Así, por ejemplo, un dron controlado a distancia necesita no solo una estación de comando y control costosa, en la que hay un especialista bien entrenado que trabaja en turnos, sino también una comunicación a prueba de atascos. De hecho, en el caso de UAV de pequeño tamaño, esto se convierte en la principal partida de gastos. La eliminación de esta partida de gastos permitirá a los países producir robots de combate voladores en miles de series sin un aumento significativo en el costo de su operación.
"La campaña por la prohibición de matar robots", cree que el principal problema es que tales máquinas aún son imperfectas. No pueden distinguir a un civil de un terrorista, a una persona de una nacionalidad de otra (aunque, para ser justos, debe decirse que las personas también pecan con esto). Al mismo tiempo, en el mundo moderno, las guerras a menudo se libran en lugares donde un solo disparo al azar puede llevar a una escalada de violencia. La organización está particularmente preocupada por el desarrollo de Corea del Sur, que crea un robot especial para patrullar la frontera con Corea del Norte. Un error de tal robot puede llevar a un serio conflicto armado. Por lo tanto, surge una pregunta razonable: ¿vale la pena transferir la causa de la guerra y la paz al tribunal de software, cuya idoneidad y confiabilidad no pueden verificarse sin víctimas humanas?
Al mismo tiempo, hay preguntas más serias en el mundo que el conflicto coreano. El caso del 1983 de otoño del año, cuando el sistema de alerta automático soviético para el ataque nuclear "Oko" emitió una serie de falsas señales sobre el lanzamiento de misiles balísticos estadounidenses, fue ampliamente conocido. Solo la intervención del oficial de servicio operativo en el puesto de mando de Serpukhov-15 impidió un ataque de "represalia". Después de analizar los "lanzamientos" del ICBM (varios seguidos desde un punto), el teniente coronel pensó que el enemigo potencial no era tan estúpido como para comenzar una guerra y ser sustituido por un ataque de represalia de las fuerzas nucleares soviéticas no reprimidas. ¿Cómo podría terminar esta situación si el sistema "Ojo" fuera completamente autónomo?
Aquí hablamos de una posible guerra nuclear, pero también hay ejemplos mucho más prosaicos. Por ejemplo, en 2007, ocurrió un trágico incidente en el ejército de Sudáfrica, los soldados de 9 fueron asesinados y las personas de 14 recibieron varias lesiones. El culpable de la tragedia fue el cañón antiaéreo automático de la producción suizo-alemana Oerlikon GDF-005. Esta pistola está equipada con radares activos y pasivos, un sistema de designación de objetivos con láser y puede disparar a objetivos de vuelo rápido y rápido, como helicópteros, aviones, misiles de crucero y UAV. En el modo automático, se utilizan dos pistolas de disparo rápido 35-mm.
Durante el ejercicio, esta instalación falló varias veces hasta que se decidió repararla manualmente con un cable y sujetadores metálicos. Pero en algún momento, los sujetadores no pudieron soportarlo, y los barriles de instalación comenzaron a enviar carcasas de medio kilogramo hacia la derecha y hacia la izquierda. El arma fue silenciada, solo habiendo gastado todas las municiones - carcasas 500. Luego, el general de brigada Quen Mangop, un representante del ejército sudafricano, dijo que las razones del fracaso seguían siendo desconocidas. Según él, tal vez el problema podría tener una naturaleza mecánica. Sin embargo, varios expertos señalaron un mal funcionamiento de la computadora, en este caso no es posible establecer la causa de la tragedia.
Todo esto parece aún más deprimente en el contexto de informes cada vez más frecuentes sobre la creación de otro robot de combate. No hace mucho tiempo, la Fuerza Aérea de EE. UU. realizó vuelos de prueba de un ataque zumbido X-47B, despegando de la cubierta de un portaaviones y capaz de realizar una misión de combate sin asistencia humana. Al mismo tiempo, los sistemas de misiles de defensa aérea tipo Patriot existen desde hace bastante tiempo, que pueden reconocer el objetivo y abrir fuego en modo completamente automático. Para crear un vehículo de combate completamente autónomo, solo quedan unos pocos pasos por hacer. Tales robots podrían hacerse cargo de muchas funciones humanas, cambiando para siempre la forma en que pensamos sobre la guerra.
Actualmente, el laboratorio del Instituto de Tecnología de Atlanta, el profesor Henrik Christensen, está probando un robot diseñado para encontrar a los insurgentes que operan con métodos de guerrilla. Estos estudios son financiados por la reconocida corporación de defensa BAE. El objetivo principal de este proyecto es crear un robot que sea capaz de realizar un estudio del terreno en el que se ha refugiado el enemigo, ubicar las ubicaciones de su posible ubicación en el mapa y recopilar otra información que ayude a planificar las operaciones militares. Tales robots no portan armas, su objetivo principal es recopilar información de inteligencia.
El futuro experto en tecnología militar Pete Singer, que trabaja en la Brookings Institution en Washington, cree que la aparición de robots de combate en el campo de batalla planteará muchas preguntas fundamentales. Periódicamente en historias el equipo militar llega un momento en que hay algo que conduce a un cambio completo en la situación, señala el experto. Por ejemplo, ya fue con la invención de la pólvora, la aparición de una ametralladora, un arma nuclear. armascomputadoras La lucha contra los robots también puede ser una tecnología revolucionaria. Sin embargo, su apariencia no significa que todo vaya a cambiar, desde tácticas de combate a cuestiones de derecho, ética y política.
La estadounidense Jody Williams, quien ganó el Premio Nobel de la Paz en 1997 por organizar una campaña a favor de prohibir las minas antipersonales, cree que los robots de combate que se están creando pueden eventualmente convertirse en un arma mortal. Según ella, los términos neutrales para el oído humano como "sistemas de combate autónomos" son bastante engañosos. Según ella, es más lógico llamarlos robots asesinos, ya que su principal tarea es matar personas.
Al mismo tiempo, Ronald Arkin, profesor del Instituto de Tecnología de Atlanta, piensa lo contrario. Arkin es el autor del concepto del sistema de combate, que está controlado por el llamado controlador ético. Dichos robots de combate están programados para seguir las reglas de participación y los principios del derecho internacional. Según Ronald Arkin, todos gritan y se horrorizan: “¡Los robots son villanos, los robots son asesinos!”. Pero en la actualidad, las personas que actúan en el campo de batalla hacen cosas terribles. La rigidez era la compañera de todas las guerras en el planeta, dijo el profesor. Arkin cree que el uso de medios técnicos reducirá el número de pérdidas entre la población civil, que se encuentra en la zona de conflicto.
Actualmente, además de los Estados Unidos, los países de 76 de todo el mundo tienen sus propios programas para crear robots de combate, dijo el científico. Hoy en día, por un par de cientos de dólares, ya es posible comprar un UAV, que 2 ya había sido clasificado hace un año. Estas tecnologías se están difundiendo con bastante rapidez y en una escala global. Un ejemplo de esto es el uso de vehículos aéreos no tripulados (UAV, por sus siglas en inglés), que se usan para entregar ataques puntuales en objetos previamente seleccionados, incluidas las personas. Actualmente, el uso de aparatos de percusión no tripulados en Afganistán y Pakistán ya está causando un debate en la comunidad global. Con la proliferación de robots de combate, tales debates se convertirán inevitablemente en el área de los principios éticos de su uso.
¿Entonces tal vez los robots de combate no son necesarios? ¿Para qué se producen? El hecho es que con el advenimiento de los ejércitos de masas, la efectividad de las acciones de un soldado individual se desplomó. Los soldados de algún regimiento 5-Este de Siberia durante la guerra ruso-japonesa, sosteniendo a Jingzhou, golpearon al enemigo aproximadamente 1 veces desde varias docenas de disparos de rifle. Al mismo tiempo, ya en la Primera y Segunda Guerra Mundial, el número promedio de disparos por golpe aumentó a 10 000 - 50 000. Si es bastante simple, la mayoría de los soldados en los ejércitos de masas simplemente no sabían cómo disparar, y más del 95% de los comandantes de los ejércitos principales del mundo nunca vieron a sus subordinados usar las miras de sus rifles.
Una situación similar comenzó a observarse en la artillería y otros tipos de tropas. Así que en el frente oriental, por cada soldado de la Wehrmacht de la URSS muerto, se gastaron cerca de proyectiles y minas de artillería 100. Con la misma "eficiencia", el personal militar estadounidense eliminó sus municiones durante la Segunda Guerra Mundial y durante la Guerra de Vietnam. El crecimiento numérico de los soldados y el rápido progreso de la tecnología militar en el siglo veinte estuvo acompañado por una disminución en el entrenamiento de aquellos a quienes se confiaba con esta arma.
Al mismo tiempo, los robots de combate autónomos ya están disparando, así como el software, el clima y las armas lo permiten. Y esto significa que su participación en las hostilidades, después de la finalización del desarrollo de software, dará lugar a grandes pérdidas de personal del lado que se verá privado de tales robots. Presentar el resultado de tal confrontación es bastante fácil. Si ahora los ejércitos de los países occidentales no pueden permanecer en Irak o Afganistán durante mucho tiempo, ya que su liderazgo político abandonará miserablemente sus puestos con importantes pérdidas en combate, luego de la introducción de los robots de combate, la permanencia de las tropas de ocupación en varias regiones del mundo prácticamente ilimitado Las víctimas de los países cuyos ejércitos están equipados con tales robots casi dejarán de ser combatientes, serán comparables solo con la cantidad de cadáveres dejados por los ataques, la única arma que queda en manos de los militantes.
Fuentes de información:
-http: //compulenta.computerra.ru/tehnika/robotics/10006881
-http: //www.popmech.ru/article/2570-kosilschik
-http: //slon.ru/future/roboty_ubiytsy_mogut_izmenit_oblik_budushchikh_voyn-916543.xhtml
-http: //www.popmech.ru/article/13058-terminatorov-zapretyat
información