Mañana y al día siguiente luchando contra los robots.
La robótica es actualmente una de las ramas más prometedoras de la tecnología militar. Hasta la fecha, ya se han creado dispositivos automatizados capaces de realizar diversas tareas. Es cierto que los aviones y helicópteros no tripulados actuales, así como los vehículos terrestres, a pesar de todas sus capacidades, todavía no pueden funcionar de forma completamente autónoma. En la mayoría de los casos, la autonomía se limita a algunas acciones que no requieren, como suele decirse, de una gran inteligencia: desplazarse hasta un punto determinado, rastrear el espacio, buscar objetos que destaquen sobre el fondo general, etc. En cuanto a las decisiones sobre los waypoints o sobre el ataque a un objetivo detectado, aún las toma el operador del sistema, es decir, hombre. Operación totalmente automática de los militares. robots hasta ahora sigue siendo "propiedad" de la ciencia ficción, y los científicos e ingenieros recién ahora están dando los primeros pasos seguros en esta área. El desarrollo de tecnologías robóticas puede afectar no solo las capacidades de los sistemas automatizados, sino también otros aspectos de la sociedad humana.
En ciencia ficción, a menudo se considera la cuestión seria de la interacción de un hombre y un robot que posee inteligencia artificial de uno u otro nivel. La situación actual sugiere una transición gradual de este problema a la vida real. Por esta razón, ya algunas personas y organizaciones públicas están tratando de predecir nuevos desarrollos y, si es posible, tomar las medidas apropiadas. No hace mucho, la organización de derechos humanos Human Rights Watch (HRW) publicó un informe sobre este tema. El trabajo de Perder Humanity: The Case Against Killer Robots (“Perder Humanity: Arguments Against Killer Robots”) analiza las posibilidades de utilizar robots de combate totalmente autónomos, así como los problemas que, según los autores del informe, surgirán necesariamente cuando se operen en situaciones de conflicto real. . Además, el informe analiza algunos de los aspectos legales de dicho "progreso".
En primer lugar, los autores del informe "La humanidad perdida" notaron el hecho de que todos los robots existentes son, hasta cierto punto, autónomos, solo que el nivel de esta independencia es diferente. Por lo tanto, todos los robots con posibilidades de trabajo independiente, incluido el combate, se dividen convencionalmente en tres grupos: humano en el bucle (la persona en el sistema de control), humano en el bucle (la persona sobre el sistema) y humano fuera del bucle (la persona fuera del sistema gestión). En el contexto de los robots de combate, esta división implica los siguientes algoritmos de trabajo y niveles de autonomía: si el operador humano "está" en el sistema de control, el robot encuentra los objetivos de forma independiente y la persona da la orden de destruirlos. Otros dos tipos de robots de combate pueden tomar sus propias decisiones y atacar, pero el concepto de humano en el bucle implica la posibilidad de control de la persona y permite a este último en cualquier momento ajustar las acciones del robot a su discreción. Los robots humanos fuera del circuito son completamente independientes y no requieren ningún control humano.
Según los empleados de HRW, la tercera categoría de robots, completamente autónomos y no controlados por humanos, será el mayor peligro en el futuro. Además de los problemas técnicos y morales, se mencionan los problemas legales relacionados. Entre otras cosas, en el caso de un cierto desarrollo de eventos, tales vehículos de combate pueden afectar en gran medida la apariencia de las hostilidades, incluida la violación de acuerdos internacionales básicos. En primer lugar, los empleados de Human Rights Watch apelan a los Convenios de Ginebra, y más específicamente a la parte que obliga a los desarrolladores armas Compruébelo para la seguridad de los civiles. HRW cree que los fabricantes de equipos robóticos de combate no están interesados en este problema y no llevan a cabo ningún control, lo que supondría pérdidas para la población civil.
Como requisito principal para los riesgos asociados con el uso de sistemas de combate robóticos, los empleados de HRW consideran el nivel insuficiente de desarrollo de robots prometedores. En su opinión, un robot de combate, a diferencia de un ser humano, no podrá distinguir de manera segura un combatiente enemigo de un civil o un enemigo que se resiste activamente de un herido o prisionero. Por lo tanto, los riesgos de que los robots simplemente no tomen prisioneros y comiencen a terminar con los heridos son demasiado grandes. Los autores del informe, aparentemente, no se adhieren a la mejor opinión acerca de las capacidades de los futuros robots y creen que los sistemas de combate prometedores no podrán distinguir a un adversario armado y activamente de un civil inocente o agresivo en su apariencia y comportamiento. Además, los expertos en derechos humanos niegan al futuro de los robots la capacidad de predecir el comportamiento del enemigo. En otras palabras, una situación es posible cuando un soldado enemigo que quiere rendirse, levanta o suelta su arma, va a encontrarse con el robot, lo malinterpretará y lo atacará.
Human Rights Watch, consecuencia directa de la falta de rasgos humanos y peligrosa, considera la posibilidad de utilizar robots en las operaciones para reprimir las libertades y los derechos humanos de las personas. Los activistas de derechos humanos consideran a las "máquinas sin alma" una herramienta ideal para reprimir disturbios, represiones, etc., porque, a diferencia de un ser humano, un robot no discutirá una orden y ejecutará todo lo que se le indique.
HRW teme que un rasgo característico de los robots de combate sin control humano sea la ausencia de responsabilidad por sus acciones. Si el operador del control remoto zumbido golpeado contra civiles, entonces se le pedirá que lo haga. Si un robot comete tal crimen, entonces no habrá nadie a quien castigar. El robot en sí no es un ser racional capaz de comprender la esencia del castigo y corregirse a sí mismo, y según los empleados de HRW, no tiene sentido aplicar sanciones contra los militares que lo enviaron en una misión, así como castigar a los desarrolladores de la hardware y software del robot. Como resultado, los robots pueden convertirse en una excelente herramienta para resolver misiones de combate de la manera más vil: con la ayuda de crímenes de guerra. En este caso, todos los hechos revelados pueden ser atribuidos a un diseño defectuoso o falla del software, y probar la culpabilidad de personas específicas será casi imposible. Así, lo que temen los activistas de derechos humanos, nadie será castigado por los delitos.
Debido a los altos riesgos, Human Rights Watch insta a los países a abandonar el desarrollo de robots de combate totalmente autónomos y a prohibir este tipo de equipo a nivel legislativo. En cuanto a los conceptos de humano en el bucle y humano en el bucle, el desarrollo de tales sistemas debe ser monitoreado y verificado para cumplir con los estándares internacionales. Es decir todas las decisiones responsables siempre deben ser tomadas por una persona que tenga los conocimientos y tolerancias adecuados, pero no de forma automática.
A juzgar por las tendencias actuales, no todos los países líderes están totalmente de acuerdo con el informe de HRW. Por ahora, los requisitos previos se han formado no solo para la creación, sino también para el uso activo de los sistemas más automatizados. Además, en varios casos, su aplicación no solo no contradice el derecho internacional humanitario, sino que incluso en cierto sentido ayuda a cumplir con sus normas. Un ejemplo de este tipo de trabajo es el Iron Dome, un sistema de defensa de misiles israelí. Dado que este complejo está diseñado para interceptar misiles de corto alcance no guiados, los algoritmos de su operación están diseñados de tal manera que la mayoría de las operaciones se realizan automáticamente. Además, con el comando apropiado de los operadores, es posible llevar a cabo automáticamente todo el ciclo de intercepción, desde la detección de un cohete enemigo hasta el lanzamiento de antimisiles. Gracias a esto, es posible destruir a los enemigos Qassams antes de que alcancen los asentamientos. Como resultado del uso de un robot virtualmente autónomo, Israel logra preservar las vidas y la salud de sus ciudadanos y también ahorrar en la restauración de edificios destruidos.
El segundo argumento a favor de continuar el desarrollo de "soldados" automatizados también tiene requisitos humanitarios. El uso de una gran cantidad de robots de combate terrestre permitirá abandonar a los luchadores vivos y salvar sus vidas. Si el robot se daña en una batalla, entonces puede repararse o cancelarse rápidamente por chatarra y reemplazarlo por uno nuevo completamente similar al anterior. Sí, y para producir tal técnica por órdenes de magnitud más fácil y más barata que criar y entrenar soldados. Obviamente, el robot puede recuperarse en la batalla poco después del ensamblaje, y un hombre después del nacimiento necesita crecer, aprender habilidades básicas, aprender mucha información y habilidades diversas, y solo así puede aprender asuntos militares. Por lo tanto, el uso generalizado de robots de combate ayudará a reducir la pérdida de mano de obra. Además, para mantener una flota suficientemente grande de "soldados" robóticos se necesitará un número relativamente pequeño de operadores, mecánicos, etc. Entonces, con respecto a la sustitución de soldados vivos por mecánicos mecánicos, la ganancia es doble: se salvan vidas y se ahorra dinero.
En cuanto a los temores de los defensores de los derechos humanos con respecto a la excesiva independencia de los robots de combate de los países líderes, hace tiempo que se ha preparado una respuesta. Por ejemplo, hace un par de años, los Estados Unidos publicaron su estrategia para desarrollar sistemas militares automatizados hasta 2036. Los estadounidenses desarrollarán la primera llamada. Sistemas independientes controlados. Es decir Vehículos de combate con la capacidad de trabajar de forma autónoma, pero sin el derecho de tomar decisiones serias. En el futuro, está previsto poner en funcionamiento las fuerzas armadas y las máquinas totalmente autónomas; sin embargo, los primeros prototipos de dicha tecnología, capaces de asumir verdaderamente los deberes de una persona, aparecerán no antes del 2020 del año. Por lo tanto, durante los próximos años o incluso décadas en el campo de batalla, no aparecerá una gran cantidad de robots totalmente automáticos que no conocen la compasión ni la misericordia y solo pueden realizar órdenes. Todas las decisiones importantes siguen siendo responsabilidad de una persona.
Con respecto a dar a los robots una mayor autonomía, debemos recordar una opinión bastante interesante. Sus partidarios creen que es el hombre el que debería ser excluido de los sistemas de combate, y no el hardware automatizado. Como prueba de esta tesis, se citan los "defectos de diseño" de las personas vivas. El operador que controla el robot de combate, incluido el control total de todas sus acciones, puede enfermarse, cometer un error o incluso dar un paso criminal de forma consciente. Según este punto de vista, el "eslabón débil" del complejo de combate robótico es precisamente un operador humano vivo, totalmente compatible con el proverbio latino sobre los errores humanos.
Por supuesto, en la actualidad, por razones obvias, ambos puntos de vista tienen derecho a la vida: ofrecen no dar a los robots la libertad de acción y hablan de la necesidad de eliminar a una persona del sistema. Ambas opiniones tienen sus ventajas y desventajas. Es poco probable que el debate pronto deje de identificar el concepto más prometedor y viable de usar robots de combate. Es posible descubrir quién tiene la razón, solo de una manera: esperar más eventos en el desarrollo de la robótica de combate. Es poco probable que los militares de los países líderes del mundo comiencen a elegir una manera difícil y no rentable de desarrollar una dirección prometedora. Sin embargo, ahora es bastante difícil sacar conclusiones. Lo más probable es que la tendencia actual continúe en los próximos años. El equipo autónomo controlado de forma remota y limitada continuará su desarrollo y se utilizará activamente en la práctica. Mientras tanto, se crearán complejos hardware-software radicalmente nuevos en los laboratorios que pueden actuar de forma completamente independiente. El estado actual de estos proyectos sugiere que en los próximos años las personas continuarán asumiendo la plena responsabilidad de las acciones de los robots, mientras que los problemas descritos en el informe de Human Rights Watch seguirán siendo un tema de interés para los defensores de los derechos humanos, los escritores de ciencia ficción y los científicos.
En los materiales de los sitios:
http://hrw.org/
http://lenta.ru/
http://mport.bigmir.net/
http://ria.ru/
http://bbc.co.uk/
información