El peligro de la inteligencia artificial en los sistemas de armas.
Mientras que los sistemas automáticos son limitados, y las decisiones sobre la aplicación. armas acepta a la persona. La IA debe impedir por completo que una persona tome una decisión y, al mismo tiempo, salvar la vida y la salud de los militares. Hay una gran cantidad de posibilidades para el uso de armas con IA. Estos son barcos lanzamisiles y vehículos blindados, y dronescapaz de encontrar y destruir objetivos de forma independiente. Con la ayuda de la IA, puede combinar una gran cantidad de drones en un "enjambre" controlado para llevar a cabo un ataque masivo. Estos son comunicaciones militares y sistemas de posicionamiento global con la designación de coordenadas de objetivos y la llamada de activos de ataque.
Incluso más oportunidades para la IA en el espacio. Será posible crear agrupaciones de satélites de seguimiento que no necesitan supervisión y comandos constantes de los centros de control en la Tierra.
A este respecto, surgen las siguientes preguntas: ¿Los “cerebros” artificiales causarán un golpe a sus propios soldados? ¿O qué sucede si los hackers piratean el vehículo de combate con inteligencia artificial, lo deshabilitan y lo redireccionan contra sus propios objetos civiles y militares?
Como explican los desarrolladores, la solución al problema se suma a la inteligencia artificial de una computadora simple basada en procesadores convencionales, que controlará y limitará las acciones de la inteligencia artificial. Los piratas informáticos no lograrán piratear la IA, ya que, a diferencia de la inteligencia informática, la inteligencia artificial genera algoritmos de comportamiento por sí misma de forma independiente y utiliza cadenas de conexiones que surgen instantáneamente y se desintegran inmediatamente.
Es importante tener en cuenta que la inteligencia artificial, a diferencia de una supercomputadora, opera de acuerdo con algoritmos y principios completamente diferentes. Y, sin embargo, las especulaciones sobre el levantamiento de las máquinas y el ejército "robotsasesinos" son el reino de la no ciencia ficción.
Aún no se resuelve la tarea principal: cómo crear la misma inteligencia artificial, que será comparable al cerebro humano, pero al mismo tiempo "no toma la iniciativa" de la persona.
En este caso, vale la pena prestar atención a los problemas técnicos que surgen incluso antes de la introducción de una IA completa, incluso en la esfera civil.
Un ejemplo es un accidente de avión. Boeing-737 MAX 8 Aerolínea "Ethiopian Airlines". Los expertos señalan que estos aviones, incluso después del desastre del año pasado en Indonesia, tuvieron problemas con la "obediencia" de la electrónica de a bordo. El sistema de piloto automático interceptó el control de los pilotos durante el vuelo. La compañía estadounidense guardó silencio sobre este problema, pero el segundo choque con la aeronave del mismo modelo durante varios meses obligó a admitir que los sistemas a bordo a menudo no ayudaban al piloto, sino que actuaban en contra de sus "órdenes".
Lo que garantiza que la inteligencia artificial en armamentos en el nivel actual de tecnología no podrá "apoderarse del control" de una persona es un tema importante para quienes están involucrados en este campo.
información