Military Review

La tercera revolución militar: la inteligencia artificial no debe estar armada

72

Fuente: armflot.ru


La principal tendencia del siglo XXI


A pesar de toda la ambigüedad del término "inteligencia artificial" (en adelante, IA), se han creado durante mucho tiempo todos los requisitos previos para el surgimiento de sistemas de combate altamente productivos y de autoaprendizaje en los ejércitos del mundo.

Si la IA no existiera, aún tendría que inventarse. Ahora, en casi todas las esferas de la vida humana, se genera una cantidad gigantesca de información cada segundo, que simplemente no hay nada que procesar.

Y los asuntos militares están lejos de ser una excepción: basta recordar el conflicto de Nagorno-Karabaj para comprender la verdadera escala del contenido de información de las operaciones militares.

El flujo de datos de foto, video y radar, así como los mensajes de audio y texto, se convierte en la corriente principal del campo. Solo ahora podemos reformular la conocida expresión

"Quién es dueño de la información es dueño del mundo"

en moderno

"Quien puede analizar rápidamente la información es dueño del mundo".

Y para el procesamiento operativo de "big data" (o big data), se requieren tecnologías muy serias. Como redes neuronales artificiales capaces de autoaprendizaje sin la intervención del operador. Una ventaja importante de las redes neuronales es la capacidad de identificar patrones basados ​​en datos que no están presentes en el código de entrenamiento original.

Para los militares, la capacidad potencial de la IA para trabajar con datos incompletos, "ruidosos" o distorsionados es de particular importancia. Es por eso que las redes neuronales de aprendizaje profundo ahora están esperando a la vista los sistemas de inteligencia para analizar rápidamente materiales de video y fotografía. Como se señaló en los departamentos militares, las tareas que tomaron meses de trabajo de decenas de decodificadores pueden ser resueltas por IA en segundos.


Fuente: i.pinimg.com

Sin embargo, un simple análisis de conjuntos de datos incluso ahora parece insuficiente para las operaciones militares: requiere

"Previsión de posibles acciones"

и

"Predicción de respuestas"

objetivo potencial.

Sobre la base de estas "conclusiones", el operador tomará la decisión de abrir fuego. Esto acelerará seriamente el curso de las operaciones ofensivas.

Por ejemplo, hace unos años, durante la Operación Libertad Duradera, el dron MQ-1 Predator entró en un convoy de equipo enemigo. Pero mientras el operador evaluaba la afiliación y decidía lanzar el cohete, el equipo abandonó la zona afectada. Y este está lejos de ser el único ejemplo.

El uso de IA en este caso permitiría hacer rápidamente un pronóstico sobre las perspectivas y el momento del ataque. Pero también hay trampas aquí.

El Comité de la Cruz Roja está seriamente preocupado por la introducción de la IA en los vehículos no tripulados y (lo más importante) el nivel de confianza humana en ella. Por ejemplo, ¿se puede identificar de manera confiable a una persona que excava cerca de una carretera como operador de un dispositivo explosivo improvisado basándose únicamente en el análisis de la señal de video mediante redes neuronales?

Hoy en día, los operadores de drones de choque a menudo desconocen la realidad de lo que está sucediendo en el campo de batalla (mentalidad de Playstation). ¿Y si la IA los ayudará en esto?

La tarea de destrucción ya notablemente simplificada será aún más fácil de ejecutar.

¡Automatizarlo!


Los desafíos tecnológicos y estratégicos están obligando a las potencias mundiales a trasladar gradualmente sus ejércitos a los rieles de la robótica.

Por ejemplo, en los Estados Unidos, la "Tercera Estrategia de Compensación" promete convertir a los militares en un ejército de robots en treinta años. Y en diez años en el Pentágono, uno de cada tres aviones no estará tripulado.

Rusia también está tratando de mantenerse al día. Y en los próximos años, planean aceptar en el ejército varias docenas de nuevos tipos de armas controladas a distancia. Sin embargo, ni Estados Unidos ni Rusia todavía carecen de sistemas completos de reconocimiento y ataque controlados por IA. Esto se debe en gran parte a la crisis de responsabilidad. Si los errores del primer tipo, es decir, los ataques incorrectamente cancelados al enemigo, aún pueden ser soportados de alguna manera, entonces con los errores del segundo tipo todo es mucho más complicado. En el último caso, el vehículo decide hacer "fuego amigo" o destruye civiles, es decir, comete un crimen de guerra.


Fuente: popmeh.ru

En esta situación, no está completamente claro quién es el responsable de tal acto: el desarrollador de software o el comandante que dio la orden de usar el sistema.

Una situación similar existe en la industria automotriz, que ha estado soñando con drones totalmente autónomos durante varias décadas. Incluso se desarrolló una clasificación de niveles de automatización, que es bastante aplicable al ámbito militar.

En el nivel cero, el automóvil es un UAZ-496 condicional, en el que todo está bajo el control del conductor y no hay asistentes mecatrónicos: ESP, ABS, etc.

En el quinto nivel más alto, un dron con ruedas incluso carece de volante (o está instalado como una opción paga). Y en todas las situaciones, el movimiento está controlado por el piloto automático. Actualmente, solo la japonesa Honda ha podido certificar un piloto automático en serie de nivel XNUMX.

Esta técnica de "automatización condicional" no es capaz de asumir el control en una situación peligrosa. Y en condiciones normales no siempre funciona. El sistema Traffic Jam Pilot pilota automáticamente el coche en atascos, lo mantiene dentro del carril de la autopista y realiza adelantamientos. Puede quitar las manos del volante, pero no puede apartar la vista de la carretera: las cámaras están mirando. El piloto automático de tercer nivel es muy caro y aumenta el costo total del automóvil en una vez y media.

Debe recordarse que los pilotos automáticos ya se pueden implementar completamente en la producción en masa. Y realmente reducirán seriamente las muertes por accidentes de tránsito. Pero los problemas legales y éticos de los errores (incluidos los fatales) de la IA paralizaron a las empresas de automóviles.

La IA no debería estar armada


En el ámbito militar, la situación con el desarrollo de sistemas de combate totalmente autónomos también está lejos de ser ideal.

Y ni siquiera es el aspecto técnico del problema.

Por un lado, los expertos escépticos señalan la capacidad potencial de los sistemas de autoaprendizaje basados ​​en redes neuronales para realizar ataques preventivos. Por ejemplo, la IA verá una vulnerabilidad real o percibida en el enemigo: ¿por qué no es esta una razón para lanzar el primer ataque de desarme? Además de esto, todos los "cerebros artificiales" son propensos a la competencia y la falta de elementos de pensamiento crítico, lo que tampoco agrega credibilidad por parte de la persona.

Los analistas de la Corporación RAND, en general, instan en ningún caso a confiar las decisiones estratégicas militares a la inteligencia artificial, ni en el presente ni en el futuro. Si bien todavía es posible aguantar a varios no combatientes destruidos por error por la IA, todo será mucho más trágico cuando se aplique a las fuerzas de disuasión nuclear.

No todo es tan sencillo con lo operativo-táctico armas Controlado por IA.

Volvamos a las imágenes de Nagorno-Karabaj, que ilustran claramente la superioridad técnica de los drones de choque sobre las armas tradicionales. Aquí todos entendieron que en el cielo solo había máquinas controladas a distancia, aunque muy perfectas.

¿Cuál sería la reacción del público si las huelgas fueran realizadas por Bayraktar totalmente autónomo?

¿Cuándo viviría la IA para que el mundo entero matara personas, aunque fuera con armas en la mano?

El lado moral del problema aún no se ha resuelto aquí. Y es poco probable que se resuelva en un futuro próximo.

La tercera revolución militar: la inteligencia artificial no debe estar armada
Fuente: mil.ru

En general, los robots del ejército son, por supuesto, buenos.

Te permiten retirar a los soldados del fuego directo del enemigo, transfiriendo todo el trabajo a unidades de combate controladas a distancia. Se reducen las pérdidas y los costes. Y la guerra parece volverse más humana.

Los robots totalmente autónomos en la esfera militar o el sistema de armas autónomas letales no tienen nada que ver con la humanidad y la reducción de pérdidas. Las redes neuronales de aprendizaje profundo hacen que la guerra sea mucho más rápida y costosa. En realidad, esto es exactamente lo que aseguraron las dos revoluciones militares anteriores en asuntos militares: la pólvora y la nuclear.

Esto es entendido por muchas corporaciones civiles involucradas con el estado en proyectos de defensa.

Por lo tanto, Google en 2018 se retiró del extremadamente rentable proyecto Maven por valor de más de $ 7,5 mil millones. Especialistas de Silicon Valley, junto con DARPA, trabajaron en un programa para procesar matrices de videos y fotos de información de numerosos drones de reconocimiento. Los datos fueron procesados ​​por una red neuronal. Y le dio al operador una "biblioteca de objetivos" en orden de prioridad para su destrucción. Google salió historias... Y ahora DARPA está tratando de arreglárselas por su cuenta.

Un aspecto importante de la IA en el ejército es su uso en la guerra de información.

Podemos decir con cierto grado de confianza que en un futuro muy cercano, más revelaciones de Rusia y (en mayor medida) China en el desarrollo de una inteligencia artificial de combate simplemente saldrán de los Estados Unidos. Si no es posible convencer al público dentro del país de la necesidad de una mente militar autónoma, entonces asustaremos con enemigos externos. El Pentágono ha sido famoso por esta lógica desde la antigüedad. Dicen que ya están trabajando en IA en su totalidad, y aquí no podemos hacer frente a nuestra propia moralidad.

Y finalmente, las respuestas asimétricas a las amenazas de la IA de combate parecen bastante prometedoras. Hoy en día, las tecnologías para enmascarar objetos del ojo que todo lo ve de la inteligencia artificial e incluso el engaño deliberado están ganando fuerza.

Hasta ahora, la IA funciona bastante bien en condiciones pacíficas, cuando la información se sirve en bandeja de plata.

Es muy difícil funcionar con datos incompletos y ruidosos. Por lo tanto, los intentos de engañar a la inteligencia artificial con datos corregidos deliberadamente parecen bastante lógicos. Cuando el tiempo de respuesta de una IA armada se calcula en segundos y no depende de la opinión de una persona, dicha información errónea puede llevar a consecuencias difíciles de predecir.

Es mejor cancelar la tercera revolución militar, de manera amistosa.

O desarrollar medidas restrictivas conjuntas para el desarrollo y uso de la IA en el ámbito militar. ¿Pudiste hacer algo similar en el caso de las armas nucleares?
autor:
72 comentarios
información
Estimado lector, para dejar comentarios sobre la publicación, usted debe login.
  1. Intruso
    Intruso 18 marzo 2021 03: 42
    +2
    Hmm, presentación interesante !!! El autor necesita hacer una continuación ... (¡y un pequeño goteo a un lado, especialmente en el campo de los algoritmos neuronales y el aprendizaje automático, para completar el cuadro con aspectos de la IA)!
    1. Tio lee
      Tio lee 18 marzo 2021 04: 52
      +1
      La IA no debería estar armada
      ¡De lo contrario, vendrá Skynet!
      1. Intruso
        Intruso 18 marzo 2021 05: 06
        +3
        ¡De lo contrario, vendrá Skynet!
        ya, la optimización de la gestión de enjambres con selección configurable y prioridades para atacar múltiples objetivos, los algoritmos neuromórficos flexibles hacen lo mejor con estas cosas, y el aprendizaje automático los complementa de manera simple, además, puede copiarlos en soluciones masivas en el futuro con la venta de versiones de software. y suscripciones para actualizaciones, para clientes: ¡un operador de armas en el mercado! Monetización óptima, con una constante modernización durante el ciclo de vida del propio producto y un largo período de soporte, como ahora hacen con los dispositivos de firmware de fábrica, y nadie se molesta, con el potencial desarrollo de este a Skynet, elogiado en los medios. , la robótica industrial más barata gana para los empleados "orgánicos" que han reducido ligeramente su eficiencia laboral el año pasado, de alguna manera de repente ...!? guiñó un ojo
    2. Winnie76
      Winnie76 18 marzo 2021 12: 04
      +1
      Cita: Intruso
      y gotear un poco hacia un lado,

      Me da miedo incluso preguntar de qué producto gotearemos riendo
      Cita: Intruso
      especialmente en el campo de los algoritmos neuronales y el aprendizaje automático, para completar los aspectos de la IA).

      El algoritmo es simple. La palabra de prueba se llama. En tu caso, la `` mancha '' es obvia
      1. Intruso
        Intruso 18 marzo 2021 13: 24
        +1
        En tu caso, la `` mancha '' es obvia
        lo más probable es que no en mi caso guiñó un ojo , autocorrección con corrector ortográfico a veces "vaporizado", en diferentes palabras rusas, en una aplicación en: macOS 11 Big Sur (con la última actualización: v.11.2.3).  solicitar
      2. dsk
        dsk 18 marzo 2021 13: 43
        0
        Cita: Winnie76
        El algoritmo es simple.
        Me las arreglé para hacer algo así en el caso con armas nucleares? Evgeny Fedorov.
        Los sismólogos pueden distinguir entre una prueba nuclear y un terremoto natural.
        Cómo y cómo controlar el uso de la IA en combate ...
        1. Intruso
          Intruso 18 marzo 2021 20: 40
          0
          Cómo y cómo controlar el uso de la IA en combate ...
          hasta ahora, solo otro "EI", con tirantes y frente al monitor del terminal de mando y control !!!
  2. Chaqueta en stock
    Chaqueta en stock 18 marzo 2021 05: 11
    +3
    ¿Cuándo viviría la IA para que el mundo entero matara personas, aunque fuera con armas en la mano?

    El lado moral del problema todavía no se resuelve aquí.

    Aquellos. cuando otras personas matan a personas en el aire, ¿es esto normal desde el punto de vista moral?
    1. A. Privalov
      A. Privalov 18 marzo 2021 05: 44
      0
      Cita: Chaqueta en stock
      Aquellos. cuando otras personas matan a personas en el aire, ¿es esto normal desde el punto de vista moral?

      Por supuesto que no, pero aquí está, ¡hay un problema moral! Somos simplemente gente moderna, "cargados" con una comprensión moderna de la moralidad. Y esto es bueno. hi
      1. dsk
        dsk 18 marzo 2021 18: 56
        0
        Cita: A. Privalov
        Y eso es bueno

        ¡Hola profesor! Por supuesto que es bueno, pero la IA elimina esta "carga". Los robots serán extremos, ¿qué te llevarás con desalmado "piezas de hierro" ...
        1. A. Privalov
          A. Privalov 18 marzo 2021 20: 33
          +4
          Y a ti, hola. hi
          No soy profesor, solo profesor asistente.

          No hay demanda de una pieza de hierro. Los pedacitos de hierro no tienen vergüenza. Aquellos que, sin motivos serios, decidan utilizarlos, se llevarán la culpa. Es solo hoy, mientras que la humanidad, que no tiene experiencia en el uso de armas de este tipo, compone un dulce cuento de hadas para sí misma. Con el tiempo, todo se calmará. Quizás algunas cosas estén prohibidas, tan inhumanas, como una vez que el combate VO. Tal vez algo sea limitado, por ejemplo, los robots realizarán entrenamiento y la decisión de abrir fuego contra las personas la tomará una persona. etc. De todos modos, habrá errores, surgirán todo tipo de colisiones legales y filosóficas. Solo podemos esperar que la humanidad con IA no caiga en algún tipo de trampa, sobre la que los escritores de ciencia ficción han escrito mucho.
    2. Intruso
      Intruso 18 marzo 2021 20: 43
      0
      Aquellos. cuando otras personas matan a personas en el aire, ¿es esto normal desde el punto de vista moral?
      esto no es normal, en su esencia, pero muchas veces es necesario "forzar la paz" y hacer un trabajo sucio y sangriento, para que: "la ciudad amada pueda dormir tranquila ...", y quien piensa diferente, los que después de las pruebas psicológicas no tome en "partes y puntos fuertes interesantes" ... riendo guiño
    3. Ícaro
      Ícaro 19 marzo 2021 23: 05
      0
      Cita: Chaqueta en stock
      ¿Cuándo viviría la IA para que el mundo entero matara personas, aunque fuera con armas en la mano?

      El lado moral del problema todavía no se resuelve aquí.

      Aquellos. cuando otras personas matan a personas en el aire, ¿es esto normal desde el punto de vista moral?

      Por supuesto, esto no es normal si no fue en defensa propia o acción militar, cuando matar está permitido desde el punto de vista moral. Pero, en primer lugar, el asesino (si está cuerdo) comprende que la responsabilidad puede venir, en este mundo (antes que la sociedad o antes que él mismo) o en otro mundo, quizás - ante Dios, y en segundo lugar, el asesino tiene un riesgo, que el " víctima "también puede matar al asesino. Todos estos son factores limitantes. Y quienes buscan en línea también comprenden que es probable que el asesino sea castigado (incluso si está loco). Si el asesino es AI, en primer lugar, no hay factores coactivas especificados, y en segundo lugar, los espectadores en línea también entienden que un acto se está llevando a cabo con impunidad ante la humanidad, pero al mismo tiempo es deliberado, es decir, el asesinato de persona es consciente (no un meteorito) e impune ... El valor de la vida humana, a los ojos de las personas mismas, se está perdiendo gradualmente. Por tanto, la moralidad cambia. Todos entenderemos que hay una entidad que decide con quién vivir y quién no, a su discreción y según sus propias reglas, que puede cambiar a su discreción (la IA se autodesarrolla). Y, en general, no está claro si una IA, habiendo recibido la tarea de matar personas (que no tiene una prohibición programada de matar a una persona), es capaz de salvar a una víctima humana, por ejemplo, una rendición. Estas están lejos de todas las preguntas sobre el uso de la IA como arma para matar personas.
      En mi opinión, sería hora de que la ONU al menos designe una comisión para desarrollar reglas y normas (un robot o IA no debe tomar la decisión de matar a una persona sin la participación de otra persona) o establecer prohibiciones completas de IA como un arma para matar personas y otros seres vivos ...
  3. A. Privalov
    A. Privalov 18 marzo 2021 05: 31
    +4
    Y para el procesamiento operativo de "big data" (o big bata), se requieren tecnologías muy serias.
    Gran descargo de responsabilidad. Casi según Freud: "gran bata" - en filipino "niño grande".
    Por supuesto, la humanidad tendrá que resolver más problemas relacionados con la IA. La esfera militar es solo una de muchas. Además, no será posible limitarnos a algunas restricciones a medias. El progreso ya no se puede detener. "El caballo de hierro está reemplazando al caballo campesino" (c)
    ... En 1865, el Parlamento de Gran Bretaña aprobó una ley según la cual la velocidad de transporte se limitaba a 6 km / h, y una persona tenía que caminar delante del automóvil, ondeando una bandera roja. El último punto fue abolido en 1878. Según otras fuentes, la regla de la "bandera roja" fue cancelada solo en 1896, junto con un aumento en el límite de velocidad a 23 km / hy la abolición del requisito de una tripulación de tres personas (conductor, asistente y bombero) para vehículos ligeros (hasta 3 toneladas de peso en vacío) vehículos sin caballos, es decir, se reconoció legalmente la diferencia entre automóviles y locomotoras, lo que dio impulso al desarrollo de la industria automotriz británica. El límite de velocidad se elevó nuevamente en 1903, y las leyes de 1896 y 1903 finalmente se cancelaron en Gran Bretaña solo en 1930.
    1. Intruso
      Intruso 18 marzo 2021 13: 30
      +1
      Por supuesto, la humanidad tendrá que resolver más problemas relacionados con la IA.
      Eso sí, de lo contrario tendrá muchos momentos desagradables incluso en aplicaciones locales (conflicto armado, con restricciones en el uso de armas letales): ¡"trasero de bebé"! guiño
  4. tasha
    tasha 18 marzo 2021 05: 48
    +1
    Es mejor cancelar la tercera revolución militar, de manera amistosa.
    Sería bueno, pero ay ...
    O desarrollar medidas restrictivas conjuntas para el desarrollo y uso de la IA en el ámbito militar.
    Eso es poco probable. El desarrollo y la implementación de sistemas automatizados ofrece ventajas demasiado obvias. Y controlar los procesos de creación de IA es muchas veces más difícil que la creación y distribución de armas nucleares.
    Creo que en un futuro próximo no habrá acuerdos en esta dirección. Si Estados Unidos y Rusia aún no han firmado y ratificado el Tratado de Ottawa sobre Minas Antipersonal ...
  5. sergo1914
    sergo1914 18 marzo 2021 06: 19
    0
    Aristóteles tiene la culpa de todo. Todo comenzó con su silogística.
  6. parusnik
    parusnik 18 marzo 2021 06: 24
    + 12
    Los generales sonrieron con cansancio.
    Se miraron y soltaron un grito de alegría. Se ganó el Armagedón y las fuerzas de Satanás fueron derrotadas.
    Pero algo estaba sucediendo en sus pantallas de televisión.
    - ¡Cómo! Esto ... esto ... - comenzó el general McFee y guardó silencio.
    Porque a lo largo del campo de batalla, entre los montones de metal deformado y destrozado, Grace caminaba.
    Los generales guardaron silencio.
    Grace tocó el robot desfigurado.
    Y los robots se movieron por el desierto humeante. Se renovaron piezas de metal retorcidas, quemadas y fundidas.
    Y los robots se pusieron de pie.
    “McFee,” susurró el Comandante Supremo Vetterer. - Presione sobre algo - deje que ellos, o algo, se arrodillen.
    El general presionó, pero el control remoto no funcionó.
    Y los robots ya se han elevado a los cielos. Estaban rodeados por los ángeles del Señor, y tanques robóticos, infantería robótica, bombarderos automáticos ascendían cada vez más alto.
    - ¡Los lleva vivos al cielo! Ongin exclamó histéricamente. - ¡Lleva robots al paraíso!
    "Hubo un error", dijo Vetterer. - ¡Más rápido! Envíe un oficial de enlace ... No, iremos nosotros mismos.
    Inmediatamente, se envió un avión y se apresuraron al campo de batalla. Pero ya era demasiado tarde: el Armagedón había terminado, los robots desaparecieron y el Señor con su ejército se fue de casa. (C) R. Sheckley "Battle"
    1. infantryman2020
      infantryman2020 18 marzo 2021 08: 21
      +3
      ¡Mi historia favorita! :)
  7. Kolin
    Kolin 18 marzo 2021 09: 36
    +2
    ¡Gloria a los robots! ¡Mata a toda la gente! (c) Orihime Inoue
    1. vadimtt
      vadimtt 18 marzo 2021 10: 36
      +2
      Uh, ¿y de qué lado (s)? De hecho, estos son los traductores de Futurama que se hicieron famosos. riendo
      1. Kolin
        Kolin 18 marzo 2021 13: 49
        0
        Lo sé, pero Orihime una vez pintó una imagen épica del futuro ... con un robot. riendo
    2. Minato2020
      Minato2020 18 marzo 2021 15: 32
      +4
      Cita: Kolin

      ¡Gloria a los robots! ¡Mata a toda la gente! (c) Orihime Inoue


      Orihime todavía estaba en paz y lo mejor que podía.
      sanado e incluso resucitado.

      Pero si los programadores son capaces de cualquier cosa, ¿qué más se puede esperar de la IA?



      En una carta enviada desde la planta de aviones de Irkutsk "Irkut" al director general de la oficina de diseño de San Petersburgo "Electroavtomatika", se decía sobre un extraño botón sin nombre, cuando se presionaba, la inscripción "¡Gloria a los robots! ¡Mata a todas las personas! "se mostró en el panel de control.


      https://strana.ua/news/231877-slava-robotam-ubit-vsekh-chelovekov-v-rossii-pri-ispytanii-boevoho-samoleta-jak-130-na-ekrane-vsplyla-strannaja-nadpis-foto.html
      1. Intruso
        Intruso 18 marzo 2021 20: 45
        +2
        Se hablaba de un extraño botón sin nombre, cuando se presionaba en la pantalla del control remoto se mostraba la inscripción "¡Gloria a los robots! Mata a todos".
        El huevo de Pascua !? Compañero , con el humor negro de los desarrolladores !!! guiñó un ojo
    3. Pandiurina
      Pandiurina 18 marzo 2021 23: 27
      +1
      Cita: Kolin
      ¡Gloria a los robots! ¡Mata a toda la gente! (c) Orihime Inoue


      Debe haber una ley para que
      El botón "Matar a todas las personas"
      hazlo rojo.
      Esto evitará que se presione accidentalmente.
  8. Trapp1st
    Trapp1st 18 marzo 2021 10: 55
    +7
    En la próxima guerra mundial, los conceptos de crimen de guerra y crimen de lesa humanidad no existirán, por lo tanto, a pesar de una serie de deficiencias, el que tenga una gran cantidad de asesinos autónomos imprimibles será el ganador.
    1. Intruso
      Intruso 18 marzo 2021 20: 46
      +1
      En la próxima guerra mundial, no habrá conceptos de crimen de guerra y crimen de lesa humanidad.
      Por supuesto, porque no habrá más Humanidad misma ... riendo guiño
    2. Ícaro
      Ícaro 19 marzo 2021 23: 11
      0
      En la próxima guerra mundial, los conceptos de crimen de guerra y crimen de lesa humanidad no existirán, por lo tanto, a pesar de una serie de deficiencias, el que tenga una gran cantidad de asesinos autónomos imprimibles será el ganador.

      Y luego los asesinos autónomos matarán a los ganadores, ¿son autónomos o no?
  9. Sahalinets
    Sahalinets 18 marzo 2021 11: 16
    +2
    Una persona en una guerra se cansa, pierde la concentración, experimenta estrés constantemente, puede estar confundida, anhelar venganza, solo querer matar. Además, la percepción humana es extremadamente imperfecta y está sujeta a muchos trastornos psicofisiológicos. ¡Pero puede decidir abrir fuego!
    Pero el robot desapasionado y nunca cansado, ¡oh no, nunca! riendo
    Está claro que la IA actual simplemente no podrá manejar la tarea, pero en un futuro cercano serán los robots los que lo resolverán todo.
    1. Intruso
      Intruso 18 marzo 2021 13: 36
      +1
      Está claro que la IA actual simplemente no podrá manejar la tarea, pero en un futuro cercano serán los robots los que lo resolverán todo.
      él ya decide mucho, ¡especialmente en la vida de una persona común! Una entidad de crédito no te dará un préstamo, sin los resultados de su análisis de tu "karma crediticio", la investigación en los campos de la biología molecular y las proteínas humanas, también hay mucho donde se utiliza para crear nuevas generaciones de medicinas ... para combatir enfermedades graves, especialmente con anomalías genéticas en el genoma humano, después del nacimiento de un niño !!! guiñó un ojo
    2. Pandiurina
      Pandiurina 18 marzo 2021 23: 42
      +1
      Cita: Sahalinets
      Una persona en una guerra se cansa, pierde la concentración, experimenta estrés constantemente, puede estar confundida, anhelar venganza, solo querer matar. Además, la percepción humana es extremadamente imperfecta y está sujeta a muchos trastornos psicofisiológicos. ¡Pero puede decidir abrir fuego!
      Pero el robot desapasionado y nunca cansado, ¡oh no, nunca! riendo
      Está claro que la IA actual simplemente no podrá manejar la tarea, pero en un futuro cercano serán los robots los que lo resolverán todo.


      Ganar ->
      necesita aplicar / usar tantos robots como sea posible ->
      para ello, su producción debe ser lo más sencilla posible ->
      la IA más simple podrá identificar a una persona viva, pero no podrá identificar a un civil o combatiente.

      Como resultado, obtenemos armas de destrucción masiva con IA.
  10. Basarev
    Basarev 18 marzo 2021 13: 31
    +2
    Tiene sentido desarrollar IA. Solo que antes que nada, debe inculcar una lealtad absoluta a su país. Y, por supuesto, inicialmente no se incluye la posibilidad de abrir fuego en él. Presionar un botón y tomar una decisión debe estar siempre con la persona.
    1. Cizalla
      Cizalla 18 marzo 2021 16: 56
      0
      debe inculcar lealtad absoluta a su país
      Alimentado por batería en kvas para hacer wassat O en coca cola riendo
    2. Intruso
      Intruso 18 marzo 2021 20: 50
      +1
      Y, por supuesto, inicialmente no se incluye la posibilidad de abrir fuego en él. Presionar un botón y tomar una decisión debe estar siempre con la persona.
      letal, con el éxodo del operador al mundo del Otro!? am ¿Y qué, la batalla ha terminado y todos los sistemas de combate están activos pasivamente? En este caso, entonces es más fácil salir con vida y dejarlos, como antes, luchar ellos mismos, con sus problemas en el cerebro. riendo y aprieta el gatillo ... guiñó un ojo
    3. Pandiurina
      Pandiurina 18 marzo 2021 23: 56
      +1
      Cita: Basarev
      Tiene sentido desarrollar IA. Solo que antes que nada, debe inculcar una lealtad absoluta a su país. Y, por supuesto, inicialmente no se incluye la posibilidad de abrir fuego en él. Presionar un botón y tomar una decisión debe estar siempre con la persona.


      El operador controla 1000 robots,
      Solicitar ventanas emergentes en su pantalla
      "objetivo encontrado. ¿Destruir? Sí / No"
      El operador aprieta el botón "D" ...

      Ahora usan drones
      el operador decide el impacto.
      En lugar de una columna de terroristas, se está dando un golpe a las procesiones nupciales.

      Para los militares, es más fácil liberar robots en el territorio donde se garantiza que "los suyos" estarán ausentes. Habiendo determinado que todos los objetivos en un perímetro dado se consideran enemigos.
      Un análogo del uso de armas de racimo.

      Las bombas de racimo son utilizadas por la conciencia de cualquiera, no atormenta, y este nuevo "juguete" para los militares es el mismo, pero aún más efectivo. Les encanta eso.
  11. irónico
    irónico 18 marzo 2021 13: 43
    +1
    Y mientras algunos están luchando con la cuestión de si esto es moral, otros están luchando con la cuestión de cómo ingresar rápidamente al mercado de consumo con esto ... Incluso sé quién será más rápido.
    1. Victor Tsenin
      Victor Tsenin 18 marzo 2021 17: 41
      +1
      La introducción de las masas en el mercado será más rápida, en nuestro tiempo, cuando el hombre vuelva a ser un lobo para el hombre, la amarga moralidad derrama una lágrima silenciosa.
      1. irónico
        irónico 18 marzo 2021 18: 01
        +1
        La moralidad es esencialmente absoluta, pero la inmoralidad individual no tiene límites. Si.
        1. Victor Tsenin
          Victor Tsenin 18 marzo 2021 18: 15
          +1
          Sería más correcto hablar del tema del día sobre la inmoralidad colectiva, en ausencia de valores e ideas inteligibles. El absoluto absoluto se ha hundido en el verano, por desgracia.
          1. irónico
            irónico 18 marzo 2021 18: 24
            +2
            Bueno ... este ... botín triunfa sobre el mal.
            1. Intruso
              Intruso 18 marzo 2021 20: 52
              +1
              Bueno ... este ... botín triunfa sobre el mal.
              y genera, mas ...!?  solicitar
              1. irónico
                irónico 18 marzo 2021 21: 32
                +1
                De hecho, cuándo cómo. El botín es solo una herramienta. Puedes comer con un tenedor o puedes sacar un ojo.
                1. Intruso
                  Intruso 18 marzo 2021 22: 19
                  0
                  Puedes comer con un tenedor o puedes sacar un ojo.
                  un golpe, cuatro agujeros!? guiño
                  De hecho, cuándo cómo. El botín es solo un remedio
                  Estoy de acuerdo, pero solo en manos hábiles, pero en ineptos y codiciosos ..., lleva al mal !!!
                  1. irónico
                    irónico 18 marzo 2021 22: 38
                    +1
                    El bien y el mal también son conceptos relativos, según quién. Prefiero los términos construcción / destrucción.
                    1. Intruso
                      Intruso 18 marzo 2021 22: 51
                      0
                      El bien y el mal también son conceptos relativos, según quién.
                      sí tú, filósofo!? guiñó un ojo como los grandes: "Mundus intelligibĭlis" ... hi
                      1. irónico
                        irónico 18 marzo 2021 22: 56
                        +1
                        Los paradigmas religiosos dicen que el mundo de la razón es inherente a un ser puramente espiritual: un ángel, pero una persona que consta de espiritual y material es más compleja que un ángel. sonreír
                      2. Intruso
                        Intruso 19 marzo 2021 02: 31
                        0
                        pero una persona compuesta de espiritual y material es más compleja que un ángel.
                        ¿Quizás no más complicado, pero combina más armoniosamente el primitivismo de la materia de la carne y la infinidad del ser del espíritu?
                      3. irónico
                        irónico 21 marzo 2021 16: 41
                        +1
                        Más fuerte más fuerte. Edificado tres veces a imagen del espíritu y a semejanza de la carne. Aunque no, miento, por primera vez sólo a imagen tanto del espíritu como de la carne, del hombre y de la mujer. Precisamente más difícil.
  • evgen1221
    evgen1221 18 marzo 2021 17: 26
    +2
    La pregunta, por supuesto, es interesante: en el mismo Occidente, muchas veces han emitido advertencias y pronósticos de diferentes lados de la sociedad sobre la inadmisibilidad de las armas de IA. Incluso en los videojuegos, esto está claramente representado (Horizon zero dawn), en el borde sin puertas traseras, el estúpido detecta una falla y apresuró el planeta a la extinción, y murió hasta el kamenyuk (bueno, hay muchas simplificaciones y agujeros , por supuesto), pero lo principal es que sin una puerta trasera confiable para deshabilitarlo no lo suficiente. Y algo sugiere que los Yankees, por supuesto, fracasarán con este caso y aún veremos Skynet.
    1. Intruso
      Intruso 18 marzo 2021 20: 59
      0
      Y algo sugiere que los Yankees, por supuesto, fracasarán con este caso y aún veremos Skynet.
      para que la ciberseguridad no se detenga con la IA, estas áreas de ciberseguridad también recibirán un nuevo desarrollo en otros carriles de semántica artificial, etc., además de sistemas de control de acceso, claramente habrá otros diferentes, con estricto aislamiento de procesos y arquitectura exonuclear. , etc. para que las puertas traseras, todo tipo de troyanos y otros rootkits no jueguen con exploits como en casa. guiño
      1. evgen1221
        evgen1221 19 marzo 2021 05: 10
        +1
        Pero alguien no descarta un problema técnico y un enlace cruzado, uno si la máquina se abruma y el matrimonio se inunda con una corriente, el otro es cuando, digamos, un batallón de artelería sale disparado y comienza a igualar la ciudad de yakaba capturado por el enemigo en la letrina de la IA. ¿Y cómo apagarlo?
        1. Intruso
          Intruso 19 marzo 2021 05: 56
          +1
          yakaby capturado por el enemigo en los galyuns de la IA. ¿Y cómo apagarlo?
          a distancia, de acuerdo con un protocolo de emergencia, o nada, hasta que se agote el BC, o la energía para los sistemas de control, un cataclismo provocado por el hombre en una región en particular, con compensación para la población civil herida de la ciudad y el descenso del estado banderas, y otras cosas que aún existen en nuestro tiempo !!
          1. evgen1221
            evgen1221 19 marzo 2021 06: 28
            +1
            ¿De forma remota a través del protocolo AV? - Entonces, esto puede ser utilizado por la IA del enemigo, por lo tanto, solo se maneja el interruptor. El BC terminará, y si se trata de un almacén de Yao o algo más, se les ocurre un matadero, y si la IA comienza a romper los protocolos de las máquinas útiles y ellos, capturando la letrina del transportista, comenzarán una guerra. Energía -Hasta que algún tipo de núcleo warp en 100500 años no se sentará y mientras el terminador esté buscando amigos. Por lo general, guardo silencio sobre el descenso de la bandera, y los vivos no lo perciben realmente.
            1. Intruso
              Intruso 19 marzo 2021 10: 59
              0
              para que esto y la IA del enemigo puedan aprovecharlo, por lo tanto, solo se maneja el interruptor.
              el interruptor y las fuerzas especiales del enemigo pueden encontrarlo y usarlo, por lo que no es una solución muy efectiva, remotamente con un rack de criptografía, como ahora ... conoces muy bien casos de penetración (¿al menos solos?) o negación de servicio en redes e infraestructuras militares, durante los últimos 5-10 años, de modo que es real, y no inventos de todos los periodistas, aquí y allá. guiñó un ojo
              BC terminará, y si es un almacén de Yao o algo más, se les ocurrirá una matanza
              Los arsenales, incluso con personas durante los próximos 150-200 años, mantendrán a los robots allí, si lo hacen, ya sea en plataformas de carga o en el perímetro exterior, "vallas de vigilancia" y el territorio, el espacio aéreo o las comunicaciones subterráneas más cercanas. Los militares, después de todo, no están todos completos, aunque están en diferentes áreas ...
              La energía sigue siendo una especie de núcleo warp en 100500 años.
              doblado con un núcleo warp, es cursi, mientras que las centrales híbridas (con combustible líquido y baterías) o todo tipo de pilas de combustible (con criogénico licuado ...), como ahora se van a implementar en sistemas terrestres y submarinos de cualquier no tripulado y robótico, y lo que sucederá a través de 100500 años, ¿es esta una fantasía oscura? riendo
              1. evgen1221
                evgen1221 19 marzo 2021 12: 19
                +1
                Fallo del sistema de notificación alrededor de los años 80 por ejemplo. Simplemente un hombre tomó la decisión de que se trataba de un problema técnico, la máquina definitivamente comenzaría a arrojar panes.
                1. Intruso
                  Intruso 19 marzo 2021 16: 39
                  0
                  Fallo del sistema de notificación alrededor de los años 80 por ejemplo.
                  Recuerdo ese caso, pero luego las tecnologías de nuestro tiempo no se usaron en el sistema de alerta, por cierto, las soluciones masivas ya estaban resueltas, había varios otros ... y las situaciones de emergencia podían ocurrir simplemente por el problema. peculiaridades del nivel tecnológico del elemento base y otras "cosas", los sistemas digitales dieron pasos gigantes en comparación con los analógicos, en términos de tolerancia a fallas de sistemas complejos con redundancia múltiple en la integración de microelectrónica de silicio ...
                  1. evgen1221
                    evgen1221 19 marzo 2021 18: 57
                    +2
                    Pero la falla del sistema en sí se mantuvo, la falla también es captada por los sistemas modernos, los mismos se estaban bañando en Israel, y sin la posibilidad de influir en la decisión final de una persona, la máquina que atrapó la falla ve una amenaza al frente. de sí mismo (en sus cerebros, de hecho, no hay amenaza), y comienza esta amenaza a ustron con lo que está disponible para ella. ¿Y qué vas a hacer con ella? Las armas y el derecho a usarlas deben depender de la persona. La máquina solo puede y debe notificar, predecir al analista, pero solo una persona está en el dispositivo, aunque sea presionando un botón o ingresando una tarjeta, lanzando el protocolo de agresión a lo largo de la cadena.
                    1. Intruso
                      Intruso 19 marzo 2021 21: 28
                      0
                      (en su cerebro, de hecho, no hay amenaza), y comienza a eliminar esta amenaza con lo que esté disponible para ella.
                      el cerebro humano orgánico tiene los mismos problemas, en una situación estresante en condiciones reales de combate, y de alguna manera se ha acostumbrado, o está tratando de compensarlo con entrenamiento y otras cosas ...!? riendo guiño
                      La máquina solo puede y debe notificar, predecir al analista, pero solo una persona está en el dispositivo, aunque sea presionando un botón o ingresando una tarjeta, lanzando el protocolo de agresión a lo largo de la cadena.
                      Se dedicarán segundos enteros a reaccionar y trabajar para tomar una decisión, presionar una tecla o botón, con una llave de chip, y durante este tiempo, una ojiva hipersónica de un planeador, o la descarga de un arma de energía, creará focos de humo. escombros del centro de control de UAV, o RTK en tierra, BENS marinos y otros drones ..., el factor humano lo estropea todo de raíz, es muy lento (estrés, condiciones de salud a nivel local durante el servicio de combate, alcoholismo / drogas, banal soborno y chantaje ...) y, de hecho, no es correcto usarlo en conjunto con ciber-sistemas e IA, ya desde el otro mundo, los operadores observarán el desarrollo de los eventos ...
  • Victor Tsenin
    Victor Tsenin 18 marzo 2021 17: 39
    +1
    Una vez más, IA, es completamente incomprensible cómo las redes neuronales encajan con la formidable y poderosa IA del futuro. No hay IA, las máquinas y los algoritmos no piensan, la IA es buena para los medios de comunicación, ¿por qué molestar a tus compañeros?
  • Smirnov Mikhail
    Smirnov Mikhail 18 marzo 2021 20: 20
    0
    Alguna basura infernal. Bayraktar totalmente autónomo no habría infligido un solo golpe, porque no habrían podido orientarse en el espacio. Dónde estamos, dónde volar. En primer lugar, no se ha resuelto el problema de una definición banal de la propia posición. A continuación, deberá resolver el problema de reconocimiento. Esta es la selección de detalles geométricos en objetos separados, dándoles su propio nombre. A continuación, deberá resolver el problema de interactuar con el objeto seleccionado. ¿Y qué tiene que ver el lado moral con esto, si los problemas técnicos básicos no se han resuelto?
    1. Intruso
      Intruso 18 marzo 2021 21: 08
      +1
      Dónde estamos, dónde volar. En primer lugar, no se ha resuelto el problema de una definición banal de la propia posición. A continuación, deberá resolver el problema de reconocimiento. Esta es la selección de detalles geométricos en objetos separados, dándoles su propio nombre. A continuación, deberá resolver el problema de interactuar con el objeto seleccionado. ¿Y qué tiene que ver el lado moral con esto, si los problemas técnicos básicos no se han resuelto?
      sistemas de navegación y aviónica moderna, querido!? de que siglo te has mudado a nosotros, no por sarcasmo y negatividad de mi parte bebidas , pero al leer tu comentario, surgieron una serie de sospechas.  solicitar Mi teléfono, al cambiar la geolocalización de mi chaqueta, cambia el nivel de sonido en las llamadas entrantes, y cuando conduzco hasta la casa se enciende solo, se apaga cuando salgo de la puerta - WLAN, y hace otras cosas necesarias, según a su cambio de posición en el espacio? ¿Y qué puede hacer un módulo OpenHAB por separado en mi máquina? No diré nada, porque no es información pública ... ¡¡¡lo siento !!!
      1. region58
        region58 19 marzo 2021 02: 29
        0
        Cita: Mikhail Smirnov
        Algo de basura infernal

        Cita: Intruso
        ¡Al leer su comentario, surgieron algunas sospechas!

        Si lee el comentario con atención, puede ver la palabra "autónomo", y aquí ya "no todo es tan inequívoco" (c). Tome el piloto automático ampliamente publicitado de Tesla: una jamba en una jamba ... y esto es en dos dimensiones con mapas de carreteras detallados. Simplemente hay muchas más situaciones en la vida de las que se pueden describir de antemano, pero todavía no saben cómo pensar. Entonces, si una situación desconocida es un callejón sin salida con una u otra consecuencia. El mismo Bayraktar no distinguirá un tronco de un cañón y una sombrilla de un radar ... Y un teléfono ... sí (Dios no lo quiera, claro) te quitarán el teléfono, pueden agarrar un dedo para una huella , y el teléfono más inteligente abrirá las puertas y encenderá el televisor para otras personas. Naturalmente, no por el sarcasmo y la negatividad de mi parte. hi
        1. Intruso
          Intruso 19 marzo 2021 02: 42
          0
          Y el teléfono ... sí (Dios no lo quiera, claro) te quitarán el teléfono, pueden agarrar un dedo para una huella
          después de la amputación de un dedo, su dermis cambia, puede que no funcione, si solo no se congela rápidamente y es correcto ... !!!
          1. region58
            region58 19 marzo 2021 02: 48
            +1
            Cita: Intruso
            después de la amputación de un dedo, su dermis cambia

            Bueno, entonces puedes estar tranquilo. Pero eso no es lo que quiero decir. Es solo que lo que ahora se llama un ruiseñor ruidoso "inteligencia artística" no es ningún tipo de inteligencia, si lo miras.
            1. Intruso
              Intruso 19 marzo 2021 03: 38
              0
              Es solo que lo que ahora se llama un ruiseñor ruidoso "inteligencia artística" no es ningún tipo de inteligencia, si lo miras.
              en parte estoy de acuerdo, es solo que ahora están más "promocionando" la tecnología en sí, lo que también hay que hacer para desarrollar y atraer inversiones en su formación a una escala masiva, pero ocultando todas las ventajas y desventajas que son inevitables en diferentes etapas de su desarrollo, y además se arroja al público mucha información incorrecta ...
              1. region58
                region58 19 marzo 2021 04: 22
                0
                Cita: Intruso
                se arroja al público mucha información incorrecta

                Incluso diría que es mayormente incorrecto ... Pero, sí, publicidad, donde sea que esté en el swing ...
        2. Intruso
          Intruso 19 marzo 2021 02: 46
          0
          Tome el piloto automático ampliamente publicitado de Tesla: una jamba en una jamba ... y esto es en dos dimensiones con mapas de carreteras detallados.
          por eso, tienen un largo período de prueba en diferentes situaciones, además de la experiencia del usuario, la telemetría en tiempo real fluye a los servidores de cada máquina, por cierto, Musk ya quiere cambiar a visión artificial y abandonar lidars y otros activos. ubicación de los objetos, es evidente que el aprendizaje automático da sus frutos ...
          1. region58
            region58 19 marzo 2021 02: 57
            +1
            Cita: Intruso
            visión de máquina

            La visión, la orientación espacial, la identificación de objetos son naturales y simples (a primera vista) para los humanos, y procesos extremadamente complejos para las máquinas y los sistemas informáticos. Y tomar decisiones basadas en ellos ... incluso una persona no siempre tiene éxito.
            1. Intruso
              Intruso 19 marzo 2021 03: 42
              0
              Visión, orientación en el espacio, identificación de objetos: natural y simple (a primera vista) para una persona
              Bueno, 100 mil millones de neuronas, a una frecuencia de 1 kHz es la frecuencia promedio de transmisión entre neuronas en el cerebro humano de impulsos, ¿cómo puede la mayoría de la gente hacerlo hasta ahora? guiño riendo Además, un cerebro orgánico, aunque es una computadora analógica compleja, no es la más perfecta al mismo tiempo ... ¡¡¡también tiene muchos problemas con la percepción de la realidad y las situaciones que surgen en él !!!
              1. region58
                region58 19 marzo 2021 04: 26
                +1
                Cita: Intruso
                100 mil millones de neuronas

                Mira tu tiempo libre. Algunos puntos, en mi opinión, son controvertidos, pero extremadamente informativos.
  • viktor_47
    viktor_47 20 marzo 2021 10: 19
    0
    Hay un criterio claro: tan pronto como se demuestre que la IA proporciona una probabilidad significativamente menor de decisiones erróneas que el nivel mínimo alcanzable de errores de un operador humano, entonces será racional transferir las decisiones de la IA.
  • Podvodnik
    Podvodnik 21 marzo 2021 22: 05
    0
    La tercera revolución militar, de manera amistosa, es mejor que se cancele


    La humanidad terminará mal. La historia se desarrolla en espiral. Como si en unos pocos cientos de miles de años los siguientes investigadores volvieran a arrugar la frente con la pregunta: "¿Y quién construyó tales pirámides?" Y cavarán en nuestros basureros, enterrados bajo una capa de arena de varios metros, preguntando: "Había una gran civilización, pero se ha ido a alguna parte ... ¿Qué pasó?"

    Lo que pasó fue que ganó la codicia, la vanidad y la envidia. Y perdimos. Todos.