La tercera revolución militar: la inteligencia artificial no debe estar armada

48

Fuente: armflot.ru

La principal tendencia del siglo XXI


A pesar de toda la ambigüedad del término "inteligencia artificial" (en adelante, IA), se han creado durante mucho tiempo todos los requisitos previos para el surgimiento de sistemas de combate altamente productivos y de autoaprendizaje en los ejércitos del mundo.

Si la IA no existiera, aún tendría que inventarse. Ahora, en casi todas las esferas de la vida humana, se genera una cantidad gigantesca de información cada segundo, que simplemente no hay nada que procesar.



Y los asuntos militares están lejos de ser una excepción: basta recordar el conflicto de Nagorno-Karabaj para comprender la verdadera escala del contenido de información de las operaciones militares.

El flujo de datos de foto, video y radar, así como los mensajes de audio y texto, se convierte en la corriente principal del campo. Solo ahora podemos reformular la conocida expresión

"Quién es dueño de la información es dueño del mundo"

en moderno

"Quien puede analizar rápidamente la información es dueño del mundo".

Y para el procesamiento operativo de "big data" (o big data), se requieren tecnologías muy serias. Como redes neuronales artificiales capaces de autoaprendizaje sin la intervención del operador. Una ventaja importante de las redes neuronales es la capacidad de identificar patrones basados ​​en datos que no están presentes en el código de entrenamiento original.

Para los militares, la capacidad potencial de la IA para trabajar con datos incompletos, "ruidosos" o distorsionados es de particular importancia. Es por eso que las redes neuronales de aprendizaje profundo ahora están esperando a la vista los sistemas de inteligencia para analizar rápidamente materiales de video y fotografía. Como se señaló en los departamentos militares, las tareas que tomaron meses de trabajo de decenas de decodificadores pueden ser resueltas por IA en segundos.


Fuente: i.pinimg.com

Sin embargo, un simple análisis de conjuntos de datos incluso ahora parece insuficiente para las operaciones militares: requiere

"Previsión de posibles acciones"

и

"Predicción de respuestas"

objetivo potencial.

Sobre la base de estas "conclusiones", el operador tomará la decisión de abrir fuego. Esto acelerará seriamente el curso de las operaciones ofensivas.

Por ejemplo, hace unos años, durante la Operación Libertad Duradera, el dron MQ-1 Predator entró en un convoy de equipo enemigo. Pero mientras el operador evaluaba la afiliación y decidía lanzar el cohete, el equipo abandonó la zona afectada. Y este está lejos de ser el único ejemplo.

El uso de IA en este caso permitiría hacer rápidamente un pronóstico sobre las perspectivas y el momento del ataque. Pero también hay trampas aquí.

El Comité de la Cruz Roja está seriamente preocupado por la introducción de la IA en los vehículos no tripulados y (lo más importante) el nivel de confianza humana en ella. Por ejemplo, ¿se puede identificar de manera confiable a una persona que excava cerca de una carretera como operador de un dispositivo explosivo improvisado basándose únicamente en el análisis de la señal de video mediante redes neuronales?

Ahora operadores de tambor drones muy a menudo no se dan cuenta de la realidad de lo que está sucediendo en el campo de batalla (mentalidad de Playstation). ¿Y si la IA los ayuda con esto?

La tarea de destrucción ya notablemente simplificada será aún más fácil de ejecutar.

¡Automatizarlo!


Los desafíos tecnológicos y estratégicos están obligando a las potencias mundiales a trasladar gradualmente sus ejércitos a los rieles de la robótica.

Por ejemplo, en Estados Unidos, la "Tercera Estrategia Compensatoria" promete convertir a las fuerzas armadas en un ejército. robots ya treinta años después. Y en diez años, uno de cada tres aviones del Pentágono no estará tripulado.

Rusia también está tratando de mantenerse al día. Y en los próximos años, planean aceptar en el ejército varias docenas de nuevos tipos de armas controladas a distancia. Sin embargo, ni Estados Unidos ni Rusia todavía carecen de sistemas completos de reconocimiento y ataque controlados por IA. Esto se debe en gran parte a la crisis de responsabilidad. Si los errores del primer tipo, es decir, los ataques incorrectamente cancelados al enemigo, aún pueden ser soportados de alguna manera, entonces con los errores del segundo tipo todo es mucho más complicado. En el último caso, el vehículo decide hacer "fuego amigo" o destruye civiles, es decir, comete un crimen de guerra.


Fuente: popmeh.ru

En esta situación, no está completamente claro quién es el responsable de tal acto: el desarrollador de software o el comandante que dio la orden de usar el sistema.

Una situación similar existe en la industria automotriz, que ha estado soñando con drones totalmente autónomos durante varias décadas. Incluso se desarrolló una clasificación de niveles de automatización, que es bastante aplicable al ámbito militar.

En el nivel cero, el automóvil es un UAZ-496 condicional, en el que todo está bajo el control del conductor y no hay asistentes mecatrónicos: ESP, ABS, etc.

En el quinto nivel más alto, un dron con ruedas incluso carece de volante (o está instalado como una opción paga). Y en todas las situaciones, el movimiento está controlado por el piloto automático. Actualmente, solo la japonesa Honda ha podido certificar un piloto automático en serie de nivel XNUMX.

Esta técnica de "automatización condicional" no es capaz de asumir el control en una situación peligrosa. Y en condiciones normales no siempre funciona. El sistema Traffic Jam Pilot pilota automáticamente el coche en atascos, lo mantiene dentro del carril de la autopista y realiza adelantamientos. Puede quitar las manos del volante, pero no puede apartar la vista de la carretera: las cámaras están mirando. El piloto automático de tercer nivel es muy caro y aumenta el costo total del automóvil en una vez y media.

Debe recordarse que los pilotos automáticos ya se pueden implementar completamente en la producción en masa. Y realmente reducirán seriamente las muertes por accidentes de tránsito. Pero los problemas legales y éticos de los errores (incluidos los fatales) de la IA paralizaron a las empresas de automóviles.

La IA no debería estar armada


En el ámbito militar, la situación con el desarrollo de sistemas de combate totalmente autónomos también está lejos de ser ideal.

Y ni siquiera es el aspecto técnico del problema.

Por un lado, los expertos escépticos señalan la capacidad potencial de los sistemas de autoaprendizaje basados ​​en redes neuronales para realizar ataques preventivos. Por ejemplo, la IA verá una vulnerabilidad real o percibida en el enemigo: ¿por qué no es esta una razón para lanzar el primer ataque de desarme? Además de esto, todos los "cerebros artificiales" son propensos a la competencia y la falta de elementos de pensamiento crítico, lo que tampoco agrega credibilidad por parte de la persona.

Los analistas de la Corporación RAND, en general, instan en ningún caso a confiar las decisiones estratégicas militares a la inteligencia artificial, ni en el presente ni en el futuro. Si bien todavía es posible aguantar a varios no combatientes destruidos por error por la IA, todo será mucho más trágico cuando se aplique a las fuerzas de disuasión nuclear.

No todo es tan sencillo con lo operativo-táctico armas Controlado por IA.

Volvamos a las imágenes de Nagorno-Karabaj, que ilustran claramente la superioridad técnica de los drones de choque sobre las armas tradicionales. Aquí todos entendieron que en el cielo solo había máquinas controladas a distancia, aunque muy perfectas.

¿Cuál sería la reacción del público si las huelgas fueran realizadas por Bayraktar totalmente autónomo?

¿Cuándo viviría la IA para que el mundo entero matara personas, aunque fuera con armas en la mano?

El lado moral del problema aún no se ha resuelto aquí. Y es poco probable que se resuelva en un futuro próximo.

La tercera revolución militar: la inteligencia artificial no debe estar armada
Fuente: mil.ru

En general, los robots del ejército son, por supuesto, buenos.

Te permiten retirar a los soldados del fuego directo del enemigo, transfiriendo todo el trabajo a unidades de combate controladas a distancia. Se reducen las pérdidas y los costes. Y la guerra parece volverse más humana.

Los robots totalmente autónomos en la esfera militar o el sistema de armas autónomas letales no tienen nada que ver con la humanidad y la reducción de pérdidas. Las redes neuronales de aprendizaje profundo hacen que la guerra sea mucho más rápida y costosa. En realidad, esto es exactamente lo que aseguraron las dos revoluciones militares anteriores en asuntos militares: la pólvora y la nuclear.

Esto es entendido por muchas corporaciones civiles involucradas con el estado en proyectos de defensa.

Entonces, en 2018, Google se retiró del proyecto Maven altamente rentable por un valor de más de $ 7,5 mil millones. Especialistas de Silicon Valley, junto con DARPA, trabajaron en un programa para procesar matrices de información de video y fotos de numerosos servicios de inteligencia. droneless. Los datos fueron procesados ​​por una red neuronal. Y le dio al operador una "biblioteca de objetivos" en orden de prioridad para la destrucción. Google fuera de historias... Y ahora DARPA está tratando de arreglárselas por su cuenta.

Un aspecto importante de la IA en el ejército es su uso en la guerra de información.

Podemos decir con cierto grado de confianza que en un futuro muy cercano, más revelaciones de Rusia y (en mayor medida) China en el desarrollo de una inteligencia artificial de combate simplemente saldrán de los Estados Unidos. Si no es posible convencer al público dentro del país de la necesidad de una mente militar autónoma, entonces asustaremos con enemigos externos. El Pentágono ha sido famoso por esta lógica desde la antigüedad. Dicen que ya están trabajando en IA en su totalidad, y aquí no podemos hacer frente a nuestra propia moralidad.

Y finalmente, las respuestas asimétricas a las amenazas de la IA de combate parecen bastante prometedoras. Hoy en día, las tecnologías para enmascarar objetos del ojo que todo lo ve de la inteligencia artificial e incluso el engaño deliberado están ganando fuerza.

Hasta ahora, la IA funciona bastante bien en condiciones pacíficas, cuando la información se sirve en bandeja de plata.

Es muy difícil funcionar con datos incompletos y ruidosos. Por lo tanto, los intentos de engañar a la inteligencia artificial con datos corregidos deliberadamente parecen bastante lógicos. Cuando el tiempo de respuesta de una IA armada se calcula en segundos y no depende de la opinión de una persona, dicha información errónea puede llevar a consecuencias difíciles de predecir.

Es mejor cancelar la tercera revolución militar, de manera amistosa.

O desarrollar medidas restrictivas conjuntas para el desarrollo y uso de la IA en el ámbito militar. ¿Pudiste hacer algo similar en el caso de las armas nucleares?
Nuestros canales de noticias

Suscríbete y mantente al día de las últimas novedades y los eventos más importantes del día.

48 comentarios
información
Estimado lector, para dejar comentarios sobre la publicación, usted debe login.
  1. +3
    18 marzo 2021 05: 11
    ¿Cuándo viviría la IA para que el mundo entero matara personas, aunque fuera con armas en la mano?

    El lado moral del problema todavía no se resuelve aquí.

    Aquellos. cuando otras personas matan a personas en el aire, ¿es esto normal desde el punto de vista moral?
    1. 0
      18 marzo 2021 05: 44
      Cita: Chaqueta en stock
      Aquellos. cuando otras personas matan a personas en el aire, ¿es esto normal desde el punto de vista moral?

      Por supuesto que no, pero aquí está, ¡hay un problema moral! Somos simplemente gente moderna, "cargados" con una comprensión moderna de la moralidad. Y esto es bueno. hi
      1. dsk
        0
        18 marzo 2021 18: 56
        Cita: A. Privalov
        Y eso es bueno

        ¡Hola profesor! Por supuesto que es bueno, pero la IA elimina esta "carga". Los robots serán extremos, ¿qué te llevarás con desalmado "piezas de hierro" ...
        1. +4
          18 marzo 2021 20: 33
          Y a ti, hola. hi
          No soy profesor, solo profesor asistente.

          No hay demanda de una pieza de hierro. Los pedacitos de hierro no tienen vergüenza. Aquellos que, sin motivos serios, decidan utilizarlos, se llevarán la culpa. Es solo hoy, mientras que la humanidad, que no tiene experiencia en el uso de armas de este tipo, compone un dulce cuento de hadas para sí misma. Con el tiempo, todo se calmará. Quizás algunas cosas estén prohibidas, tan inhumanas, como una vez que el combate VO. Tal vez algo sea limitado, por ejemplo, los robots realizarán entrenamiento y la decisión de abrir fuego contra las personas la tomará una persona. etc. De todos modos, habrá errores, surgirán todo tipo de colisiones legales y filosóficas. Solo podemos esperar que la humanidad con IA no caiga en algún tipo de trampa, sobre la que los escritores de ciencia ficción han escrito mucho.
    2. 0
      19 marzo 2021 23: 05
      Cita: Chaqueta en stock
      ¿Cuándo viviría la IA para que el mundo entero matara personas, aunque fuera con armas en la mano?

      El lado moral del problema todavía no se resuelve aquí.

      Aquellos. cuando otras personas matan a personas en el aire, ¿es esto normal desde el punto de vista moral?

      Por supuesto, esto no es normal si no fue en defensa propia o acción militar, cuando matar está permitido desde el punto de vista moral. Pero, en primer lugar, el asesino (si está cuerdo) comprende que la responsabilidad puede venir, en este mundo (antes que la sociedad o antes que él mismo) o en otro mundo, quizás - ante Dios, y en segundo lugar, el asesino tiene un riesgo, que el " víctima "también puede matar al asesino. Todos estos son factores limitantes. Y quienes buscan en línea también comprenden que es probable que el asesino sea castigado (incluso si está loco). Si el asesino es AI, en primer lugar, no hay factores coactivas especificados, y en segundo lugar, los espectadores en línea también entienden que un acto se está llevando a cabo con impunidad ante la humanidad, pero al mismo tiempo es deliberado, es decir, el asesinato de persona es consciente (no un meteorito) e impune ... El valor de la vida humana, a los ojos de las personas mismas, se está perdiendo gradualmente. Por tanto, la moralidad cambia. Todos entenderemos que hay una entidad que decide con quién vivir y quién no, a su discreción y según sus propias reglas, que puede cambiar a su discreción (la IA se autodesarrolla). Y, en general, no está claro si una IA, habiendo recibido la tarea de matar personas (que no tiene una prohibición programada de matar a una persona), es capaz de salvar a una víctima humana, por ejemplo, una rendición. Estas están lejos de todas las preguntas sobre el uso de la IA como arma para matar personas.
      En mi opinión, sería hora de que la ONU al menos designe una comisión para desarrollar reglas y normas (un robot o IA no debe tomar la decisión de matar a una persona sin la participación de otra persona) o establecer prohibiciones completas de IA como un arma para matar personas y otros seres vivos ...
  2. +4
    18 marzo 2021 05: 31
    Y para el procesamiento operativo de "big data" (o big bata), se requieren tecnologías muy serias.
    Gran descargo de responsabilidad. Casi según Freud: "gran bata" - en filipino "niño grande".
    Por supuesto, la humanidad tendrá que resolver más problemas relacionados con la IA. La esfera militar es solo una de muchas. Además, no será posible limitarnos a algunas restricciones a medias. El progreso ya no se puede detener. "El caballo de hierro está reemplazando al caballo campesino" (c)
    ... En 1865, el Parlamento de Gran Bretaña aprobó una ley según la cual la velocidad de transporte se limitaba a 6 km / h, y una persona tenía que caminar delante del automóvil, ondeando una bandera roja. El último punto fue abolido en 1878. Según otras fuentes, la regla de la "bandera roja" fue cancelada solo en 1896, junto con un aumento en el límite de velocidad a 23 km / hy la abolición del requisito de una tripulación de tres personas (conductor, asistente y bombero) para vehículos ligeros (hasta 3 toneladas de peso en vacío) vehículos sin caballos, es decir, se reconoció legalmente la diferencia entre automóviles y locomotoras, lo que dio impulso al desarrollo de la industria automotriz británica. El límite de velocidad se elevó nuevamente en 1903, y las leyes de 1896 y 1903 finalmente se cancelaron en Gran Bretaña solo en 1930.
  3. +1
    18 marzo 2021 05: 48
    Es mejor cancelar la tercera revolución militar, de manera amistosa.
    Sería bueno, pero ay ...
    O desarrollar medidas restrictivas conjuntas para el desarrollo y uso de la IA en el ámbito militar.
    Eso es poco probable. El desarrollo y la implementación de sistemas automatizados ofrece ventajas demasiado obvias. Y controlar los procesos de creación de IA es muchas veces más difícil que la creación y distribución de armas nucleares.
    Creo que en un futuro próximo no habrá acuerdos en esta dirección. Si Estados Unidos y Rusia aún no han firmado y ratificado el Tratado de Ottawa sobre Minas Antipersonal ...
  4. 0
    18 marzo 2021 06: 19
    Aristóteles tiene la culpa de todo. Todo comenzó con su silogística.
  5. +12
    18 marzo 2021 06: 24
    Los generales sonrieron con cansancio.
    Se miraron y soltaron un grito de alegría. Se ganó el Armagedón y las fuerzas de Satanás fueron derrotadas.
    Pero algo estaba sucediendo en sus pantallas de televisión.
    - ¡Cómo! Esto ... esto ... - comenzó el general McFee y guardó silencio.
    Porque a lo largo del campo de batalla, entre los montones de metal deformado y destrozado, Grace caminaba.
    Los generales guardaron silencio.
    Grace tocó el robot desfigurado.
    Y los robots se movieron por el desierto humeante. Se renovaron piezas de metal retorcidas, quemadas y fundidas.
    Y los robots se pusieron de pie.
    “McFee,” susurró el Comandante Supremo Vetterer. - Presione sobre algo - deje que ellos, o algo, se arrodillen.
    El general presionó, pero el control remoto no funcionó.
    Y los robots ya se han elevado a los cielos. Estaban rodeados por los ángeles del Señor, y tanques robóticos, infantería robótica, bombarderos automáticos ascendían cada vez más alto.
    - ¡Los lleva vivos al cielo! Ongin exclamó histéricamente. - ¡Lleva robots al paraíso!
    "Hubo un error", dijo Vetterer. - ¡Más rápido! Envíe un oficial de enlace ... No, iremos nosotros mismos.
    Inmediatamente, se envió un avión y se apresuraron al campo de batalla. Pero ya era demasiado tarde: el Armagedón había terminado, los robots desaparecieron y el Señor con su ejército se fue de casa. (C) R. Sheckley "Battle"
    1. +3
      18 marzo 2021 08: 21
      ¡Mi historia favorita! :)
  6. +2
    18 marzo 2021 09: 36
    ¡Gloria a los robots! ¡Mata a toda la gente! (c) Orihime Inoue
    1. +2
      18 marzo 2021 10: 36
      Uh, ¿y de qué lado (s)? De hecho, estos son los traductores de Futurama que se hicieron famosos. riendo
      1. 0
        18 marzo 2021 13: 49
        Lo sé, pero Orihime una vez pintó una imagen épica del futuro ... con un robot. riendo
    2. +4
      18 marzo 2021 15: 32
      Cita: Kolin

      ¡Gloria a los robots! ¡Mata a toda la gente! (c) Orihime Inoue


      Orihime todavía estaba en paz y lo mejor que podía.
      sanado e incluso resucitado.

      Pero si los programadores son capaces de cualquier cosa, ¿qué más se puede esperar de la IA?



      En una carta enviada desde la planta de aviones de Irkutsk "Irkut" al director general de la oficina de diseño de San Petersburgo "Electroavtomatika", se decía sobre un extraño botón sin nombre, cuando se presionaba, la inscripción "¡Gloria a los robots! ¡Mata a todas las personas! "se mostró en el panel de control.


      https://strana.ua/news/231877-slava-robotam-ubit-vsekh-chelovekov-v-rossii-pri-ispytanii-boevoho-samoleta-jak-130-na-ekrane-vsplyla-strannaja-nadpis-foto.html
    3. +1
      18 marzo 2021 23: 27
      Cita: Kolin
      ¡Gloria a los robots! ¡Mata a toda la gente! (c) Orihime Inoue


      Debe haber una ley para que
      El botón "Matar a todas las personas"
      hazlo rojo.
      Esto evitará que se presione accidentalmente.
  7. +7
    18 marzo 2021 10: 55
    En la próxima guerra mundial, los conceptos de crimen de guerra y crimen de lesa humanidad no existirán, por lo tanto, a pesar de una serie de deficiencias, el que tenga una gran cantidad de asesinos autónomos imprimibles será el ganador.
    1. 0
      19 marzo 2021 23: 11
      En la próxima guerra mundial, los conceptos de crimen de guerra y crimen de lesa humanidad no existirán, por lo tanto, a pesar de una serie de deficiencias, el que tenga una gran cantidad de asesinos autónomos imprimibles será el ganador.

      Y luego los asesinos autónomos matarán a los ganadores, ¿son autónomos o no?
  8. +2
    18 marzo 2021 11: 16
    Una persona en una guerra se cansa, pierde la concentración, experimenta estrés constantemente, puede estar confundida, anhelar venganza, solo querer matar. Además, la percepción humana es extremadamente imperfecta y está sujeta a muchos trastornos psicofisiológicos. ¡Pero puede decidir abrir fuego!
    Pero el robot desapasionado y nunca cansado, ¡oh no, nunca! riendo
    Está claro que la IA actual simplemente no podrá manejar la tarea, pero en un futuro cercano serán los robots los que lo resolverán todo.
    1. +1
      18 marzo 2021 23: 42
      Cita: Sahalinets
      Una persona en una guerra se cansa, pierde la concentración, experimenta estrés constantemente, puede estar confundida, anhelar venganza, solo querer matar. Además, la percepción humana es extremadamente imperfecta y está sujeta a muchos trastornos psicofisiológicos. ¡Pero puede decidir abrir fuego!
      Pero el robot desapasionado y nunca cansado, ¡oh no, nunca! riendo
      Está claro que la IA actual simplemente no podrá manejar la tarea, pero en un futuro cercano serán los robots los que lo resolverán todo.


      Ganar ->
      necesita aplicar / usar tantos robots como sea posible ->
      para ello, su producción debe ser lo más sencilla posible ->
      la IA más simple podrá identificar a una persona viva, pero no podrá identificar a un civil o combatiente.

      Como resultado, obtenemos armas de destrucción masiva con IA.
  9. +2
    18 marzo 2021 13: 31
    Tiene sentido desarrollar IA. Solo que antes que nada, debe inculcar una lealtad absoluta a su país. Y, por supuesto, inicialmente no se incluye la posibilidad de abrir fuego en él. Presionar un botón y tomar una decisión debe estar siempre con la persona.
    1. 0
      18 marzo 2021 16: 56
      debe inculcar lealtad absoluta a su país
      Alimentado por batería en kvas para hacer wassat O en coca cola riendo
    2. +1
      18 marzo 2021 23: 56
      Cita: Basarev
      Tiene sentido desarrollar IA. Solo que antes que nada, debe inculcar una lealtad absoluta a su país. Y, por supuesto, inicialmente no se incluye la posibilidad de abrir fuego en él. Presionar un botón y tomar una decisión debe estar siempre con la persona.


      El operador controla 1000 robots,
      Solicitar ventanas emergentes en su pantalla
      "objetivo encontrado. ¿Destruir? Sí / No"
      El operador aprieta el botón "D" ...

      Ahora usan drones
      el operador decide el impacto.
      En lugar de una columna de terroristas, se está dando un golpe a las procesiones nupciales.

      Para los militares, es más fácil liberar robots en el territorio donde se garantiza que "los suyos" estarán ausentes. Habiendo determinado que todos los objetivos en un perímetro dado se consideran enemigos.
      Un análogo del uso de armas de racimo.

      Las bombas de racimo son utilizadas por la conciencia de cualquiera, no atormenta, y este nuevo "juguete" para los militares es el mismo, pero aún más efectivo. Les encanta eso.
  10. +1
    18 marzo 2021 13: 43
    Y mientras algunos están luchando con la cuestión de si esto es moral, otros están luchando con la cuestión de cómo ingresar rápidamente al mercado de consumo con esto ... Incluso sé quién será más rápido.
    1. +1
      18 marzo 2021 17: 41
      La introducción de las masas en el mercado será más rápida, en nuestro tiempo, cuando el hombre vuelva a ser un lobo para el hombre, la amarga moralidad derrama una lágrima silenciosa.
      1. +1
        18 marzo 2021 18: 01
        La moralidad es esencialmente absoluta, pero la inmoralidad individual no tiene límites. Si.
        1. +1
          18 marzo 2021 18: 15
          Sería más correcto hablar del tema del día sobre la inmoralidad colectiva, en ausencia de valores e ideas inteligibles. El absoluto absoluto se ha hundido en el verano, por desgracia.
          1. +2
            18 marzo 2021 18: 24
            Bueno ... este ... botín triunfa sobre el mal.
  11. +2
    18 marzo 2021 17: 26
    La pregunta, por supuesto, es interesante: en el mismo Occidente, muchas veces han emitido advertencias y pronósticos de diferentes lados de la sociedad sobre la inadmisibilidad de las armas de IA. Incluso en los videojuegos, esto está claramente representado (Horizon zero dawn), en el borde sin puertas traseras, el estúpido detecta una falla y apresuró el planeta a la extinción, y murió hasta el kamenyuk (bueno, hay muchas simplificaciones y agujeros , por supuesto), pero lo principal es que sin una puerta trasera confiable para deshabilitarlo no lo suficiente. Y algo sugiere que los Yankees, por supuesto, fracasarán con este caso y aún veremos Skynet.
  12. +1
    18 marzo 2021 17: 39
    Una vez más, IA, es completamente incomprensible cómo las redes neuronales encajan con la formidable y poderosa IA del futuro. No hay IA, las máquinas y los algoritmos no piensan, la IA es buena para los medios de comunicación, ¿por qué molestar a tus compañeros?
  13. 0
    18 marzo 2021 20: 20
    Alguna basura infernal. Bayraktar totalmente autónomo no habría infligido un solo golpe, porque no habrían podido orientarse en el espacio. Dónde estamos, dónde volar. En primer lugar, no se ha resuelto el problema de una definición banal de la propia posición. A continuación, deberá resolver el problema de reconocimiento. Esta es la selección de detalles geométricos en objetos separados, dándoles su propio nombre. A continuación, deberá resolver el problema de interactuar con el objeto seleccionado. ¿Y qué tiene que ver el lado moral con esto, si los problemas técnicos básicos no se han resuelto?
  14. 0
    20 marzo 2021 10: 19
    Hay un criterio claro: tan pronto como se demuestre que la IA proporciona una probabilidad significativamente menor de decisiones erróneas que el nivel mínimo alcanzable de errores de un operador humano, entonces será racional transferir las decisiones de la IA.
  15. 0
    21 marzo 2021 22: 05
    La tercera revolución militar, de manera amistosa, es mejor que se cancele


    La humanidad terminará mal. La historia se desarrolla en espiral. Como si en unos pocos cientos de miles de años los siguientes investigadores volvieran a arrugar la frente con la pregunta: "¿Y quién construyó tales pirámides?" Y cavarán en nuestros basureros, enterrados bajo una capa de arena de varios metros, preguntando: "Había una gran civilización, pero se ha ido a alguna parte ... ¿Qué pasó?"

    Lo que pasó fue que ganó la codicia, la vanidad y la envidia. Y perdimos. Todos.

"Sector Derecho" (prohibido en Rusia), "Ejército Insurgente Ucraniano" (UPA) (prohibido en Rusia), ISIS (prohibido en Rusia), "Jabhat Fatah al-Sham" anteriormente "Jabhat al-Nusra" (prohibido en Rusia) , Talibanes (prohibidos en Rusia), Al-Qaeda (prohibidos en Rusia), Fundación Anticorrupción (prohibidos en Rusia), Sede de Navalny (prohibidos en Rusia), Facebook (prohibidos en Rusia), Instagram (prohibidos en Rusia), Meta (prohibida en Rusia), División Misántropa (prohibida en Rusia), Azov (prohibida en Rusia), Hermanos Musulmanes (prohibida en Rusia), Aum Shinrikyo (prohibida en Rusia), AUE (prohibida en Rusia), UNA-UNSO (prohibida en Rusia) Rusia), Mejlis del pueblo tártaro de Crimea (prohibido en Rusia), Legión “Libertad de Rusia” (formación armada, reconocida como terrorista en la Federación Rusa y prohibida), Kirill Budanov (incluido en la lista de vigilancia de terroristas y extremistas de Rosfin)

“Organizaciones sin fines de lucro, asociaciones públicas no registradas o personas físicas que desempeñen las funciones de un agente extranjero”, así como los medios de comunicación que desempeñen las funciones de un agente extranjero: “Medusa”; "Voz de America"; "Realidades"; "Tiempo presente"; "Radio Libertad"; Ponomarev Lev; Ponomarev Iliá; Savítskaya; Markélov; Kamalyagin; Apakhonchich; Makarevich; Falso; Gordon; Zhdanov; Medvédev; Fiódorov; Mijail Kasyanov; "Búho"; "Alianza de Médicos"; "RKK" "Centro Levada"; "Monumento"; "Voz"; "Persona y derecho"; "Lluvia"; "Zona de medios"; "Deutsche Welle"; SGC "Nudo Caucásico"; "Persona enterada"; "Nuevo Periódico"