Clasificación demográfica de objetivos en batalla.

4
Clasificación demográfica de objetivos en batalla.Hace apenas una década, uno de los grandes desafíos para la IA era poder distinguir la ropa interior femenina de la masculina en la lavandería, o el cuerpo de un adulto del de un niño en Internet. Ahora ha subido la apuesta en el análisis de las diferencias de género: el ejército estadounidense ha hecho un pedido de una idea para distinguir a las mujeres de los hombres y a los adultos de los niños para un sistema de selección de objetivos para los pilotos de la Fuerza Aérea y drones. Tal planteamiento del problema inicia una nueva etapa de cooperación entre el hombre y el arte.

Uno de los problemas de la guerra es lograr un equilibrio aceptable entre las pérdidas de los combatientes y las diversas categorías de civiles. El que es capaz de gestionar este equilibrio obtiene una ventaja significativa. Es cierto que hasta ahora la herramienta principal era la "admisión de pérdidas": algunos se esconden detrás de niños, mujeres y prisioneros de guerra como escudo humano, otros intentan resolver un problema insoluble: cuántos niños pueden ser sacrificados a cambio de un luchador. El efecto natural de esta confrontación es crear un enfoque más selectivo. armas y las últimas décadas han estado marcadas por un progreso significativo en esta área: las armas nucleares convencionales están siendo reemplazadas por armas de neutrones, causando mucho menos daño al medio ambiente con la misma pérdida de mano de obra, el concepto de armas de destrucción masiva es reemplazado por el concepto de armas de precisión e incluso los clásicos "científicos malvados" en la cara. Químicos y biólogos militares se dedican a la creación de medios selectivos de exterminio de ciertas razas o grupos demográficos. Pero, a pesar de los impresionantes éxitos, el resultado decisivo no se logró.

Significativamente grandes esperanzas inspiradas en el uso militar de la inteligencia artificial. Hoy queda claro que ya no se puede lanzar una granada entre la multitud con las palabras "Dios los ordenará": los dioses abandonaron el planeta hace mucho tiempo y necesitamos una forma nueva y más confiable de separar la nuestra de extranjeros y militares de los civiles. En la batalla moderna, el papel de Dios adquiere cada vez más inteligencia artificial. Más recientemente, su uso se ha limitado exclusivamente a la gestión de los sistemas de disparo de acuerdo con el principio o “drones” liberados: un avión asesino automático que dispara sin sentido toda la vida en la superficie del planeta por orden de comandantes distantes, y ahora el trabajo para crear armas inteligentes está cambiando cada vez más. Del asesinato inmediato a la gestión de operaciones. Un ejemplo ilustrativo es la competencia realizada hace un par de años por el departamento militar para "un medio intelectual de reducir las pérdidas de personal durante las operaciones militares en entornos urbanos". El principal requisito era que "esta herramienta no es un arma" y la solución recomendada es detectar a los sujetos potencialmente peligrosos y alertar a los hombres sobre la amenaza.

Los escándalos de los últimos años han demostrado que la precisión y la automatización de las armas no tiene sentido, si no hay manera de elegir con precisión un objetivo: entonces los pilotos dispararán a civiles por error, luego los drones destruirán de repente toda la vida porque los comandantes distantes decidieron "destruir a personas similares a los militares". , para salvar a los militares, similar a la gente "Es precisamente este problema que la idea, para la cual la USAF promete un poco de dinero, tiene la intención de resolver. Si es posible desarrollar un sistema para distinguir a los adultos de los niños y a las mujeres de los hombres, en el futuro, el piloto puede disparar a la multitud con la conciencia tranquila: Iskine clasifica los objetivos no peor que los dioses antiguos.

Curiosamente, el desarrollo de tal clasificador eliminará el obstáculo obvio que enfrenta la guerra cibernética. Hasta ahora, a los combatientes se les asignó implícitamente el papel de un cierto conductor de la humanidad en el tiempo inhumano de la guerra: no los padres al mando, no el partido y el gobierno, y no toda la gente, pero el luchador dio el veredicto final. Es por eso que hasta ahora, en todos los sistemas de armas, la última decisión siempre ha sido dejada al hombre. Ahora, Iskin se convierte en el equivalente moral de una persona y se agrega una simple tarea de optimización a la planificación del control de incendios: "maximizar las pérdidas del personal enemigo con un mínimo de pérdidas entre la población civil".

No hay duda de que Iskin encontrará el óptimo mejor que el luchador, equipado solo con una empririka desnuda, pero no es un interés evolutivo en reducir las pérdidas por sí mismo, es mucho más importante que Iskin tome una decisión ahora. Por lo tanto, el último obstáculo frente a los medios de guerra más efectivos se elimina y pronto los drones pasarán de ser un avión aburrido con telepresencia a máquinas autosuficientes de destrucción selectiva. Así, la guerra del hombre e Iskina comienza, y parece que será la guerra más humana de todas: las ecuaciones exactas de la pérdida contra la moral ambigua resumirán la guerra eterna de las fuerzas de la razón con las fuerzas del bien.
4 comentarios
información
Estimado lector, para dejar comentarios sobre la publicación, usted debe login.
  1. Tyumen
    0
    26 Septiembre 2011 21: 28
    Es peligroso. Entonces pueden llegar a una clasificación como blanco-negro, blanco-amarillo, etc.
  2. Zczczc
    +2
    26 Septiembre 2011 21: 32
    Ahora entiendo que los residentes de los países ocupados comprarán camisetas con las palabras "I love NY" antes de la invasión de las fuerzas terrestres ...

    Manicomio, por supuesto, la humanidad debe terminar con los Estados Unidos, y lo antes posible. Lo principal, porque para esto no se necesita hacer nada en la esfera militar, simplemente rechazar el dólar de una vez. Bueno, o no de una vez, pero rechaza.
  3. Feedain
    -2
    1 diciembre 2011 03: 10
    Kakoi smisol yesli oni bonbiat 10 tonami bombami, una potom Upssss izvenite
  4. 0
    14 archivo 2013 23: 35
    Esto ya es peligroso. No quiero que el robot tome esas decisiones.