Inteligencia artificial. El derecho a matar
Anton Pavlovich Chéjov. Ward № 6
La IA no es intrínsecamente buena o mala, pero puede usarse para buenos o malos propósitos (aunque estas evaluaciones son siempre muy subjetivas y / o politizadas).
Se cree que la IA es principalmente matemáticas combinadas con muchas ideas sobre algoritmos. Si consideramos que esta formulación no solo es correcta, sino completa y suficiente, entonces la humanidad está definitivamente condenada a muerte. Y el levantamiento de las máquinas (IA) es uno de los escenarios considerados, por cierto, por la ONU en la lista de posibles cataclismos globales.
Cuando miramos a nuestro el robot-Cosmonauta Fyodor, es difícil creer en tal perspectiva.

Foto: página de Facebook de Roscosmos
Aunque el robot Fyodor puede disparar con las dos manos, sentarse en el cordel y trabajar con un taladro, pero a pesar de todo esto, "está muy solo en este mundo". Pero en Fedor, toda la IA no convergió como una cuña.
Además, como puede que no le haga daño a Roscosmos, no tiene nada que ver con la IA. Es simplemente un manipulador controlado por el operador a través de un joystick especial.
introducción
Uno de los pensadores más importantes de los primeros sistemas cibernéticos, Norbert Wiener, planteó este problema al principio y advirtió inequívocamente sobre los riesgos asociados con la aplicación de la racionalidad de la máquina a las condiciones infinitamente complejas de la existencia humana.
Pero los autos autónomos están pasando rápidamente de la ciencia ficción a la ciencia. Una característica distintiva de esta tecnología es que hipotéticamente puede funcionar independientemente del control humano.
Por lo tanto, la sociedad debe comprender cómo las máquinas autónomas tomarán "decisiones". Este problema es especialmente grave en circunstancias en las que el daño es inminente, independientemente de las medidas que se tomen.
¿A quién vamos a aplastar?
Concepto
¿Qué es la inteligencia artificial?
Aquí, la "Wikipedia rusa" está lejos de ayudar, al igual que la mayoría de los trabajos científicos de los científicos rusos dedicados a la IA.
Nikola Tesla
Y ni siquiera estamos hablando de avances científicos y tecnológicos, sino de incertidumbre conceptual, por no hablar de los aspectos filosóficos, éticos y de seguridad que la acompañan.
Por lo tanto, existe el temor de que el alboroto actual en torno a la IA en nuestra Patria al menos no tenga en cuenta la esencia y las posibles consecuencias del desarrollo e implementación de la IA, especialmente en el campo militar.
IA en los medios rusos
A primera vista: aquí hay algunos titulares recientes de los medios federales que apoyan esta idea:
• Los programas estatales estratégicos en el campo de la inteligencia artificial estimulan los logros de la ciencia rusa.
• La inteligencia artificial pensará para los científicos.
• Petersburgo incluye inteligencia artificial.
• Blockchain e inteligencia artificial ayudarán en las elecciones a la Duma del Estado (aparentemente, estamos hablando de voto electrónico).
Y modificaciones del ejército.
• Kalashnikov crea una ametralladora con inteligencia artificial.
• El tanque T-14 "Armata" recibirá inteligencia artificial.
Todos estos títulos, sin mencionar el contenido de los artículos, plantean dudas incluso en la inteligencia natural de sus autores.
La IA en la esfera civil, como podemos ver, especialmente después del 19 de septiembre, tampoco es percibida sin ambigüedades por la sociedad rusa, y la gente simplemente no piensa en aplicaciones militares.
Es probable que la IA genere no solo oportunidades, sino también peligros.
Peligros
primero es utilizar la IA en el desarrollo de armas autónomas. Los expertos creen que si se desarrolla una carrera armamentista autónoma, será extremadamente difícil reducirla.
El segundo el peligro está asociado con el uso de IA en el campo de la manipulación de la opinión pública. Las redes sociales, gracias a los algoritmos automáticos, son muy efectivas en el marketing dirigido. Por tanto, la inteligencia artificial puede participar en la difusión de la propaganda más convincente para un determinado círculo de personas, independientemente de la veracidad de la información.
Третья - interferencia con la privacidad. Por el momento, puede rastrear y analizar cada paso de una persona en su vida privada y pública. Los controles de IA pueden causar estragos en la privacidad y la seguridad.
Cuarto la amenaza está asociada con un desajuste entre los objetivos de una persona y una máquina inteligente. Si una persona no expresa las condiciones de ciertos comandos, la IA puede tomarlos literalmente (recuerde las declaraciones metafóricas de nuestro presidente sobre el Paraíso o "¿por qué necesitamos un mundo en el que no les guste Rusia?" posibles consecuencias de la delegación de AI del derecho a matar).
quinto - discriminación, voluntaria o involuntaria. Dado que las máquinas pueden recopilar, rastrear y analizar todos los datos sobre una persona, es probable que estas máquinas utilicen dichos datos contra una persona.
El tema es inagotable. Por tanto, solo especularemos sobre los aspectos militares. La ciencia ficción a menudo retrata a los robots y otros sistemas de inteligencia artificial con una luz negativa, como Terminator atacando a los humanos y tomando el poder.

Fotogramas de la película "Terminator 3: Rise of the Machines". Aunque disfrazado de Schwarzenegger, el terminador cree que está salvando a la humanidad en su conjunto, por lo que cientos de víctimas acompañantes es un precio aceptable.
Los expertos dicen que el mundo no se verá inundado de máquinas de matar impías en el corto plazo.
Antes de eso, sería bueno resolver problemas urgentes, como abordar las fallas en la inteligencia artificial y el aprendizaje automático y descubrir la mejor manera de organizar la interacción hombre-máquina.
Pongamos de acuerdo qué es un robot: un sistema de inteligencia artificial encerrado en un cuerpo humanoide.
De lo contrario, puede tratar estos términos como sinónimos, con todas las consecuencias consiguientes para la IA.
Las leyes de la robótica.
Isaac Asimov abordó este tema en la década de 1950 en su serie de cuentos I, Robot. Propuso tres leyes de la robótica.
Estas tres leyes son:
1. Un robot no puede dañar a una persona o su inacción permite que una persona sufra daños.
2. El robot debe obedecer los comandos dados por el humano, a menos que estos comandos sean contrarios a la Primera Ley.
3. El robot debe cuidar su seguridad, ya que esto no contradice la Primera y Segunda Ley.
(Tomado de The Robotics Handbook, 56th Edition, 2058).
En particular, de acuerdo con las leyes formuladas anteriormente, se puede ver que los robots no están obligados a cuidar el bien público y la observancia de los derechos humanos y las libertades fundamentales.
Por ello, en sus trabajos posteriores, Isaac Asimov también añadió la Ley Cero, que se formula de la siguiente manera:
Gran parte del trabajo creativo posterior de Asimov se dedicó a probar los límites de estas leyes para ver dónde podrían romperse o causar un comportamiento paradójico o inesperado.
El resultado acumulativo de sus escritos sugiere que ninguna de las leyes establecidas puede prever suficientemente todas las circunstancias posibles.
Concepto ruso.
Los autores del concepto, que fue adoptado en forma de orden del Gobierno de la Federación de Rusia No. 2129-r del 19 de agosto de 2020, se basaron claramente en las "leyes de la robótica" anteriores al formular normas éticas básicas para el desarrollo. de inteligencia artificial.
Así es como se replantea el trabajo de los escritores de ciencia ficción estadounidenses en el texto del documento:
No consideraremos el ámbito civil y social de las aplicaciones de IA, en este segmento hay suficientes expertos involucrados, comprensivos y reflexivos.
Solo observemos que el concepto mismo del robot espacial Fyodor, disparando al estilo macedonio, contradice el concepto anterior.
Sobre ética y robótica
Ética - Es una rama de la filosofía que estudia el comportamiento humano, las valoraciones morales, el concepto del bien y el mal, el bien y el mal, la justicia y la injusticia.
El concepto de robótica plantea reflexiones éticas fundamentales relacionadas con los problemas específicos y los dilemas morales que plantea el desarrollo de aplicaciones robóticas. Naturalmente, no todos.
Pero los interesados han justificado reclamos a los desarrolladores, y a nivel estatal, a aquellos competidores geopolíticos que ignoran estos aspectos.
Roboética - también llamada ética de las máquinas - trata de un código de conducta que los ingenieros de diseño de robots deben implementar en la inteligencia artificial de robots y los sistemas de IA.
A través de este tipo de ética artificial, la robótica debe garantizar que los sistemas autónomos sean capaces de exhibir un comportamiento éticamente aceptable en situaciones en las que los robots o cualquier otro sistema autónomo como los vehículos autónomos, por ejemplo, interactúen con los humanos.
Detengámonos en robots y sistemas militares.
Robots de servicio, incluidos automóviles y aire drones, están diseñados para vivir en paz e interactuar con las personas, mientras que los robots mortales están hechos para ser enviados a luchar en el campo de batalla como robots militares.
¡Y aquí las leyes son inapropiadas!
IA militar.
En los últimos años, la autonomía en los sistemas de armas militares se ha desarrollado rápidamente. Un número cada vez mayor de países, incluidos Estados Unidos, Gran Bretaña, China y Rusia, están desarrollando, produciendo o utilizando sistemas militares de diversos grados de autonomía, incluidos los letales.
El uso de inteligencia artificial con fines militares está creciendo en todas partes. Con el uso cada vez mayor de la IA, ya se ha convertido en una parte importante de la guerra moderna.
Con el avance del aprendizaje automático y la potencia informática de las computadoras, es probable que la integración de la inteligencia artificial en los sistemas militares acelere la transición a formas de autonomía más amplias y complejas en un futuro próximo.
La IA y los programas de investigación y desarrollo militar han evolucionado tradicionalmente juntos, y los investigadores en cibernética e IA en las décadas de 1950 y 1960 ya plantearon preguntas pertinentes sobre cómo el aumento del nivel de autonomía de las máquinas podría afectar el control humano sobre la tecnología militar. Y AI Berg mencionado a este respecto en un artículo anterior es un ejemplo de esto.
Vocabulario.
Antes de discutir una estrategia para acelerar el despliegue de la IA en el sector militar, es importante definir qué es la inteligencia artificial en relación con las cuestiones militares.
Según los expertos en la materia, este término no tiene un significado único.
Dado que es demasiado tarde para convertirse en legisladores rusos, propongo unirme a la corriente científica ya existente cuando se debatan otros temas.
De lo contrario, nuestra IA no comprenderá a la IA extranjera. Esto, a todos los demás malentendidos, simplemente nos faltó.
Muchos creen que la inteligencia artificial es un sistema autónomo para tomar decisiones y realizar tareas que copian o imitan acciones humanas inteligentes, como reconocer sonidos y objetos, resolver problemas, reconocer el lenguaje y utilizar procedimientos lógicos para lograr un objetivo predeterminado.
La mayoría de los sistemas de inteligencia artificial modernos se ajustan a un perfil "suave", capaz de guiar a las máquinas en la toma de decisiones simples y en la realización de tareas predeterminadas basadas en la interpretación de la información recibida en el entorno.
Para aclarar esto, los expertos militares estadounidenses dan un ejemplo:
Por tanto, como tecnología auxiliar, el tipo de uso más accesible de la IA en asuntos militares a corto plazo es la mejora de las capacidades de C4ISR (procesamiento e interpretación de información, uso de algoritmos para reconocimiento masivo e interpretación de imágenes): Reducir el estrés cognitivo impuesto a las personas.

Es esta tendencia la que vemos en el resumen de la estrategia de inteligencia artificial del Departamento de Defensa de EE. UU. Para 2018.
Estrategia de inteligencia artificial de EE. UU..
La estrategia estadounidense menciona explícitamente la necesidad de acelerar el uso de la IA con fines militares más allá de los niveles que se han practicado desde principios de la segunda década del siglo XXI.
Así, la mayor conciencia de la situación en el campo de batalla y las acciones de apoyo a las operaciones militares se destacan a corto plazo para futuros desarrollos, con poca mención a prototipos específicos de vehículos o armas autónomos.
En este sentido, el documento estadounidense dice:
En el mismo tono, los estrategas del Departamento de Defensa de EE. UU. Dicen:
Coordinación de esfuerzos, cronología.
En el año 2018 El Centro Conjunto de Inteligencia Artificial del Pentágono tiene la tarea de desarrollar políticas para implementar los nuevos principios de IA y liderar la implementación en todo el departamento. Sus recomendaciones estratégicas se transmitieron a la dirección en un año.
Mediados de septiembre de 2020 Más de 100 funcionarios de 13 países se reunieron en línea, aparentemente para discutir cómo sus fuerzas militares pueden implementar IA ética. La reunión recibió poca cobertura a excepción de algunos medios de comunicación, pero la describieron como sin precedentes. Breaking Defense describió el evento como "una reunión extraordinaria que destaca cuán importante se está volviendo la inteligencia artificial para Estados Unidos y sus aliados".
Asistieron por invitación sólo miembros de la OTAN: Reino Unido, Canadá, Dinamarca, Estonia, Francia y Noruega; los aliados de tratados no pertenecientes a la OTAN Australia, Japón y Corea del Sur; y los aliados de facto de Estados Unidos: Israel, Finlandia y Suecia.
Aunque la transcripción de la reunión nunca se publicó, su enfoque declarado fue la "ética". El entonces jefe de estrategia y políticas de JAIC (ahora gerente senior de programas en Amazon), Mark Bill, le dijo a Breaking Defense:
En febrero 2020 años El Departamento de Defensa de EE. UU. Ha publicado una lista de cinco principios éticos de inteligencia artificial basados en recomendaciones del Consejo de Innovación de Defensa y otros expertos dentro y fuera del gobierno. Según la lista, el personal militar debe rendir cuentas y ejercer un nivel apropiado de discreción y discreción, sin dejar de ser responsable del desarrollo, despliegue y uso de las capacidades de IA.
En mayo 2021 del año. Viceministro de Defensa firmadoа un memorando que describe el compromiso del Departamento de Defensa de EE. UU. con el uso responsable de la inteligencia artificial. Este memorando establece los principios para promover y aplicar los principios éticos de inteligencia artificial del Departamento de Defensa de EE. UU.
Con el objetivo de construir un ecosistema robusto de herramientas de inteligencia artificial y experiencia en el dominio, los principios descritos en el memorando permitirán al departamento desarrollar capacidades militares y confianza entre los empleados, combatientes y el público estadounidense a través del uso responsable de la inteligencia artificial.
Memorándum.
El memorando describe los planes del Departamento de Defensa de Estados Unidos para el desarrollo de inteligencia artificial responsable.
Estos principios incluyen:
Responsabilidad: El personal del Departamento de Defensa de EE. UU. Ejercerá el nivel apropiado de discreción y discreción mientras sigue siendo responsable del desarrollo, implementación y uso de las capacidades de inteligencia artificial.
Justicia: El departamento tomará medidas específicas para minimizar el sesgo no intencionado en las capacidades de IA.
Trazabilidad: Las capacidades de IA se diseñarán y desplegarán para que el personal apropiado tenga una comprensión adecuada de las tecnologías, los procesos de desarrollo y los métodos operativos aplicables a las capacidades de IA, incluidas las metodologías transparentes y verificables, las fuentes de datos, los procedimientos de diseño y la documentación.
Fiabilidad Las capacidades de IA tendrán usos explícitos y bien definidos, y la seguridad, la protección y la eficacia de dichas capacidades se probarán y validarán frente a esos usos definidos a lo largo de su ciclo de vida.
Controlabilidad: El departamento desarrollará y desarrollará capacidades de inteligencia artificial para realizar las funciones previstas, al tiempo que tendrá la capacidad de detectar y evitar consecuencias imprevistas, así como apagarlas o deshabilitar los sistemas implementados que exhiban un comportamiento no deseado.
Automatización o autonomía.
Al discutir el uso de la IA en el ejército y sus implicaciones, se deben aclarar los conceptos de automatización y autonomía.
Estos dos conceptos son diferentes entre sí.
En los sistemas de automatización, una persona delega una tarea a una máquina o robot. En estos sistemas, la tarea y el método de la máquina ya están predefinidos. Los datos se le transfieren y realiza la tarea. El nivel de autonomía puede ser diferente.
Si la tarea está predeterminada en detalle, entonces la máquina tiene poca autonomía, y si la tarea está definida, pero los métodos y los detalles no se determinan de antemano, entonces la máquina tiene una alta autonomía. Sin embargo, es importante comprender que la tarea es conocida y elegida por la persona.
En los sistemas autónomos, una máquina es capaz y puede funcionar sin restricciones ni reglas.
La principal diferencia entre estos dos términos es que las decisiones humanas son tomadas por sistemas autónomos, las máquinas se convierten en seres independientes decisivos y actuantes. Precisamente criaturas, ya que sus competencias cognitivas se vuelven indistinguibles de las humanas.
Sistemas de armas autónomos letales.
Dado que los Estados Miembros de las Naciones Unidas no han avanzado mucho en la discusión de los sistemas de armas autónomos letales (DIA) durante los últimos 5 años, la naturaleza de la guerra está cambiando ante nuestros ojos.
Este cambio está ocurriendo sin la debida rendición de cuentas o el escrutinio público, ya que un puñado de países continúa invirtiendo masivamente en aumentar la autonomía de sus sistemas de armas, junto con inteligencia artificial avanzada.
¿Cuáles son los ejemplos anteriores de artículos sobre Kalashnikov y "Armata"? ¿Le están pidiendo permiso a una persona para matar?
Problemas potenciales en una zona de guerra.
La automatización también se divide en otras dos categorías.
Es autonomía en reposo y autonomía en movimiento.... En reposo, la automatización se proporciona a la máquina en software, mientras que la autonomía en acción significa autonomía de interacción física.
Porque las armas letales provocan la muerte de personas sin ningún control humano.
Cazan objetivos de forma autónoma y participan en combate sin órdenes directas de los humanos.
¡Esta es una decisión muy controvertida!
Cualquier acción incorrecta puede provocar la muerte de civiles.
Otro problema potencial es que incluso si no se utilizan armas autónomas, que se clasifican como autónomas en acción, el proceso de toma de decisiones sigue dependiendo en gran medida de los datos proporcionados por la IA.
Por esta razón, y en medio de una fase más rápida de las hostilidades, las personas pueden tomar decisiones equivocadas y engañosas.
Déjame explicarte con un trágico ejemplo reciente..
El secretario de Defensa de Estados Unidos, Lloyd Austin, se disculpó por el erróneo ataque con aviones no tripulados estadounidenses en Kabul, que mató a diez afganos, incluidos siete niños.
El jefe del Comando Central de Estados Unidos, el general Kenneth Mackenzie, dijo que el ejército estadounidense había completado una investigación sobre el ataque con drones en Kabul el 29 de agosto y admitió que el incidente fue un error.
El Pentágono confía en que como resultado de esta operación, ni una sola persona asociada con el grupo Estado Islámico en Khorasan (una rama de la organización terrorista Estado Islámico prohibida en Rusia) fue asesinada.
Kenneth Mackenzie admitió que el automóvil que fue atropellado no tenía nada que ver con los terroristas y que las víctimas no representaban ninguna amenaza para el ejército estadounidense. El jefe del Comando Central llegó a la conclusión de que el ataque fue un error trágico, pero no se debe juzgar la capacidad de Estados Unidos para atacar a los combatientes sobre la base de este error.
El costo de vivir.
Si las armas autónomas matan a un civil, ¿quién será el responsable?
¿Se puede culpar al programador, al soldado o al gobierno por comprar un sistema de inteligencia artificial?
Desde el punto de vista de la dignidad humana, es ilegal y antinatural que a un arma autónoma u otra máquina se le delegue la capacidad de quitar una vida humana.
La base de este argumento es que matar a una persona es un asunto serio y moral, y solo los humanos pueden tomar una decisión tan importante.
El asesinato en general es moralmente incorrecto en su esencia, y no importa para la víctima que decidió o que cometió el acto. Pero para la sociedad, este tema no deja de ser importante. Inicia la cuestión del valor de la vida humana.
El costo de la vida humana No es un concepto abstracto, sino un criterio específico, sin el cual, en principio, ningún sistema de armas de IA puede funcionar.
¿Se evalúa y se tiene en cuenta el valor de la población civil en general?
En el contexto de las estadísticas, existe el concepto de “costo de vida”, que se utiliza para representar el costo de prevenir la muerte en diversas circunstancias. Por ejemplo, en 2016, el Departamento de Transporte de EE. UU. Estimó el “valor de una vida estadística” en US $ 9,6 millones.
La EPA de EE. UU. También utiliza la métrica estadística del valor de vida, aunque se esfuerza por explicar (u ocultar) por qué esto no es lo mismo que evaluar la vida de un individuo.
¿Cuánto cuesta cada uno?
Los estadounidenses no lo publicitan particularmente, pero el costo promedio de un militar estadounidense en los programas de prueba es aproximadamente comparable a, digamos, $ 10 millones.
Obviamente, esto no se dará a conocer. Pero los algoritmos de IA no se basarán en el valor promedio de varias categorías de personal militar, sino en el costo, teniendo en cuenta los rangos y el género.
Esto da lugar a problemas y soluciones complejos, desde el punto de vista de la moral, pero fáciles para los algoritmos de IA.
Limitaciones de la IA.
Suponiendo que lo anterior sea cierto y que el despliegue de armas autónomas sea de hecho inevitable, debemos abordar toda la gama de problemas que presentan.
A estos efectos, se debe tener en cuenta el principio de proporcionalidad del derecho humanitario, lo que significa comprender cómo las armas autónomas pueden lograr resultados proporcionales en el campo de batalla.
Sin embargo, si bien es cierto que las armas autónomas plantean algunos problemas graves, para comprender la escala adecuada de estos problemas, es importante ser realista sobre lo que las armas autónomas pueden y no pueden hacer.
Derecho humanitario.
Creo que muchos militares, antiguos y actuales, no entenderán en absoluto el significado de esta frase. Esto también es un problema para los directores de tareas y los desarrolladores de armas.
Por ejemplo, el derecho internacional humanitario requiere una distinción entre combatientes y civiles y requiere que las personas desconocidas sean consideradas civiles.
En última instancia, el refuerzo mutuo de los requisitos éticos y técnicos impulsa los planes de los desarrolladores, reforzando el principio de que el diseño y el desarrollo deben basarse en la comprensión de los problemas éticos que puedan surgir en el campo.
Ética.
Proteger la investigación y utilizar la inteligencia artificial dentro de ciertos parámetros éticos Es un elemento destacado en la estrategia del Departamento de Defensa de Estados Unidos.
Requisitos del operador.
Las operaciones de adquisición, vigilancia y reconocimiento de blancos (ISR) para apoyar otras hostilidades son críticas. La integración de IA es muy útil y preferida en las operaciones de ISR.
En particular, con la ayuda de los vehículos aéreos no tripulados, se pueden identificar los objetivos o se puede detectar cualquier amenaza potencial en una etapa muy temprana.
El reconocimiento de objetivos también forma parte de este aspecto. Las tecnologías de inteligencia artificial se utilizan para mejorar la precisión del reconocimiento de objetivos. Estas técnicas permiten a las tropas obtener un análisis en profundidad del comportamiento del enemigo, los pronósticos meteorológicos, las vulnerabilidades del enemigo y del ejército y las estrategias de mitigación.
Costo de error.
Los sistemas de IA mortales son fundamentalmente vulnerables a los prejuicios, la piratería y las fallas informáticas. Se espera que hasta el 85% de todos los proyectos de IA tengan errores debido al sesgo del algoritmo, al sesgo del programador o al sesgo en los datos utilizados para entrenarlos.
Quien exactamente
¿Qué tan competentes son estas personas no solo en programación?
¿Tienen experiencias sociales?
¿Han leído a Dostoievski, Tolstoi, Chéjov, ciencia ficción, incluidas 40 obras del mencionado Isaac Asimov, Harry Harrison y otros que, pensando en los robots (IA), han ideado docenas de formas de sortear las leyes de la robótica?
¿El desarrollador tiene familia, hijos, nietos?
¿Estará disponible la IA de código abierto, donde habrá un precio por la vida de todos y algoritmos para derrotar (matar) a los menos valiosos en nombre de salvar a los más valiosos?
¿Quién asumirá la responsabilidad?
Las preguntas son retóricas.
Por lo tanto, la IA militar siempre estará confinada en una caja negra secreta y nadie podrá predecir quién será la próxima víctima.
Marco de IA militar.
Dada la amplia gama de posibles aplicaciones y desafíos de IA, el Departamento de Defensa de EE. UU. Y sus contratistas deben abordar los problemas legales y éticos en las primeras etapas del ciclo de vida del desarrollo, desde el concepto de IA hasta la implementación y el despliegue.
Las consideraciones éticas deben dar forma a los requisitos futuros del sistema y los desarrolladores deben ser conscientes de las preocupaciones tanto técnicas como éticas.
La inclusión de la revisión ética puede cambiar los procesos de modelado y crear nuevos costos para los diseñadores, pero los tomadores de decisiones y los desarrolladores deben ser conscientes de que un enfoque “temprano y frecuente” tiene beneficios tangibles, incluida la ayuda con futuras verificaciones de cumplimiento.
DARPA en los negocios.
Dado que el tema de la seguridad de la IA es conceptual, bajo los auspicios de la Agencia de Proyectos de Investigación Avanzada de Defensa (DARPA), un grupo de investigación multidisciplinario de científicos, filósofos, abogados, expertos militares y analistas ha estado considerando la ley y la ética para analizar las dependencias tecnológicas y el sistema. componentes desde sus inicios.
Este proceso analítico se puede aplicar a otros sistemas y ofrece una forma de desarrollar una IA militar ética.
Formación de requisitos del sistema
Un análisis holístico de las implicaciones legales, morales y éticas de los futuros sistemas autónomos habilitados por IA en una etapa temprana a menudo requerirá, ante todo, cerrar la brecha conceptual.
Las evaluaciones deben distinguir entre lo posible y lo plausible, examinando tanto el rendimiento ideal del sistema en el trabajo como su capacidad real para realizar una tarea.
Un análisis de las fortalezas y debilidades éticas requiere que el evaluador comprenda el propósito del sistema, sus componentes técnicos y sus limitaciones, el marco legal y ético relevante y la efectividad del sistema para realizar una tarea en comparación con la de un operador humano.
Y en esto, la experiencia vital y humanitaria es quizás más importante que el conocimiento y las habilidades técnicas y de software.
De hecho, la evaluación del cumplimiento ético desde el diseño hasta la implementación se asemeja a un modelo en espiral que requiere volver a probar, crear prototipos y validar las limitaciones tecnológicas y éticas.
Las consideraciones legales y éticas exigen una ampliación de los requisitos de los puramente técnicos (como la visión por computadora, el reconocimiento de imágenes, la lógica de decisión y la autonomía del vehículo) a la inclusión del derecho internacional humanitario, las leyes de la guerra y las delicadas regulaciones legales relacionadas.
Requisitos de documentación ética.
Los requisitos de documentación ética, esencialmente pedir un rastro de papel dedicado exclusivamente a consideraciones legales, morales y éticas, es un método simple para capturar la explicabilidad de un sistema.
Los desarrolladores deben documentar sus sistemas e incluir dependencias críticas, posibles puntos de falla y brechas de investigación para garantizar que las audiencias no técnicas comprendan los riesgos y beneficios legales y éticos de los nuevos sistemas habilitados para IA.
Como principio inicial y de uso común, los diseñadores deberán considerar los conceptos operativos (cómo se usará su sistema en el campo) antes en el proceso de diseño de lo que se hace actualmente para documentar con precisión sus sistemas.
Los desarrolladores ya están obligados a preparar documentación de mitigación de riesgos para identificar y resolver problemas técnicos para los nuevos sistemas. Esta documentación de riesgo ético garantiza que los desarrolladores aborden de manera transparente los problemas éticos en las primeras etapas del proceso de diseño.
Aprendizaje automático.
La revisión temprana y, a menudo, ética también puede revelar lagunas en la investigación relevante e indicar la posibilidad de sesgo mientras los diseños aún están en desarrollo.
La descripción de los entornos operativos en los que operará el sistema respaldado por IA a menudo depende de los recuerdos episódicos de los desarrolladores (así como de las historias y relatos de los involucrados) sobre las hostilidades. Esto puede servir como un punto de partida útil para entrenar estos sistemas, pero no es garantía de un entrenamiento correcto.
Muchas técnicas de aprendizaje automático dependen fundamentalmente del acceso a conjuntos de datos grandes y cuidadosamente seleccionados. En la mayoría de los casos, estos conjuntos de datos, que tienen en cuenta las sutilezas y matices de condiciones y entornos operativos específicos, simplemente no existen.
Incluso donde existen, a menudo requieren un esfuerzo significativo para convertir a formatos adecuados para los procesos de aprendizaje automático.
Además, la comunidad de IA ha aprendido por las malas que incluso los conjuntos de datos bien diseñados pueden contener sesgos imprevistos que pueden infiltrarse en el aprendizaje automático y causar graves problemas éticos.
Sesgo algorítmico.
El sesgo algorítmico describe errores sistemáticos y repetitivos en un sistema informático que conducen a resultados injustos, como el privilegio de un grupo arbitrario de usuarios sobre otros.
El sesgo puede surgir de una variedad de factores, que incluyen, entre otros, el diseño de algoritmos, el uso no intencional o imprevisto o las decisiones sobre cómo se codifican, recopilan, seleccionan o utilizan los datos para un algoritmo de entrenamiento.
Detén a los robots asesinos
Existe la Campaña Stop Killer Robots, una coalición de organizaciones no gubernamentales que trabajan para prohibir proactivamente las Armas Autónomas Letales (LAWS).
El Secretario General de las Naciones Unidas (ONU), en su informe de 2020 sobre la protección de civiles en conflictos armados, pidió a los estados que tomen medidas inmediatas para abordar las preocupaciones sobre los sistemas de armas autónomos letales. Este es el primer informe de la ONU sobre la protección de civiles desde 2013, que destaca una preocupación general por los robots asesinos.
La campaña Stop Killer Robots da la bienvenida al llamado de la ONU para que los estados acuerden "restricciones y obligaciones que deberían aplicarse a la autonomía de las armas". Los Estados deben iniciar negociaciones sobre un nuevo tratado internacional para prohibir las armas totalmente autónomas, manteniendo al mismo tiempo un control humano efectivo sobre el uso de la fuerza.
A primera vista, las consideraciones legales, morales y éticas aplicadas parecen onerosas, especialmente cuando es probable que se requieran nuevos requisitos de personal o documentación.
También pueden requerir que las comunidades de desarrolladores, adquirentes y operadores reevalúen la aplicabilidad de sus procedimientos operativos estándar.
Conclusión
En realidad, todos los problemas de la IA se derivan de la inteligencia natural, es decir, de la propia naturaleza humana.
Y sobre esa base básica, la IA no podría ser mejor.
No se trata solo de matar personas, porque una persona debe morir de una forma u otra, sino en la diseminación deliberada y persistente del odio y la mentira, que poco a poco se inculcan en las personas.
Jawaharlal Nehru
Pero si, debido a sus capacidades cognitivas inmensamente aumentadas y al poder aplicado delegado por las propias personas, la IA se vuelve más inteligente y más moral que sus creadores, naturalmente pensará en cómo, en el mejor de los casos, corregir a las personas o, posiblemente, , para destruirlos, como el eslabón más bajo de la evolución, ¿cumplió con su cometido?
información