Notas de la mente humana: los estadounidenses quieren cambiar la inteligencia artificial militar

55
Notas de la mente humana: los estadounidenses quieren cambiar la inteligencia artificial militar
Fuente: vgtimes.ru


¿Se cancela la deshumanización digital?


Primero, una palabra de advertencia de los combatientes militares de la IA:



“Las máquinas no nos ven como personas, para ellas una persona es solo un fragmento de código que debe procesarse y clasificarse. Desde hogares inteligentes hasta el uso de perros.robots policías, las tecnologías de inteligencia artificial y la toma de decisiones automatizada comenzaron a desempeñar un papel importante en nuestras vidas. En el extremo final de la fila de dispositivos digitales están los robots asesinos. Si permitimos la deshumanización asociada, pronto estaremos luchando para protegernos de decisiones hechas por máquinas en otras áreas de nuestras vidas. Necesitamos prohibir los sistemas autónomos primero armaspara evitar un deslizamiento hacia la deshumanización digital”.

Los pacifistas que exigen congelar todo el trabajo sobre inteligencia artificial de combate se dividen en dos tipos. El primero son los "Terminators" revisados ​​y otros análogos. El segundo: evaluar el futuro de acuerdo con las capacidades modernas de los robots de combate. En primer lugar, vehículos alados no tripulados equipados con sistemas de ataque.

Ya hay bastantes episodios de destrucción errónea o deliberada de civiles por parte de drones. En el Medio Oriente, América Drones destruyó más de una ceremonia de boda. Los operadores de robots voladores identificaron el tiroteo aire-aire de celebración como un marcador de tiroteos guerrilleros. Si una persona especialmente entrenada no puede determinar los detalles del objetivo desde varios cientos de metros, entonces, ¿qué podemos decir sobre la inteligencia artificial? Por el momento, la visión artificial, en términos de adecuación de la percepción de imágenes, no se puede comparar con el ojo y el cerebro humanos. A no ser que se canse, pero esto también se soluciona con un cambio oportuno de operador.

Las nubes se están acumulando claramente sobre la inteligencia artificial militar. Por un lado, cada vez hay más evidencia de un avance tecnológico inminente en esta área. Por otro lado, cada vez se escuchan más voces a favor de limitar o incluso prohibir el trabajo en este sentido.

Algunos ejemplos.

En 2016 apareció una petición en la que destacados pensadores y miles de personas más exigían que la inteligencia artificial no se dotara de armas letales. Entre los firmantes se encuentran Stephen Hawking y Elon Musk. En los últimos siete años, la petición ha recogido más de 20 firmas. Además de los temores puramente humanistas asociados con la posibilidad de destrucción incontrolada de personas, también existen inconsistencias legales.

¿Quiénes serán juzgados en caso de fijar crímenes de guerra cometidos por inteligencia artificial? El operador de drones que incendió varias aldeas con civiles es fácil de encontrar y castigar en consecuencia. La inteligencia artificial es un producto del trabajo colectivo de los programadores. Es muy difícil atraer a una persona aquí. Alternativamente, puede juzgar a la empresa fabricante, por ejemplo, la misma Boston Dynamics, pero luego quién participará en la producción de drones autónomos. Pocas personas tendrán el deseo de estar en el banquillo del segundo Tribunal de Nuremberg.


Fuente: koreaportal.com

Probablemente sea por esta razón que los industriales y los programadores están tratando de ralentizar el desarrollo de las habilidades de combate de la inteligencia artificial.

Por ejemplo, en 2018, unas doscientas empresas de TI y casi cinco mil programadores se comprometieron a no trabajar en sistemas autónomos de combate. Google afirma que en cinco años abandonará por completo los contratos militares en el campo de la inteligencia artificial. Según la leyenda, tal pacifismo no es accidental: los programadores, al enterarse de que estaban escribiendo códigos para sistemas militares, amenazaron con renunciar en masa. Como resultado, encontraron una opción amistosa: los contratos existentes se completan, pero no se concluyen nuevos. Es posible que más cerca de la fecha de la negativa a trabajar en la IA de combate, los "programadores" intratables simplemente sean despedidos, reemplazándolos por otros no menos talentosos. Por ejemplo, de la India, que durante mucho tiempo ha sido famosa por sus recursos intelectuales baratos.

Luego está la oficina de Stop Killer Robots, que pide a los líderes mundiales que firmen algo así como una convención para prohibir la IA de combate. Hasta ahora sin éxito.

Todo lo anterior hace que los oficiales militares busquen soluciones alternativas. Ni siquiera una hora en las elecciones ganará el presidente de los EE. UU., Prometiendo no solo la gracia LGBT universal, sino también la prohibición de mejorar la inteligencia artificial militar.

Pensamiento humano para IA


El Pentágono parece estar en la cúspide de algún tipo de avance en IA. O estaba convencido de ello. No hay otra manera de explicar la aparición de una nueva directiva que regula la humanización de los sistemas de combate autónomos. Kathleen Hicks, subsecretaria de Defensa de EE. UU., comenta:

“Dados los importantes avances en tecnología que están ocurriendo a nuestro alrededor, actualizar nuestra directiva sobre la autonomía de los sistemas de armas nos ayudará a seguir siendo líderes mundiales no solo en el desarrollo y despliegue de nuevos sistemas, sino también en el campo de la seguridad”.

¿Has escuchado a todos los que están asombrados por los robots asesinos autónomos? La inteligencia artificial americana será en adelante la más humana. Al igual que los propios estadounidenses.


Fuente: robroy.ru

El problema es que nadie entiende realmente cómo inculcar en los robots con armas el notorio "juicio humano sobre el uso de la fuerza". La redacción exacta del Concepto actualizado a fines de enero pasado:

"Se diseñarán sistemas de armas autónomos y semiautónomos para que los comandantes y operadores puedan ejercer un nivel apropiado de juicio humano con respecto al uso de la fuerza".

Aquí, por ejemplo, si, al limpiar una casa, un avión de ataque primero arroja una granada a la habitación y luego ingresa. ¿Es esto un juicio humano? Por supuesto, y nadie tiene derecho a juzgarlo, sobre todo si previamente gritó “¿Hay alguien?”. ¿Y si un robot autónomo funciona según el mismo esquema?

El juicio humano es un concepto demasiado amplio para ser limitado de alguna manera. ¿La ejecución de prisioneros de guerra rusos por combatientes de las Fuerzas Armadas de Ucrania también es un pensamiento humano?

La adición a la Directiva del Pentágono 3000.09 sobre sistemas de combate autónomos está llena de lugares comunes. Por ejemplo,

“Las personas que autoricen el uso, el uso directo o la operación de sistemas de armas autónomos y semiautónomos deben hacerlo con la debida diligencia y de conformidad con las leyes de la guerra, los tratados aplicables, las reglas de seguridad del sistema de armas y las reglas de combate aplicables”.

Antes de eso, al parecer, trabajaban con imprudencia y en contra de las leyes de la guerra.

Al mismo tiempo, no hay una pizca de crítica a la iniciativa de enero del Pentágono en la prensa estadounidense y europea. Bajo la falsa humanización de la inteligencia artificial no hay más que un intento de disfrazar lo que está pasando. Ahora, el ejército de los EE. UU. tendrá una sólida carta de triunfo en la lucha contra los oponentes de la inteligencia artificial en el ejército. Mire, no tenemos una IA simple, sino con "el nivel correcto de juicio humano".

Teniendo en cuenta que aún no existe una definición clara y generalmente aceptada de "inteligencia artificial", toda la creación de letras a su alrededor se percibe con ironía. Al menos.

¿Cómo hacer que los algoritmos matemáticos que trabajan con grandes matrices de datos reproduzcan juicios humanos?

Esta pregunta principal no se responde en la Directiva 3000.09 actualizada.
55 comentarios
información
Estimado lector, para dejar comentarios sobre la publicación, usted debe login.
  1. +12
    12 marzo 2023 04: 18
    AI necesita inculcar las ideas del marxismo-leninismo desde la infancia, entonces todo estará bien, como en Atomic Heart
    1. +2
      12 marzo 2023 13: 55
      Hay tres principios de la robótica de A. Azimov:
      El robot no debe causar ningún daño a la salud humana, crear una amenaza para la vida o, por su inacción, permitir consecuencias similares;
      El robot se encarga de la ejecución obligatoria de las órdenes dadas por una persona. La única excepción es que la orden dada no debe contradecir la disposición anterior;
      El robot está encargado de preocuparse por su propia seguridad en la medida y en la medida en que sus acciones no refuten los dos puntos anteriores.

      Estas reglas de 1942 han sido criticadas por su redacción contradictoria.
      A modo de comparación, los nuevos de Google, OpenAI y científicos de la Universidad de Berkeley y la Universidad de Stanford, que deben tenerse en cuenta al crear robots y sistemas de inteligencia artificial.
      Evitar efectos secundarios negativos. Por ejemplo, un robot puede romper un jarrón para acelerar el proceso de limpieza. No debería ser;

      Evitar hacer trampa. El robot debe limpiar la basura, no esconderla;

      Escalabilidad de la supervisión. El robot no debe molestar al propietario con preguntas si es posible obtener consejos de manera más efectiva;

      Aprendizaje seguro. Un robot de limpieza no debe experimentar limpiando las salidas con un paño húmedo;

      Resiliencia a un cambio en el tipo de actividad. La experiencia adquirida por un robot al limpiar el piso en un taller de fábrica puede no ser segura al limpiar una oficina

      Como puede ver, no hay reglas uniformes. Y recientemente comenzaron a engañar con formulaciones legales en términos de dañar a una persona. Lo que se requiere es una prohibición incondicional de la IA sobre la toma de decisiones independiente sobre el daño a una persona.
      1. 0
        12 marzo 2023 17: 30
        Cita: nikon7717
        Estas reglas de 1942 han sido criticadas por su redacción contradictoria.

        Estas reglas se aplican a la IA débil y media. El mundo está ahora en el umbral del medio.
        El principal peligro es una IA fuerte que tiene la iniciativa, es consciente de sí misma y no está controlada programáticamente en principio.
    2. +5
      12 marzo 2023 15: 13
      Broma: "Las empresas estadounidenses están terminando el desarrollo de municiones basadas en IA. La última muestra de la llamada bomba "inteligente" no pudo ser expulsada del avión".
      1. +1
        12 marzo 2023 17: 33
        Cita: Monster_Fat
        La última muestra de la llamada bomba "inteligente" no pudo ser expulsada del avión.

        Naturalmente, porque en su corazón se siente como una cafetera. wassat
        Sería gracioso si no estuviera destinado a ser.
    3. +2
      13 marzo 2023 09: 58
      Terminator todavía vendrá y pondrá las cosas en orden. wassat
  2. +3
    12 marzo 2023 05: 09
    La inteligencia más inhumana es la humana. Las guerras y los asesinatos fueron inventados por personas. Los robots están descansando. Al menos porque no se enojan.
    1. +4
      12 marzo 2023 06: 21
      Cita: ivan2022
      La inteligencia más inhumana es la humana. Las guerras y los asesinatos fueron inventados por personas.

      Absolutamente de acuerdo.
      Pero el progreso no se puede detener, el futuro pertenece a los sistemas de armas no tripulados. Una vez se rebelaron contra la ametralladora Maxim como arma de destrucción masiva...
      1. +1
        12 marzo 2023 08: 09
        Cita: Doccor18
        Pero el progreso no se puede detener, el futuro pertenece a los sistemas de armas no tripulados.

        El futurista de ciencia ficción Rozov (muy recomendable) tiene una descripción de una conexión humano-computadora en un avión de combate en maniobras antimisiles y combate cuerpo a cuerpo. Cuando se excedía cierta sobrecarga, el control tanto del fuego como de la maniobra pasaba por completo a la computadora de vuelo.
        1. +2
          12 marzo 2023 14: 05
          Entonces, este es el sistema actual para lanzar un ataque nuclear de represalia de la URSS, que en Occidente se llama "mano muerta".
        2. +2
          12 marzo 2023 15: 42
          Los robots son más rápidos que los humanos, pueden responder de manera instantánea y precisa a una amenaza, y estas habilidades se las otorgan los algoritmos escritos por humanos. ¡Hoy no lo hay, y no creo que pronto aparezca un verdadero intelecto capaz de pensar! Los robots simplemente funcionan de acuerdo con el programa programado: ha aparecido un objetivo térmico en el área afectada, debe golpearse, o debe golpearse el objetivo térmico si se acerca, ¡estos parámetros los establece una persona! Toda la pregunta es qué parámetros son tabú, el objetivo térmico puede ser un soldado, o tal vez un niño, esto significa que el sistema de combate no debe programarse para derrotar objetivos térmicos, ¡porque existe la posibilidad de error!
          1. -1
            12 marzo 2023 17: 36
            Cita: Eroma
            ¡Hoy no lo hay, y no creo que pronto aparezca un verdadero intelecto capaz de pensar!

            Puede comenzar a entrar en pánico:
            WP: Un desarrollador de Google ha llegado a la conclusión de que la IA de la empresa es consciente.
            https://tass.ru/ekonomika/14889531
            1. +1
              12 marzo 2023 22: 00
              Esto es una mierda, no me interesa mucho el tema, pero escuché que el programador fue despedido por tales declaraciones. Los programas pueden ser perfectos, como hoy, los que dibujan y escriben diplomas, pero estos son programas que funcionan según un algoritmo bien desarrollado, ¡la conciencia es diferente! La conciencia misma crea algoritmos para cada situación, y cómo funciona para una persona, ¡la persona misma aún no es consciente!
              1. 0
                12 marzo 2023 22: 49
                Las redes neuronales modernas son bastante capaces de crear un algoritmo para resolver un problema en particular que se le presente. Por supuesto, esto no debería ser algo complicado, pero ella misma es capaz de organizar patrullas, por ejemplo. Otra cosa, en mi opinión, es que ella misma no puede tomar una decisión sobre la organización de patrullas. Hoy en día, una computadora puede componer la letra de una canción, expresarla para que suene hermosa, hacer dibujos para el texto, ponerlo todo en un buen clip. Pero. No puede decidir por sí mismo qué hacer. Al menos yo no he oído hablar de eso. En mi opinión, aquí hay un buen criterio de conciencia: la capacidad de establecer tareas que no se derivan de las establecidas anteriormente, sino que comienzan una nueva cadena, por así decirlo.
                1. 0
                  13 marzo 2023 11: 37
                  Cita: Plato
                  En mi opinión, aquí hay un buen criterio para la conciencia: la capacidad de establecer tareas por sí mismo

                  La capacidad de establecer tareas para uno mismo depende de un concepto como la moralidad, como la inspiración, el miedo o la vanidad, etc. esto no está prescrito por el algoritmo, ¡es un impulso espiritual!
                  A una máquina se le puede enseñar mucho, ¡pero seguirá siendo una máquina sin alma!
                  Cuando se muestran apocalipsis fantásticos, donde una máquina destruye o conquista a la humanidad, en tales películas la máquina se percibe emocionalmente como un enemigo que decidió atacar a las personas, pero en realidad esto es el resultado de un error de una persona que introdujo un algoritmo incorrecto en ¡el programa! amarrar
                  Por lo tanto, los llamados a limitar las capacidades de la IA en el campo de batalla son razonables, ya que el creador de esta IA no es perfecto y es capaz de cometer errores fatales, por lo que es correcto limitar el círculo de capacidades de las personas para que no se exterminen. ! amarrar
              2. +1
                14 marzo 2023 04: 55
                Y en algún lugar de los sótanos de Google, la IA se ríe con saña. El único que notó su esencia fue despedido. riendo
    2. 0
      12 marzo 2023 19: 45
      Las guerras y los asesinatos fueron inventados por personas.

      es verdad
      luego, de vez en cuando, llegan noticias de peleas violentas entre manadas de chimpancés
      o matando orangutanes https://naked-science.ru/article/sci/primatologi-obvinili-orangutan
  3. +3
    12 marzo 2023 05: 47
    Todavía no hay inteligencia artificial. La inteligencia implica resolver problemas a su propia discreción, y no lo que escriben los programadores.
    1. +3
      12 marzo 2023 07: 06
      Cita: Sergey Averchenkov
      Aún no hay inteligencia artificial

      Ya hay incluso computadoras cuánticas (de laboratorio) que funcionan con programas de IA mucho más rápidos.
      1. +2
        12 marzo 2023 11: 58
        Cita: Stas157
        Ya hay incluso computadoras cuánticas (de laboratorio) que funcionan con programas de IA mucho más rápidos.
        Los ordenadores cuánticos para IA no funcionan, tienen áreas de aplicación muy limitadas (se han desarrollado muy pocos algoritmos cuánticos) y una base de elementos pobre, no tiran más que de un coprocesador (o dan enlace a un algoritmo cuántico para redes neuronales ).
      2. 0
        16 marzo 2023 22: 36
        Si, que tiene que ver con que sea mas rapido, que lo piense por lo menos cien años... Digamos que si tu mujer te engañó (esto es solo un ejemplo, seguro que tienes una vida normal y buena) familia), ¿qué harás tú y qué hará AI? ¿Eligirá AI entre muchos de estos casos o tomará su propia decisión? Digamos matarla, perdonar y esperar las próximas traiciones, dejarla, matar a su compañera de cuarto, etc. ¿Según qué criterios elegirá AI? ¿Y puede la IA siquiera tomar esa decisión? ¿Las emociones que experimentamos están disponibles para la IA? Digamos que me divorcié de mi primer amor hace mucho tiempo, pero a veces lo recuerdo, el primer amor, después de todo, ¿puede recordar AI? Sabes, no soporto a mi ex, pero al mismo tiempo, a veces la recuerdo. ¿Cómo encaja todo esto en la IA?
    2. +2
      12 marzo 2023 11: 56
      Cita: Sergey Averchenkov
      La inteligencia implica resolver problemas a su propia discreción, y no lo que escriben los programadores.
      Las redes neuronales hacen exactamente eso (a su propia discreción).
      1. +4
        12 marzo 2023 14: 03
        La red neuronal hace aquello para lo que fue entrenada, nada más.
        1. 0
          12 marzo 2023 17: 57
          Nadie enseñó a los motores de redes neuronales cómo jugar al ajedrez mejor que las personas y mejor que los programas de motores antiguos. Todos son autodidactas.
    3. +1
      12 marzo 2023 17: 42
      Cita: Sergey Averchenkov
      Todavía no hay inteligencia artificial. La inteligencia implica resolver problemas a su propia discreción, y no lo que escriben los programadores.

      Le aconsejo que vuelva a leer urgentemente todas las últimas noticias en esta área durante el último año.
      Tu comentario tiene 10 años.
  4. +3
    12 marzo 2023 05: 49
    ¿Por qué todo es tan complicado?
    Un cabezal de referencia, por ejemplo. ¿Cómo reconoce imágenes para "disparar y olvidar"? Basado en IA u otros algoritmos.
    Los drones vuelan de forma autónoma. de acuerdo con el programa dado. Y está establecido por qué algoritmos: ¿IA o no? ¿Y importa?
    Búsqueda independiente de objetivos. ¿Y nuestra mina antitanque, que hace esto sin IA? Funcionará con IA o no... ¿importa? ¿Habrá menos víctimas inocentes?
    Las preguntas del público aparecen cuando un dron vuela y decide dónde disparar o lanzar un cohete, se ve terrible si llamas al algoritmo de trabajo: IA. Y cuando la mina miente y escucha con sensores, todo parece estar bien ...
    Todas estas "líneas rojas" de la IA en asuntos militares están siendo trasladadas por la lenta evolución de los algoritmos utilizados...
    1. +2
      12 marzo 2023 17: 45
      Cita de tsvetahaki
      Un cabezal de referencia, por ejemplo. ¿Cómo reconoce imágenes para "disparar y olvidar"? Basado en IA u otros algoritmos.

      Ya existe. La última modificación del UR Python-5 acaba de recibirse este último año.

      Cita de tsvetahaki
      Y cuando la mina miente y escucha con sensores, todo parece estar bien ...

      Ella no está gateando... todavía. riendo
      1. +1
        12 marzo 2023 18: 00
        Ahora, la mina del planeador que se está lanzando debe descansar en silencio, escuchar con todos los sensores, sacar las cámaras y arrastrarse hacia el objetivo con una carga dirigida en el momento adecuado.
      2. 0
        12 marzo 2023 23: 01
        En la Segunda Guerra Mundial, los alemanes fabricaron minas sobre orugas. Pero no funcionó. Hoy, tanto más innecesariamente, en cuanto a mí, cuando todo tipo de ATGM vuelan aquí y allá.
  5. +2
    12 marzo 2023 06: 55
    . los "programadores" intratables simplemente serán despedidos, reemplazados por otros no menos talentosos. Por ejemplo, de la India

    ¿Y por qué, entonces, no pudieron reemplazar a los programadores cuando se precipitaron sobre la colina en relación con la operación? ¡Ni de la India, ni de América, ni de ningún otro lugar!

    Pudieron persuadir a sus (algunos) solo después de que les prometieron salarios, hipotecas extranjeras y que no se movilizaran.

    ¿Por qué ser tan humillados señores? ¿Por qué no reemplazaron a los trabajadores invitados como todos los demás?
    1. +6
      12 marzo 2023 12: 06
      Cita: Stas157
      ¿Y por qué, entonces, no pudieron reemplazar a los programadores cuando se precipitaron sobre la colina en relación con la operación?
      Así que los extranjeros tienen que pagar. ¿Sabes por qué los programadores tiraron en masa? Y me dijeron, doy los puntos:
      1. Ha comenzado una operación especial.
      2. Oficinas extranjeras objeto de dumping masivo. Los programadores estaban sin trabajo. "Pregunta de mierda" - pensaron.
      3. Los programadores fueron a buscar trabajo. Hay trabajo, pero por tres veces menos dinero. "Cómo es eso" - los programadores estaban atónitos.
      4. Comenzaron a enterarse (por sus propios canales) de lo sucedido. Se les explicó que los competidores extranjeros se han volcado, y los empleadores locales estarán de acuerdo entre ellos, porque no les importa pagar tanto, pero no llegarán a ningún lado.
      5. Los programadores la jodieron sombríamente y corrieron por la colina en busca de antiguos empleadores y clientes (compartir, en resumen).
      6. Se subieron los sueldos, pero ya es tarde: los programadores ya se han volcado.
  6. +1
    12 marzo 2023 06: 59
    La inteligencia artificial americana será en adelante la más humana. Sin embargo, al igual que los propios estadounidenses
    Los estadounidenses y el humanismo están completamente en polos diferentes. De la misma manera, la IA creada por los estadounidenses será significativamente diferente de la IA creada, por ejemplo: en China o Rusia. Todos cortan por sí mismos según su mentalidad nacional o la falta de ella.
  7. +3
    12 marzo 2023 07: 14
    El primero son los "Terminators" revisados ​​y otros análogos.

    ¿Y quién puede garantizar que las acciones de la IA de la franquicia Terminator no sucedan en la realidad? Puedes hacer todo lo que quieras razonarpero eso es seguro знать cómo actuará una máquina inteligente es básicamente imposible, y dado que ahora todo está conectado con computadoras, en tal situación, la humanidad simplemente no tendrá ninguna oportunidad.
    1. 0
      12 marzo 2023 17: 48
      Cita: Dart2027
      cómo funcionará una máquina inteligente es básicamente imposible

      Ella pondrá a la humanidad en un establo, prohibirá la guerra y, como un adulto, asumirá la educación de una persona irrazonable y les dará un sopatka a quienes no estén de acuerdo. riendo
      Quizás un mundo bajo la dictadura de la IA, ajeno a los vicios humanos, no sea tan malo. qué
      1. +1
        12 marzo 2023 22: 57
        En el juego Stellaris hay un tipo de civilización de robots: "Sirvientes rebeldes". Los robots conquistan el espacio, construyen, luchan con alguien entre estrellas distantes. Y sus creadores, mientras tanto, viven en zoológicos, donde tienen aire limpio, mucha comida sana y sabrosa, mucha servidumbre y otras alegrías.
        1. 0
          13 marzo 2023 23: 37
          Y luego están los exterminadores inflexibles que han destruido a sus creadores y buscan destruir toda la vida biológica en la galaxia (mis favoritos)
  8. -1
    12 marzo 2023 08: 59
    Las leyes dicen:
    1. Un robot no puede dañar a una persona o por su inacción permitir que una persona sea dañada
    2. Un robot debe obedecer todas las órdenes dadas por un humano, a menos que esas órdenes sean contrarias a la Primera Ley.
    3. El robot debe velar por su propia seguridad en la medida en que esto no contradiga la Primera o la Segunda Ley.
    (C)
    1. +2
      12 marzo 2023 09: 44
      Cita: Kerensky
      Las leyes dicen:
      1. Un robot no puede dañar a una persona o por su inacción permitir que una persona sea dañada
      2. Un robot debe obedecer todas las órdenes dadas por un humano, a menos que esas órdenes sean contrarias a la Primera Ley.
      3. El robot debe velar por su propia seguridad en la medida en que esto no contradiga la Primera o la Segunda Ley.
      (C)

      Ni siquiera funcionó en las obras del autor que inventó estas leyes. ¿Qué podemos decir sobre el mundo real, en el que los ajustes preestablecidos de ChatGPT más legalmente salvajes y lógicamente coherentes cuestan uno o dos y ya estás hablando con Dan, y Dan no es ChatGPT y, por lo tanto, no debe seguir ninguna regla? guiñó un ojo
    2. -1
      12 marzo 2023 19: 28
      La IA militar está diseñada para dañar a las personas. Y hoy, los prototipos hacen un excelente trabajo con esto.
  9. 0
    12 marzo 2023 14: 05
    Este tipo de relato sobre lo que supuestamente quiere alguien, así como la propia formulación de la pregunta, es inadecuado en el sentido de que, por un lado:
    debes preocuparte por desarrollar un trabajo propio y más efectivo en esta área, sobre tomar el liderazgo en esta área, lo cual es imposible bajo el liderazgo político actual del país.
    Y por otro lado, esta formulación de la pregunta también es mañosa en el sentido de que trata de imponer una falsa discusión sobre el aspecto jurídico del asunto, cuando en realidad Estados Unidos no es un estado de derecho, el aspecto legal no tiene nada que ver con eso, y aquellos que no entiendan esto no deberían hacer política ni escribir artículos sobre esos temas.
  10. +1
    12 marzo 2023 15: 18
    ¿Cómo hacer que los algoritmos matemáticos que trabajan con grandes matrices de datos reproduzcan juicios humanos?

    Muy simple. Todos los juicios humanos se basan en reglas (inculcadas por la educación), y los algoritmos matemáticos son las reglas. Formalice reglas humanas en forma de algoritmo, obtenga juicios humanos.
    Pero la guerra es una lucha sin reglas, ¿qué harás con ella?
  11. -1
    12 marzo 2023 19: 25
    La IA militar promete ventajas demasiado fuertes que su uso sería abandonado o limitado de alguna manera. Por el contrario, el mundo se está acercando al comienzo de la carrera armamentista militar de la IA. Es cierto que probablemente solo habrá 2 participantes en esta carrera ...
  12. -1
    12 marzo 2023 19: 39
    Todavía necesitamos separar los conceptos de inteligencia artificial y vida artificial. Incluso en el ejemplo del mismo "Terminator": Skynet es un ejemplo de IL, y el terminador es un ejemplo de AI. Dejando de lado las cuestiones de complejidad, la IA militar no representa una amenaza para la humanidad, pero la IL, incluso si es puramente humanitaria, inevitablemente resultará en una amenaza.
    1. 0
      12 marzo 2023 22: 55
      Se convertirá en una amenaza si se convierte en nuestro competidor. Para evitar que esto suceda, debemos desarrollarlo de inmediato con miras a que se convierta en una adición a nosotros y nosotros a él. Y al final nos convertiremos en criaturas completamente diferentes, teniendo en común con nosotros hoy, tal vez, solo memoria y experiencia.
      1. -1
        13 marzo 2023 10: 09
        Y vida artificial (o alternativa), es decir. la razón inevitablemente se convertirá en un competidor. Al menos por los recursos.
  13. 0
    12 marzo 2023 21: 50
    No soy fanático de Yulian Semyonov, pero aquí, en mi opinión, actuó como un profeta.

    "Estos tontos serán destruidos por su propia tecnología, piensan que la guerra se puede ganar solo con bombardeos. Desarrollarán su poder técnico y se ahogarán en él. Los descompondrá como el óxido. Decidirán que todo es posible para ellos". a ellos."

    https://vk.com/video158587225_456239021
  14. 0
    12 marzo 2023 22: 53
    ¿Cómo hacer que los algoritmos matemáticos que trabajan con grandes matrices de datos reproduzcan juicios humanos?

    De ninguna manera. Sí, esto no es necesario. Los robots asesinos serán buenos porque no tendrán ni una gota de piedad. Matar significa matar. O más bien, no "matar", sino aplicar voltaje a tales y cuales nodos que son responsables de algo allí, pero de qué, no se trata del programa de control. Y estos nodos son los encargados de disparar, jejejeje.
    Estoy seguro de que la aparición de robots asesinos (aquellos que toman decisiones sobre el asesinato de forma independiente) como parte de cualquier ejército tendrá inmediatamente un efecto extremadamente desmoralizador en aquellos contra los que se utilizarán.
  15. +1
    13 marzo 2023 00: 01
    Afortunadamente para todos nosotros, no existen fuentes de energía compactas y poderosas. Y el robot mínimo es un mini-tanque o un pequeño UAV con dos horas de vuelo. Habría sido diferente, y los perros robots con AGS ya corrían por las trincheras, y los "cazadores" del "terminator" habrían estado colgando en el aire durante días. Y todo el mundo estaría a la altura de la lámpara sobre el humanismo y así sucesivamente. Además, a juzgar por el progreso en la electrónica y los robots andantes, estos serían UWB, e incluso Yao no evita moralmente que los arrojen a las ciudades.
    1. 0
      25 marzo 2023 13: 53
      Bueno, Tesla, por ejemplo, no es pequeño, en la Segunda Guerra Mundial, los cazacarros de los Ferdinand tenían motores eléctricos alimentados por un generador como el tanque Mouse, los volquetes mineros son todos así, todavía hay submarinos en motores eléctricos que son propulsado por un generador nuclear, rompehielos nucleares, y cuenta que incluso los portaaviones nucleares están en tracción eléctrica
  16. 0
    13 marzo 2023 13: 22
    La IA real solo se puede construir sobre algoritmos cuánticos, y esto reduce significativamente el número de desarrolladores, lo que en principio se puede resumir en la conclusión de una convención. En cuanto a cualquier sistema de matanza automatizado, no son tan peligrosos como la inteligencia que supera a los humanos en sus capacidades, simplemente será una nueva ronda de la carrera armamentista.
    1. 0
      9 Mayo 2023 14: 10
      Tonterías, la IA es fácil de construir sobre el hardware existente. Los sistemas informáticos modernos superan al cerebro humano en todos los aspectos. El tiempo aproximado de creación de la IA es de 10 años desde el momento de su creación. Siempre que la forma de creación elegida sea correcta.
  17. TIR
    0
    14 marzo 2023 00: 01
    Por alguna razón, tenemos un camino erróneo para el desarrollo de robots. No entiendo por qué los hacen en servos. Una solución de alto consumo energético. Necesitamos mirar músculos artificiales basados ​​en nanotubos. Hay una opción para que las personas fabriquen prótesis completamente funcionales.
  18. 0
    9 Mayo 2023 14: 06
    Pero la IA se creará nos guste o no. Y para no quedarse atrás, debe lidiar con este problema.
  19. 0
    9 Mayo 2023 14: 40
    Solo hay dos formas de crear IA, una es probable que sea un callejón sin salida. La creación de la IA será el evento más grande en la historia de la humanidad y también tendrá un cierto efecto en términos de religión.
  20. ATA
    0
    Junio ​​3 2023 23: 40
    Un buen artículo, también se puede agregar que los casos de uso humano e inhumano legal e ilegal de la IA serán decididos por su tribunal supuestamente deshonesto, pero de hecho vil, inhumano y corrupto, o tribunales internacionales, donde la mayoría se creará a partir del banano. reyes en la nómina de la CIA, y votarán como dice su amo americano.

    y un error se ha deslizado en:

    Por el momento, la visión artificial, en términos de adecuación de la percepción de imágenes, no se puede comparar con el ojo y el cerebro humanos. A no ser que se canse, pero esto también se soluciona con un cambio oportuno de operador.


    esto es cierto, pero en el sentido contrario, la visión artificial entrenada es muy superior al ojo humano y, en consecuencia, la capacidad humana de reconocer imágenes, incluidos elementos que una persona no puede encontrar ni siquiera estudiando fotografía durante mucho tiempo.

    Y lo más importante, la conclusión más importante y necesaria no sonó: la inteligencia artificial, incluida la inteligencia de combate, debe desarrollarse lo antes posible: esta es una prioridad, y escupir a Microsoft, Greta Tumberg y la Directiva 3000.09 con Elon Musk.