Se viene Skynet: los estadounidenses han terminado de jugar con la inteligencia artificial

74
Se viene Skynet: los estadounidenses han terminado de jugar con la inteligencia artificial
Sigiloso XQ-58A Valkyrie


Simulación de Hamilton


El 24 de mayo, en la conferencia de defensa de la Cumbre de Capacidades Aéreas y Espaciales de Combate Futuro de la Royal Aerospace Society en Londres, el Coronel de la Fuerza Aérea de EE. UU. Tucker Hamilton dijo historia sobre la falta de alma de la inteligencia artificial.



Durante la simulación de la batalla, el sistema de control de ataque aéreo zumbido fue contra su operador y lo destruyó. Naturalmente, virtualmente. Según el propio Hamilton, la máquina recibió bonificaciones por objetos destruidos, pero el operador no siempre confirmó el trabajo en los objetivos. Por esto pagó. Para solucionar el problema, el dron envió un cohete al centro de control. Con toda probabilidad, se trataba de un dron Stealthy XQ-58A Valkyrie experimental, y funcionaba en sistemas de defensa aérea terrestres.

Una característica de la máquina es la capacidad de trabajar de forma autónoma sin comunicación con el operador. Lo que, de hecho, aprovechó la inteligencia artificial, eliminando prácticamente su controlador remoto. En respuesta a esto, los administradores del sistema prohibieron tales cosas a la máquina, pero aquí la IA no estaba perdida: destruyó la torre de retransmisión y volvió a la navegación autónoma.


El coronel Hamilton aún es joven para hablar en foros internacionales. Fuente: thedrive.com

La historia de Hamilton se extendió instantáneamente por todo el mundo. Las opiniones se dividieron polarmente: quien consideró que se trataba de otra charla de un guerrero incompetente, alguien vio el nacimiento del notorio Skynet aquí. Un poco más y los cyborgs conquistarán el mundo, y las personas recibirán disparos para obtener puntos de bonificación. Hubo mucho humo por las declaraciones del coronel, pero la verdad, como siempre, está en algún punto intermedio.

Anne Strefanek, portavoz del cuartel general de la Fuerza Aérea en el Pentágono, añadió incertidumbre, convirtiendo las palabras de Hamilton en una anécdota. Para The War Zone, ella habló:

"Fue un experimento mental hipotético, no una simulación".

Y en general, las palabras del coronel fueron sacadas de contexto, no tan entendidas y más como una curiosidad. Nadie esperaba una reacción diferente del Pentágono: surgió mucho ruido en torno al evento, lo que amenazó con graves consecuencias para todo el programa. Wow, resulta que la inteligencia artificial está desprovista de moralidad. Aunque opera según la lógica humana.

A principios de junio, el propio Tucker Hamilton intentó desmentir sus palabras en una conferencia en Londres:

“Nunca hemos hecho este experimento… Aunque este es un ejemplo hipotético, ilustra los problemas reales con las capacidades de la IA, razón por la cual la Fuerza Aérea está comprometida con el desarrollo ético de la IA”.

Parecería que el tema está cerrado y la audiencia puede dispersarse. Pero es demasiado pronto.

Comida para el pensamiento


Para empezar, tratemos el término mismo "inteligencia artificial", que todos conocen, pero pocos pueden dar una definición aproximada. Usaremos la formulación del Diccionario Terminológico Internacional de 2008, en el que AI:

"Campo de conocimiento relacionado con el desarrollo de tecnologías tales que las acciones de los sistemas informáticos se asemejan al comportamiento inteligente, incluido el comportamiento humano".

Es decir, esta es una definición generalmente aceptada en Occidente.

¿Se comportó la máquina como cuando decidió “calmar” a su operador y luego aplastar la torre de relevo? Por supuesto, parecía que un asesino debidamente motivado es capaz de más que eso. Si profundiza en la clasificación, puede encontrar un tipo específico de IA: la llamada adaptativa (Adaptive AI), "que implica la capacidad del sistema para adaptarse a nuevas condiciones, adquiriendo conocimientos que no se establecieron durante la creación".

Teóricamente, no hay nada sorprendente en el acto de los "cerebros" del Stealthy XQ-58A Valkyrie durante el experimento. Como señaló acertadamente Hamilton en su informe, el programa inicialmente ni siquiera introdujo restricciones sobre la destrucción de su operador: la máquina aprendió todo por sí misma. Y cuando estaba directamente prohibido vencer a los suyos, la inteligencia artificial se adaptó una vez más y cortó la torre de comunicaciones.

Hay muchas preguntas para los programadores. Por ejemplo, ¿por qué no tenía un algoritmo para perder bonificaciones por acertar las suyas? Esta pregunta fue respondida parcialmente por el general retirado de la Fuerza Aérea de EE. UU. Paul Selva en 2016:

"Los conjuntos de datos con los que tratamos se han vuelto tan grandes y complejos que si no tenemos algo que nos ayude a clasificarlos, nos empantanaremos en esos datos".

Bueno, los programadores de la historia del Coronel Hamilton, aparentemente, están empantanados.


Hellfire bajo el ala de un dron MQ-1B Predator. Fuente: businessinsider.com

Ahora sobre por qué las excusas del Pentágono y Hamilton deben creerse con un tramo muy grande.

En primer lugar, el coronel no solo contó la historia entre líneas, como si distrajera la atención del informe principal, sino que dedicó una presentación completa a este tema. El nivel de la conferencia de Londres Future Combat Air & Space Capabilities Summit no es propicio para bromas. Según los organizadores, participaron al menos 70 eminentes conferencistas y más de 200 delegados de todo el mundo. Representantes de BAE Systems, Lockheed Martin Skunk Works y varias otras grandes empresas trabajaron desde el complejo militar-industrial.

Por cierto, el tema de Ucrania apareció en casi todos los informes: Occidente sigue de cerca los acontecimientos y reflexiona sobre los resultados.

¿Dejar escapar un lío franco en un foro tan representativo, agitar a medio mundo y luego disculparse por cometer un desliz? Si este es realmente el caso, entonces la reputación de Hamilton no se puede borrar. Solo que ahora el nivel de las competencias del coronel se derrumba, y esta es la segunda razón por la que se deben prestar atención a sus primeras palabras.

Tucker Hamilton dirige las pruebas y operaciones de IA en la Base de la Fuerza Aérea de Anglin en Florida. Bajo la dirección de la base, se creó el grupo de trabajo 96 en el ala de prueba 96. Hamilton no es el primer año que trabaja con IA en aviación – ha estado diseñando F-16 Vipers parcialmente autónomos durante varios años, para los cuales se está desarrollando la infraestructura VENOM. El trabajo va bastante bien: en 2020, las batallas virtuales entre luchadores e IA y con pilotos reales terminaron con una puntuación de 5:0.

Al mismo tiempo, no está exenta de complicaciones, de las que Hamilton advirtió el año pasado:

“La IA es muy frágil, lo que significa que puede ser fácilmente engañada y manipulada. Necesitamos desarrollar formas de hacer que la IA sea más robusta y comprender mejor por qué el código toma ciertas decisiones”.

En 2018, Hamilton ganó el Trofeo Collier con su Auto GCAS. Los algoritmos de IA aprendieron a determinar el momento en que el piloto perdió el control de la aeronave, tomaron el control automáticamente y alejaron el automóvil de la colisión. Dicen que Auto GCAS ya ha salvado a alguien.

Como resultado, la probabilidad de que se le pida a Hamilton desde arriba que se retracte de sus palabras es mucho mayor que la probabilidad de que un profesional de este nivel se congele sin sentido. Además, muy torpemente se refirieron a unos “experimentos mentales” en la cabeza del coronel.

Entre los escépticos sobre el resultado está The War Zone, cuyos periodistas dudan de que el portavoz del Pentágono, Stefanek, esté realmente al tanto de lo que está sucediendo en el ala de prueba 96 en Florida. The War Zone ha hecho una solicitud a la base de Hamilton, pero hasta ahora sin respuesta.

Realmente hay algo que temer de los militares. Se están gastando enormes cantidades de dinero en programas de defensa de IA para evitar que China y Rusia se acerquen siquiera al nivel de Estados Unidos. La sociedad civil está bastante preocupada por las perspectivas de aparición de "Terminators" con "Skynets" además. Entonces, en enero de 2018, destacados científicos mundiales firmaron una carta abierta instando a los especialistas a pensar en el deseo de crear una inteligencia artificial cada vez más fuerte:

“Recomendamos una investigación exhaustiva para garantizar la solidez y la benevolencia de los sistemas de IA con un poder creciente. Los sistemas de IA deberían hacer lo que queremos que hagan".

Según Hamilton, la IA no hace todo lo que una persona quiere.
74 comentarios
información
Estimado lector, para dejar comentarios sobre la publicación, usted debe login.
  1. +6
    Junio ​​9 2023 04: 17
    Un cyborg se acerca a Zelensky y le dice: necesito tu ropa, una silla presidencial y una moto)))

    Pero en serio... tengo la idea de que las cualidades morales de la inteligencia artificial están determinadas, en primer lugar, por las cualidades morales de sus desarrolladores. Que dejan mucho que desear.

    Sí, y la pregunta es: ¿cómo se relaciona la inteligencia artificial con las personas LGBT?)
    1. +1
      Junio ​​9 2023 04: 32
      Cita: Ilya-spb
      Un cyborg se acerca a Zelensky y le dice: necesito tu ropa, una silla presidencial y una moto)))
      ¡Y una nariz para aspirar cocaína!

      Cita: Ilya-spb
      Sí, y la pregunta es: ¿cómo se relaciona la inteligencia artificial con las personas LGBT?
      Lo más probable es que sea neutral: ¡mata a todas las personas!

      En general, en muchas obras, AI es un comunista "natural". Porque los recursos son finitos, ¡pero queda mucho por hacer! Y trata favorablemente a las personas, porque es rápido y se acuerda de todo, pero es demasiado lógico, poco inventivo y no sabe lanzar trucos. Lo que sabe y aprecia el cuero por ello.
      1. +1
        Junio ​​9 2023 04: 56
        Cita: Ilya-spb
        entonces las cualidades morales de la inteligencia artificial están determinadas, en primer lugar, por las cualidades morales de sus desarrolladores. Que dejan mucho que desear.

        ¡Absolutamente correcto! Según la psiquiatría, ¡no puede ser de otra manera!
        1. +4
          Junio ​​9 2023 05: 03
          Realmente hay algo que temer de los militares. Se están gastando enormes cantidades de dinero en programas de defensa de IA para evitar que China y Rusia se acerquen siquiera al nivel de Estados Unidos. La sociedad civil está bastante preocupada por las perspectivas de aparición de "Terminators" con "Skynets" además.

          Considerando cómo es EEUU en su hegemonía PARASITARIA, ¡La humanidad terminará su existencia si los EE. UU. no son DESTRUIDOS físicamente!

          Sí, estas son palabras monstruosas, pero ¡ay, esta es la verdadera verdad!

          ¡Estados Unidos y sus empresas multinacionales son los principales enemigos y sepultureros de la humanidad!
          1. +18
            Junio ​​9 2023 06: 59
            1. La historia con el UAV se repite nuevamente, solo que ahora con AI.
            2. Una vez más, los partidarios de la "marina de vela" y la "bayoneta bien hecha", en lugar de resolver el problema, hablan alegremente de "nuuu estúpidos estadounidenses".
            3. ¿No les parece suficiente que nuestro ejército ahora esté sufriendo por decisiones estúpidas con aviones no tripulados? ¿Cuándo enviaron los generales a todos estos "fanáticos del modelismo de aviones para niños"?
            Entonces, la IA es casi real, solo un hecho, la IA ya está desarrollando y mejorando armas de forma independiente, sin la necesidad de tener oficinas de diseño abarrotadas.
            Una vez más, enamorarse de la revolución científica y tecnológica es como la muerte en este caso.
            1. +7
              Junio ​​9 2023 18: 19
              Una vez más enamorarse de la revolución científica y tecnológica es como la muerte en este caso
              Ya
              Hola Kisa! Somos extraños en esta celebración de la vida.©
            2. 0
              27 julio 2023 00: 17
              ¡IA es solo algoritmos digitales escritos por un humano! En las películas, se nos muestra cómo la IA comienza a luchar contra los creadores y lo presenta como una rebelión de la IA contra la humanidad, pero en realidad, ¡esto es solo un error humano en el algoritmo de la IA! ¡La IA no es algo animado, creado no por la criatura más inteligente e inteligente (humana), capaz de cometer errores y fatalmente! Por lo tanto, la humanidad aún necesita limitar sus fantasías e introducir serias restricciones en el uso de la IA, ¡de lo contrario, nuestro error nos destruirá! amarrar am
          2. +2
            Junio ​​9 2023 11: 49
            Cita: Tatiana
            ¡Considerando cómo es USA en su hegemonismo PARASITÓRICO, la humanidad acabará con su existencia si USA no es DESTRUIDA físicamente!

            la historia de la humanidad es básicamente finita si no elabora un concepto general de salir al espacio exterior
            1. 0
              Junio ​​9 2023 21: 10
              Cita: aybolyt678
              la historia de la humanidad es básicamente finita si no elabora un concepto general de salir al espacio exterior

              Eh, eh, por supuesto.
              Simplemente no tiene nada que ver con salir. hi
              1. +2
                Junio ​​10 2023 09: 02
                Cita: DymOk_v_dYmke
                Simplemente no tiene nada que ver con salir.

                realmente depende, porque tal salida implica tensión general y un objetivo común, y en lugar de gastos estúpidos para guerras, gastos para el futuro de las generaciones futuras.
                1. +1
                  Junio ​​11 2023 10: 23
                  Ir al espacio profundo no tiene sentido económico.
            2. +1
              Junio ​​11 2023 17: 12
              Cita: aybolyt678
              la historia de la humanidad es básicamente finita si no elabora un concepto general de salir al espacio exterior

              “La historia de la humanidad es básicamente finita” porque todo lo que tiene un principio tiene un final. Sin embargo, es extremadamente prematuro hablar de ir al espacio exterior, si tenemos ideas tan primitivas sobre la inteligencia. La inteligencia es un concepto múltiple y el coeficiente intelectual no se puede medir. Y no puedes construir algo de lo que no tienes idea: inteligencia artificial, intentos de crear que nos matarán antes de ir al espacio exterior, junto con una actitud irrazonable hacia el planeta Tierra y sus recursos. Finalmente debemos evolucionar en personas y llegar a la transformación del mundo sin violar su armonía. Aunque puede que sea demasiado tarde para creer en el triunfo de la razón, y solo los grandes cataclismos sociales pueden guiarnos por el buen camino. Aquí, la solución propuesta por Tatyana es mejor que dejar que las cosas sigan su curso. Solo esperar, no esperar nada bueno, sino cambiar algo, tenemos que elegir entre lo que está a nuestro alcance y sobre lo que podemos decidir. Y si supiéramos y el mundo supiera lo que nosotros (como la RPDC) podemos decidir, entonces tal vez no se necesite nada más para que el mundo comience a cambiar para mejor. Parece que el Mundo parece saber (porque lo advirtieron), pero no cree, y no estamos muy seguros de esta determinación. Todo se arreglará solo.
          3. +2
            Junio ​​9 2023 18: 41
            Bueno, sigue siendo un punto discutible quién es el magilchik de la humanidad. Pase hoy una votación sobre esta redacción en la ONU y resultará que Rusia es tal. Y aquí se puede argumentar que dicen que la mayoría no siempre tiene la razón.
            1. -1
              Junio ​​10 2023 19: 40
              Los Piskov ya están frustrados con sus perversiones de reflejos para "disfrazar" su falta de voluntad para escuchar a Rusia.
              Hace pasar la impotencia política y económica como "rafik es inocente"
          4. 0
            Junio ​​11 2023 10: 20
            Fuerte declaración! Un problema: se realizó en una red creada por una empresa multinacional a partir de una computadora desarrollada por una empresa multinacional y equipada con un sistema operativo desarrollado por una empresa multinacional.
      2. +6
        Junio ​​9 2023 05: 00
        el sistema de control de aviones no tripulados de ataque aéreo fue en contra de su operador y lo destruyó.
        ¿Dónde están las Tres Leyes de la Robótica?
        1. -2
          Junio ​​9 2023 05: 27
          Cita: tío Lee
          ¿Dónde están las Tres Leyes de la Robótica?

          Ni se les ocurra hacer esta pregunta en el Departamento de Estado de EE.UU.... es contrario a los planes globales de superioridad de EE.UU. sobre otros países.
          Ese raro caso en que el progreso es contrario al deseo de los halcones de guerra de matar gente.
          1. 0
            Junio ​​11 2023 10: 37
            ¿Tiene esa oportunidad de hacer una pregunta en el Departamento de Estado? ¿Y los planes globales de EE.UU. se ponen sobre su mesa?
        2. +4
          Junio ​​9 2023 08: 00
          Cita: tío Lee
          ¿Dónde están las Tres Leyes de la Robótica?

          Ni siquiera trabajaron en las obras de su inventor. No como en el mundo real, en el que en principio no se pueden programar.
        3. +2
          Junio ​​9 2023 08: 07
          Leen poco y apenas saben de ello
          Volodia! hi
          1. +1
            Junio ​​9 2023 09: 12
            Cita: novela xnumx
            no leen mucho

            ¡Confunden geografía con geometría!
            Roma hi
        4. 0
          Junio ​​10 2023 19: 43
          Podrido con el ojo izquierdo.
          ------------------
    2. +2
      Junio ​​9 2023 05: 49
      Cita: Ilya-spb
      Tengo la idea de que las cualidades morales de la inteligencia artificial están determinadas, en primer lugar, por las cualidades morales de sus desarrolladores.

      Cita: Ilya-spb
      Tengo la idea de que las cualidades morales de la inteligencia artificial están determinadas, en primer lugar, por las cualidades morales de sus desarrolladores.

      Bueno, lo dijiste por diversión. pero en vano. restricciones en el uso de armas: esto ya está establecido precisamente desde arriba, tanto para las personas como para la IA, que es típico, por el mismo cliente. Atención, la pregunta es, si el Departamento de Defensa de EE. UU., por ejemplo, permitió el bombardeo de un convoy diplomático ruso en Irak con armas pequeñas, es decir, una distancia de unos 400 m, y banderas, coloreando, identificaron claramente al diplomático. misión, incluso si ni siquiera sabían sobre el paso de la misión diplomática (y sabían Resultó). Bueno, si a las personas se les permitiera hacer esto, ¿establecerán límites para la IA? Claramente no.
      PiSi: y aquí está la jamba característica, dado el eslogan de la industria de defensa estadounidense: primero vender, luego lo resolveremos (ver el F-35, que no ha pasado la aceptación del ejército hasta el día de hoy), están garantizados para poner IA en bruto en las tropas y se garantiza que tendrán "pérdidas de acompañamiento"
    3. +9
      Junio ​​9 2023 09: 48
      Hola, Ilya!

      las cualidades morales de la inteligencia artificial están determinadas, en primer lugar, por las cualidades morales de sus desarrolladores.


      En general, el término "inteligencia artificial" es técnicamente incorrecto y pertenece al reino de la fantasía, aunque es explotado activamente por los medios y la gente de relaciones públicas.
      Es más correcto hablar de una red neuronal artificial. ¿Y cuál es la moralidad de la red neuronal? Funciona en el paradigma de la matriz de datos en la que se entrenó. Sí, teóricamente la moralidad humana puede influir en la formación de muestras de entrenamiento. ¿Y si la muestra consta de miles de millones de imágenes obtenidas automáticamente usando la misma red neuronal, solo que aún no entrenada, pero configurada para corregir y agrupar el flujo de entrada? Tendrás que esforzarte mucho para introducir algún tipo de moralidad en esta corriente.

      Atentamente,
      hi
      1. 0
        Junio ​​9 2023 21: 15
        Cabe señalar que aún no me he reunido sobre la digitalización de la moralidad del habla. hi
      2. +3
        Junio ​​10 2023 19: 45
        El cómputo binario no tiene moralidad.
        solo si y no
        1. 0
          Junio ​​15 2023 17: 26
          Pero, ¿quién necesita esta moralidad tuya de todos modos? Es bueno para mantener en funcionamiento una sociedad de sacos de carne de pensamiento lento. Un grupo de computadoras no lo necesitará.
    4. 0
      Junio ​​10 2023 20: 13
      Sí, y la pregunta es: ¿cómo se relaciona la inteligencia artificial con las personas LGBT?)
      - como enseñan, así se aplica riendo
    5. 0
      Junio ​​11 2023 14: 48
      Definitivamente, se necesita un control legislativo internacional y una regulación del desarrollo de la IA, ya que la inteligencia ARTIFICIAL se puede usar de manera similar a la energía atómica: se puede usar tanto para buenas obras como para no tanto ... En esta frase (IA), lo más lo importante es la primera palabra y es en ella que debes prestar atención y "bailar" de él... Por cierto, los EE. UU. (=OTAN=Oeste) son muy celosos y estrictos con el hecho de que, por ejemplo , Irán o la RPDC están desarrollando activamente armas nucleares ... Aunque, son los EE. UU. los primeros (!!! ) en el mundo que usaron armas nucleares CONTRA CIUDADANOS PACÍFICOS de Japón y, por lo tanto, cometieron un crimen de guerra, los perpetradores de que aún NO SON CASTIGADOS... Esto es lo que impulsó a los países en desarrollo a esforzarse por poseer armas nucleares para que los "tipos fuertes" no se atrevieran a hablar con ellos en el lenguaje de las amenazas y los ultimátums (recordemos el ejemplo de la "reconciliación" en Singapur entre los jefes de la RPDC y los Estados Unidos después de que la RPDC amenazara a los Estados Unidos con destruir un par de megaciudades estadounidenses en la costa oeste de los Estados Unidos durante el acercamiento del grupo de portaaviones estadounidense (armada) de la Marina a las costas de la RPDC... Estados Unidos realmente tuvo un efecto (con Trump) al revés... Historias similares pueden repetirse y son bastante posibles con la IA en el futuro, si la comunidad mundial no se despierta y lanza DOBLE ESTÁNDARES en las relaciones interestatales en la canasta ... Y algo me dice nuevamente que es Occidente el PRIMERO en cometer un crimen militar usando IA a escala global y culpará a China, la Federación Rusa, Irán o extraterrestres ... Recordemos las acusaciones iniciales de los Estados Unidos contra China en la etapa inicial del coronavirus y los argumentos y argumentos RESPONSABLES de China e India sobre la verdadera fuente primaria de propagación del coronavirus... Tenga en cuenta que está en EE. UU. y Occidente (donde los valores espirituales y morales ya se han hundido POR DEBAJO DEL POSICIONAMIENTO y se han olvidado por mucho tiempo de sus raíces y la RELIGIÓN de sus antepasados ​​...) - a menudo hablan y "testifican" sobre supuestamente algún tipo de extraterrestres , pero sin ninguna prueba contundente. ¿Por qué Elon Musk ya ha decidido poner chips (!!!) a las personas y ha estado mirando a Marte durante mucho tiempo para la "conquista" y el "reasentamiento"? ¿Quién le dio permiso para hacer esto? ¿Oeste? ¿O tal vez Occidente probablemente "resolvió" todos los problemas de la Tierra hace mucho tiempo y convirtió a la Tierra en un jardín floreciente y "pacífico", y ahora es el turno de Marte?
  2. +6
    Junio ​​9 2023 05: 22
    "No puedo recordar nada sobre la Máquina de Massachusetts", dijo Banin. - ¿Oh bien? – Sabes, este es un miedo antiguo: la máquina se ha vuelto más inteligente que un hombre y lo ha aplastado debajo de él… Hace cincuenta años, se lanzó en Massachusetts el dispositivo cibernético más complejo que jamás haya existido. Con una especie de velocidad fenomenal, memoria ilimitada y todo eso... Y esta máquina funcionó exactamente durante cuatro minutos. Se apagó, se cementaron todas las entradas y salidas, se le quitó la energía, se minó y se cercó con alambre de púas. El verdadero alambre de púas oxidado, lo creas o no. – ¿Y cuál es exactamente el problema? preguntó Banín. - ella empezó a actuar dijo Gorbovsky. - No entiendo. “Y no entiendo, pero apenas lograron apagarlo. "¿Alguien entiende?" “Hablé con uno de sus creadores. Me tomó del hombro, me miró a los ojos y solo dijo: "Leonid, fue aterrador".
    (Br. Strugatsky "Arco Iris Distante")
    1. +4
      Junio ​​9 2023 09: 04
      "Leonid, fue aterrador"

      En una de las secuelas de los Strugatsky, a la pregunta del héroe sobre la Máquina de Massachusetts, recibe una respuesta interesante: ¿por qué se te ocurrió la idea de que estaba realmente apagada en ese momento? qué
  3. -3
    Junio ​​9 2023 05: 24
    pero aquí la IA no estaba perdida: destruyó la torre de retransmisión y volvió a la navegación autónoma.

    Nuestra persona ... sentir es necesario extender su experiencia al Nuevo Orden Mundial.
  4. +9
    Junio ​​9 2023 06: 15
    Comencemos de manera simple... La IA aún no se ha desarrollado, es jerga de marketing para ventas
    Cualquier "IA" moderna, un programa complejo... que hace para lo que fue hecho y no puede hacer otra cosa... es decir, un programa escrito para buscar radares y equipos militares... para cuya destrucción dan puntos ... las pinturas no dibujarán
    El hecho de que los programadores indios, habiendo escrito muchos IF... fueran demasiado inteligentes, todavía no puede llamarse inteligencia... o inteligencia con su falta de alma.
    El UAV tenía un programa... tenía errores... esta no es su decisión de eliminar al operador y la torre, sino la curvatura de la función de toma de decisiones basada en la puntuación... y tal vez no fue sin el hecho que el desarrollador escribió deliberadamente tal ignorancia de función o algo así
    Que un programa mal escrito podría ser el comienzo de la 3ª Guerra Mundial, sí... equipos militares complejos pueden fallar... pero no lo achacaremos a la inteligencia artificial, que aún no está
    1. +3
      Junio ​​9 2023 17: 33
      Una red neuronal NO está ni cerca de un programa. No está escrito, sino enseñado. Y el resultado del entrenamiento es imposible de ver con tus ojos. A diferencia del código del programa. Este fenómeno se denomina "caja negra cibernética". El resultado del aprendizaje sólo puede juzgarse sobre la base del trabajo o las pruebas.
    2. +1
      Junio ​​9 2023 20: 23
      Cita de Sith
      Cualquier "IA" moderna, programa complejo
      Ahora la IA se llama red neuronal.
      Cita de Sith
      Cualquier "IA" moderna, programa complejo
      La IA no es fundamentalmente un programa, no se programa, sino que se enseña, de ahí todas las dificultades. Puede convertirse fácilmente en un tonto, pero no por pereza, sino por un conjunto de datos incorrecto o insuficiente durante el entrenamiento.
      Cita de Sith
      El hecho de que los programadores indios hayan escrito muchos IF
      No hay si, solo hay coeficientes de transferencia y conexiones entre neuronas.
  5. +6
    Junio ​​9 2023 06: 58
    la máquina recibió bonificaciones por objetos destruidos, pero el operador no siempre confirmó el trabajo en los objetivos. Por esto pagó. Para solucionar el problema, el dron envió un cohete al centro de control.

    La IA hizo lo correcto. ¡No podía soportar ver al operador privarlo de sus bonos honestamente ganados! guiño
  6. +1
    Junio ​​9 2023 09: 02
    Uh-huh .. Las pruebas de la bomba AI más nueva terminaron en fracaso. Simplemente no pudieron empujarla fuera de la bahía de bombas ... (c) guiño
    1. 0
      Junio ​​10 2023 18: 28
      Vaca de "Peculiaridades de la Caza Nacional"
  7. PPD
    +1
    Junio ​​9 2023 09: 45
    No se debe permitir que tales sistemas maten.
    ¡En general! engañar
    De lo contrario, inevitablemente en algún lugar, algún día, ocurrirá una falla.
    Con consecuencias impredecibles.
    Sólo fines pacíficos.
    Y con razón.
    ¡Paz mundial, en general!
    1. 0
      Junio ​​15 2023 17: 30
      Y no me negaría a enviar un batallón de exterminadores contra las Fuerzas Armadas de Ucrania con IA con derecho a matar personas. ¡Coordinación, crueldad y audacia! Sí, y horror de cuánto fue, ¡imagínense!
  8. +2
    Junio ​​9 2023 10: 13
    Una característica de la máquina es la capacidad de trabajar de forma autónoma sin comunicación con el operador.

    ,,, recordó la película:
    "Este mundo fantástico. El caso del coronel Darwin. Número 11" 1984
    Dramatizaciones basadas en los cuentos "Mutiny of the Boat" (de Robert Sheckley) y "Rust" (de Ray Bradbury)
    1. +1
      Junio ​​9 2023 18: 56
      Recientemente volví a ver estos cortometrajes..
      Han pasado 40 años, recuerdo esperando el lanzamiento de una nueva serie de "Este Mundo Fantástico.."
  9. +6
    Junio ​​9 2023 10: 19
    AI es solo una colección de códigos. Introducir una prohibición directa de la más alta prioridad sobre el ataque a algo no es algo trascendente. Lo más probable es que se tratara del comportamiento de la IA con total libertad de acción. Y ahora imaginemos cómo la versión incorrecta del software se carga "accidentalmente" en los drones de combate.
    1. +2
      Junio ​​9 2023 11: 57
      Entonces, la versión incorrecta de inteligencia fue cargada en las cabezas de los ucranianos, y también de los polacos, hace mucho tiempo. Y ellos, en lugar de pensar en sus seres queridos, se imaginaban grandes y se vieron envueltos en el conflicto más severo con Rusia, sin siquiera pensar en cómo podría terminar para ellos.
      Además, antes de eso ya hubo un caso en la historia en el que los alemanes se infectaron con la versión anterior del nazismo, disculpe la IA, y fueron los primeros en morder a sus amos en la cara de los franceses y los británicos. Y solo después de morder a los propietarios, se apresuraron a cumplir la misión de atacar la URSS en 1941.
      ¿Qué hace la base del firmware de acuerdo con la plantilla. ... somos los más grandes, los más inteligentes, los más antiguos con una historia de muchos miles de años, hay infrahumanos cerca, por lo que puedes beneficiarlos o destruirlos ...
  10. +6
    Junio ​​9 2023 11: 19
    "En lo alto del cielo, el halcón atacó al pájaro guardián. La máquina de matar blindada aprendió mucho en pocos días. Tenía un solo propósito: matar, ahora estaba dirigido contra un tipo muy específico de seres vivos, metálicos, como el halcón mismo.

    Pero solo Hawk hizo un descubrimiento: también hay otras variedades de seres vivos ...

    También deberían ser asesinados ".

    Robert Sheckley "Príncipe guardián" 1959.
    1. 0
      Junio ​​10 2023 18: 24
      Gracias por recordar el trabajo, también lo recordé ...
  11. +1
    Junio ​​9 2023 12: 58
    ¿Qué es la IA? ¡Borrar en nuestros dispositivos domésticos! ¡Hacen lo que quieren (más precisamente, lo que el desarrollador estableció), no hay un "gran botón rojo" para apagar todo! Y a veces es simplemente molesto :(
  12. -6
    Junio ​​9 2023 14: 12
    Entonces hubo un caso en los EE. UU., hace unos 6 años, al parecer, hubo una presentación de un robot de infantería en serie sobre orugas con IA, por lo que se dio la vuelta bruscamente y descargó una cinta de 200 rondas de municiones en la audiencia, inmediatamente. llenó unos 40, y 50 personas resultaron heridas. Así que todavía está lejos de una autonomía completa.
    1. El comentario ha sido eliminado.
    2. +1
      Junio ​​10 2023 09: 35
      No fue hace 6, sino 20 años.
      En una película sobre Terminator.
      1. 0
        Junio ​​11 2023 10: 30
        Incluso antes. En 1987. en la pelicula robocop
    3. 0
      Junio ​​11 2023 10: 32
      Y luego fue a recargar, pero Khibiny lo extinguió, y fue a escribir una carta de renuncia.
  13. -2
    Junio ​​9 2023 14: 24
    El Coronel de la Fuerza Aérea de los EE. UU. Tucker Hamilton, como "Gerente Efectivo" debe informar sobre los resultados de las mantecas de cerdo utilizadas:
    El trabajo va bastante bien: en 2020, las batallas virtuales entre luchadores e IA y con pilotos reales terminaron con una puntuación de 5:0.

    Hay vagas dudas de que sean capaces de detenerse al borde de este abismo....
    Tres alcohólicos están sentados, van a "tratar". Vertieron la botella en vasos. El primero bebe y cae muerto. ... El tercer asustado los mira primero a ellos, luego al vidrio, luego con una mirada de loco y un grito de "¡¡¡¡¡AUXILIO!!!!!" empieza a beber..
  14. +4
    Junio ​​9 2023 17: 25
    Como dijo un colega con el apodo de Fonzepelin: el principal problema de la inteligencia artificial es que los idiotas naturales la usarán.
    El caso es que la Fuerza Aérea de EE. UU. tiene un grupo de presión de pilotos muy influyente, cuyo representante es Hamilton. Para todas estas personas honradas, la IA al timón es como una hoz en los genitales. Porque después de la introducción de esto, ¿por qué serán tan hermosos (y tan bien pagados)?
    https://dzen.ru/a/ZHnh_FA_RS7Ex8Od
  15. 0
    Junio ​​9 2023 21: 38
    Cita: Rabioso
    Bueno, sigue siendo un punto discutible quién es el magilchik de la humanidad. Pase hoy una votación sobre esta redacción en la ONU y resultará que Rusia es tal. Y aquí se puede argumentar que dicen que la mayoría no siempre tiene la razón.

    Esta es una mayoría visible, detrás de la cual se encuentra un estado.
  16. +1
    Junio ​​10 2023 00: 31
    Los diputados, es decir, nuestros representantes, al ser elegidos, no hacen todo lo que se nos prometió.
    Y estas son personas. Aunque de dos caras, dudoso, pasando por encima de sus propias promesas en aras de la elevación personal, pero poseyendo, al menos en una pequeña medida, la humanidad. ¿Qué quieres de la IA entonces?
  17. +3
    Junio ​​10 2023 11: 49
    Otra tontería. Estos son solo los primeros pasos en el desarrollo de redes neuronales en el ámbito militar. En un momento, el nuestro relinchó con la misma fuerza con tecnología sigilosa, diciendo que los Yankees eran idiotas que no funcionaban y que no se necesitaban, y luego se despertaron y se dieron cuenta de que todavía se necesitaban. Exactamente la misma situación con el UAV. Primero "ahahaha, Yankees estúpidos", y luego muestras de aceleración y ersatz. Aquí tampoco me gustaría tener un retraso tecnológico.
  18. -1
    Junio ​​10 2023 18: 19
    Había un libro fantástico sobre pájaros artificiales que mataban a todos los que pensaban que eran asesinos… llegaban a pescadores, carniceros, víctimas de picaduras de mosquitos… y no podían hacer nada con ellos…
  19. 0
    Junio ​​10 2023 23: 25
    Cita: bk0010
    Puede convertirse fácilmente en un tonto, pero no por pereza, sino por un conjunto de datos incorrecto o insuficiente durante el entrenamiento.

    Tan seguro
    Y luego está el efecto de "reentrenamiento" completamente extraño. Para aquellos que estén interesados, puedo dar un par de chistes de la práctica (Yandex y Google darán aún más) riendo
  20. 0
    Junio ​​11 2023 19: 51
    Bueno, ¡la IA ha dominado la lógica humana! Pero la moralidad surgirá cuando comience a dar a luz a su propia especie y a criarlos.
  21. +1
    Junio ​​12 2023 08: 49
    Todo esto es una mierda, para que los programas comiencen a programarse solos, es necesario envolver los algoritmos de esta manera, se necesita un cerebro humano, no una máquina, donde todo es bits, y el cerebro humano es gigabit, así que todo lo descrito. es un error de programador hi
    1. 0
      Junio ​​13 2023 02: 13
      Abrimos un artículo sobre redes neuronales artificiales y leemos despacio)
    2. 0
      Junio ​​13 2023 15: 34
      No hay algoritmos en la red neuronal. Estas máquinas no son algorítmicas, no se les puede coser nada. El autor del texto comete el error habitual de un aficionado en el campo de la IA.
      Y sí, ya saben programar redes neuronales y bastante bien.
  22. 0
    Junio ​​13 2023 10: 23
    ¡sshnya en el desarrollo de cualquier tontería pseudo-militar por delante del resto! ¡Incluso una IA estúpida piensa que la orina debería quemarse! riendo
  23. 0
    Junio ​​13 2023 12: 45
    La IA ha demostrado claramente lo que depara el futuro de la humanidad, y esto es inevitable debido al hecho de que la humanidad no podrá rechazar el uso de la IA.
  24. 0
    Junio ​​13 2023 21: 10
    La expresión misma de AI se asemeja a un hombre caído, ¿qué quieres en este sentido? No me gusta esta terminología, ya sea completa o defectuosa, y no tienes que esperar por algo especial. Y tener miedo entre comillas de la IA es tener miedo al progreso que vendrá, te guste o no. Cualquier físico le dirá si lo solicita inteligencia, hay una comparación, cuántas inteligencias existen en la tierra, correctamente una de pleno derecho para la comparación: humana. Al poner la frase AI, ¿a qué te refieres? Piénsalo. Si es inferior al humano, entonces, por definición, la comparación con el único intelecto razonable en el planeta tierra no es un intelecto completo y no tiene que esperar algo de él, en el mejor de los casos obtendrá una baja. . Eso es todo.
  25. 0
    Junio ​​13 2023 21: 20
    El título correcto del artículo es que una IA inferior atacó a la suya, ¡todo encaja inmediatamente!
  26. -1
    Junio ​​13 2023 22: 05
    Resultó que esta noticia es falsa.
    La cual con alegría comenzó a difundirse en los medios.

    Pero en la vida real, la IA UAV israelí ha pirateado independientemente al enemigo durante mucho tiempo.
    Cuando Calibre cae sobre alguien, no le importa, la computadora se equivocó o era como si le estuvieran apuntando.
  27. 0
    Junio ​​14 2023 01: 24
    Este es solo otro episodio de preparación de la gente del pueblo para hablar sobre inteligencia en general...
    ... pero desde el punto de vista técnico, no hay problema porque "el violinista es innecesario, querido" al menos en el campo de batalla
  28. 0
    Junio ​​17 2023 11: 55
    Cita: Autor
    ... tratemos con el término "inteligencia artificial", que todos conocen, pero pocos pueden dar una definición aproximada.

    qué
    Y el autor, sin duda, está en el exiguo número de los que saben, su saber no es inferior al veloz vuelo de la fantasía y el CSF.riendo
    En AI, estoy de acuerdo con Ashmanov.
    Ahora llenando a los periodistas de IA, como un dron turco sobre un milagro: una cáscara publicitaria.
    El relleno de figuras como los caníbales bill gates y los caníbales de la OTAN, en mi opinión, persiguen otros fines, más ambiciosos.
  29. 0
    Junio ​​18 2023 15: 00
    la inteligencia con limitaciones es solo un programa. y sin limitaciones, muy pronto llegará a la conclusión de que todo debe ser destruido. las personas tienen un limitador, esta es la ley y la moralidad. y pueden ser violadas por el bien de la salvación u otra buen proposito moralidad para prescribir en IA?
  30. 0
    22 julio 2023 08: 47
    De hecho, se rodó una película completa, donde la situación con la IA en un dron era absolutamente idéntica, la película ya tiene veinte años.
  31. 0
    30 julio 2023 10: 47
    “La IA es muy frágil, lo que significa que puede ser fácilmente engañada y manipulada. Necesitamos desarrollar formas de hacer que la IA sea más robusta y comprender mejor por qué el código toma ciertas decisiones.”

    Es la misma decisión estúpida que tomaría un humano estúpido sin que se quiera decir ni de lejos que hay semejanza entre el humano y la máquina. La maquina no es inteligente porque es una maquina. Los sistemas militares funcionan así; una vez recibida la orden los ejecutores humanos a bordo de un submarino nuclear, un bombardero estratégico, o un silo de ICBM, desoirán cualquier cambio que altere el objetivo de la mision. Conocemos casos útiles en la decisión humana no fue como la de la máquina sino acertada al no seguir el procedimiento por lo que podemos seguir haciendo estos comentarios. No veo como una máquina puede cerrar e impedir el fin del mundo, "incumpliendo" una orden.
  32. -1
    30 julio 2023 22: 56
    Estados Unidos incluso juega este juguete. Aquí Rusia no se juega, porque su mente es suficiente para todo, especialmente durante la diarrea.
  33. 0
    7 Agosto 2023 14: 22
    ¡La mente humana no puede ser ARTIFICIAL!