Tecnología falsa profunda como una razón para comenzar una guerra

53

Nuevo mundo con falso falso


Ahora, casi todos los hierros tienen Internet, cada vez es más difícil encontrar un punto en el mapa donde la red 4G no esté disponible. Internet de banda ancha es principalmente video HD en plataformas comunes que están reemplazando gradualmente para nosotros. noticias feeds, análisis y lectura entretenida. Además, es un instrumento de influencia en miles de millones de personas, lo que permite crear la opinión pública correcta en este momento. En la cima de estos juegos con el público, puede resultar ser una tecnología falsa profunda, que ya ha demostrado su capacidad para convertir a celebridades como Gal Gadot, Scarlett Johansson, Taylor Swift, Emma Watson y Katy Perry, en las estrellas de la industria del porno. Dipfake es un algoritmo que le permite simular el comportamiento y la apariencia de una persona en un video. La tecnología obtuvo su nombre de la combinación de aprendizaje profundo ("aprendizaje profundo") y falso ("falso"). En el corazón de la falsa profunda se encuentran las notorias redes neuronales que operan en la Red Adversaria Generativa (GAN). Los algoritmos establecidos en la base del programa compiten constantemente entre sí en dos procesos: capacitación en las fotografías presentadas para crear una sustitución real de la cara por copias y eliminación de opciones inadecuadas hasta que la máquina misma comience a confundir el original y la copia. En este complejo esquema, el objetivo principal de la falsificación profunda es crear fotos falsas y contenido de video en el que la cara del original se reemplace de una manera diferente. Por ejemplo, el carismático presidente de los Estados Unidos, Donald Trump, bien podría ocupar el lugar de cualquier líder odioso del siglo XX y llevar una herejía abierta a las masas desde la tribuna. Ahora, en uno de los videos falsos profundos generados, el ex presidente Barack Obama se permitió usar lenguaje grosero contra Donald Trump.


Por supuesto, al principio, la publicidad falsa profunda era exclusivamente viral: los rostros de las actrices de Hollywood implantadas en tramas sencillas de videos porno con todas las consecuencias resultantes. O, por ejemplo, el actor Nicolas Cage de repente se convierte en el actor principal en episodios de las películas más emblemáticas de nuestro tiempo. Algunas de estas creaciones se presentan en video y, francamente, muchas de ellas parecen algo torpes.






Pero la cantante de hip-hop Cardi Bee, que apareció en el programa nocturno Jimmy Fallon en la imagen del actor Will Smith, parece bastante convincente.


Y aquí está el original.


Las artesanías en el canal Ctrl Shift Face se ven bien. Por ejemplo, Sylvester Stallone probó el papel principal en Terminator.



Los analistas de TI ya afirman que la tecnología falsa puede ser la más peligrosa en el campo digital en las últimas décadas. Además de esta tecnología (y basada en ella), especialistas de las universidades de Princeton, Max Planck y Stanford crearon la aplicación Neural Rendering. Su tarea es aún más peligrosa: "forzar" la imagen de una persona a pronunciar cualquier texto en cualquier idioma con su voz. Esto requiere solo un video de 40 minutos con sonido, durante el cual la red neuronal aprenderá a trabajar con la voz y las expresiones faciales de una persona, transformándola para nuevas expresiones verbales. Inicialmente, la idea, por supuesto, se posiciona como buena: el principal consumidor de Neural Rendering serán los estudios de cine que quieran reducir el tiempo de rodaje de las tomas de actuación. Sin embargo, de inmediato se hizo evidente para todos que en un futuro cercano, prácticamente cualquier usuario puede generar falsificaciones de video en su computadora portátil desde la cual se pondrá los pelos de punta. La segunda rama del programa "falso" fue la aplicación DeepNude, que es capaz de "desnudar" a cualquier mujer desnuda en la foto. En los primeros días del servicio, el volumen de solicitudes fallidas era tan grande que los desarrolladores, por temor a demandas, anunciaron su cierre. Pero los piratas informáticos piratearon el recurso, y ahora DeepNude puede ser utilizado por todos. Por supuesto, intentan restringir el acceso al servicio, pero todos entienden que esto es solo una medida temporal.

La falsificación profunda resultó ser una buena herramienta en manos de los estafadores. A una compañía energética británica le robaron 220 mil euros, cuando un "clon" de un gerente de Alemania se puso en contacto con el departamento financiero. Pidió con voz simulada que transfiriera dinero urgentemente a una cuenta en Hungría, y los socios comerciales no tenían motivos para no confiar en un suscriptor. Por supuesto, ahora fingir de forma masiva y eficiente una secuencia de video es problemático: los reguladores estatales bloquean constantemente los recursos con fakeapp y facefake, y el poder de las computadoras aún no permite una rápida síntesis de video. Tenemos que delegar este trabajo en servidores pagos remotos, que requieren miles de fotos de la persona original y la "víctima" para trabajar.

Casus belli


La tecnología falsa profunda puede dejar a los actores sin trabajo en el futuro: toda la industria puede cambiar a héroes de películas de dibujos animados, muchos de los cuales la tecnología resucitará de entre los muertos. Pero estos son los sueños más probables del futuro, ya que numerosos sindicatos y una falta elemental de poder de computación empujan la perspectiva hacia adelante varios años más adelante. Aunque ahora en la película "Rogue One: Star Wars", el director de un episodio, el actor "resucitado" Peter Cushing, quien murió en 1994. Se rumorea que en la nueva película sobre la Guerra de Vietnam, puede aparecer el famoso James Dean. Las redes neuronales ayudan a los actores que ya tienen años a verse en el marco de 10 a 20 años más jóvenes, por ejemplo, Arnold Schwarzenegger y Johnny Depp. En promedio, se generan al menos 15-20 mil videos falsos cada mes en el mundo cada mes, la mayoría de los cuales aparecen en Internet. Los programadores rusos están tratando de mantenerse al día con las tendencias mundiales: Vera Voice en julio de 2020 invitará a los fanáticos del trabajo de Vladimir Vysotsky a comunicarse con una copia digital del cantante en el Teatro Taganka.

Todo se debe al hecho de que las pruebas de video y fotografía dejarán de ser argumentos efectivos en los litigios, y un sistema global de videovigilancia será una pérdida de dinero. Nadie confiará en los marcos de las cámaras de CCTV. ¿Dónde está la garantía de que este no es un muñeco sintetizado? En la propaganda política, la falsificación profunda ya se está convirtiendo en una palanca poderosa para influir en las opiniones de los votantes. California, en octubre de 2019, se convirtió en el primer estado en prohibir la publicación de videos con candidatos políticos 60 días o menos antes de las elecciones. Por la violación de esta ley, AB 730 enfrenta responsabilidad penal. Ahora, varios estados más se han unido a esta iniciativa, y en enero de 2020 estará prohibido en China publicar fotos y videos falsos sintetizados sin una marca especial. Por cierto, ahora uno de los métodos efectivos para determinar el falso a simple vista es la falta de parpadeo natural de los caracteres sintetizados.


Stallone como un terminador

Ahora imagine cómo el desarrollo de tecnología falsa profunda (y el desarrollo no se puede detener hasta que haya demanda) convertirá la idea de verdad y mentira. Especialmente cuando las estructuras estatales adoptan la novedad. Cualquier video sintetizado sobre la próxima exposición de espionaje con uso hábil puede ser la razón, al menos, para imponer otro paquete de sanciones o cerrar la misión diplomática. Y no será necesario realizar ataques químicos contra civiles para autorizar un ataque masivo con misiles contra un estado soberano. Actos de genocidio, consecuencias del uso armas Destrucción masiva, comportamiento provocativo y abusivo de las primeras personas del estado: todo este ramillete falso en la situación correcta puede justificar el comienzo de otra aventura militar a los ojos de los votantes. Y cuando las armas hablan y los cohetes vuelan, nadie recordará particularmente con qué video revelador comenzó la guerra.

Ahora no hay una respuesta definitiva sobre qué hacer con este desastre. Los mejores algoritmos mejorados al exponer falsificaciones profundas pueden garantizar solo un 97% de probabilidad. Actualmente, cada programador progresivo puede participar en el Deepfake Detection Challenge, que en septiembre de 2019 anunció Facebook. Un fondo de premios de $ 10 millones se destinará a alguien que pueda desarrollar un algoritmo que le permita reconocer videos falsos con una garantía del 100%. Uno solo puede adivinar qué tan rápido seguirá la respuesta de los desarrolladores falsos subterráneos.
Nuestros canales de noticias

Suscríbete y mantente al día de las últimas novedades y los eventos más importantes del día.

53 comentarios
información
Estimado lector, para dejar comentarios sobre la publicación, usted debe login.
  1. +3
    17 diciembre 2019 05: 29
    Hmm, una cosa peligrosa.
    1. +6
      17 diciembre 2019 11: 30
      No puedes comprar a una persona honesta, pero puedes difamarla.
      Sería interesante ver películas alternativas (cuando los actores se negaron), por ejemplo, "Ivan Vasilyevich cambia de profesión" con Nikulin y Mironov.
      PD "17 Moments of Spring" con la troika Gaidaevskaya y Krachkovskaya (operador de radio Kat) para no ofrecer ...
      Un mundo feliz y feliz.
      1. 0
        20 diciembre 2019 23: 45
        Y cómo DPS será feliz ...
        Ahora tienen miedo de los DVR, en pretextos descabellados no son multados.
        Pero en el futuro, cualquier acusación contra ellos mismos se denominará falsa sintetizada.
        amarrar
        1. 0
          22 diciembre 2019 22: 56
          Estoy seguro de que habrá una tecnología para verificar la veracidad del video.
          Alguna verificación de que el video fue grabado en un momento determinado y no tiene correcciones.
          Quizás esto se pueda hacer a través del servidor usando criptografía.
          La tecnología 5G, que proporciona una velocidad de conexión enorme, solo ayudará a realizar tales cosas.
  2. +1
    17 diciembre 2019 06: 03
    Esta tecnología es peligrosa solo en el período de adaptación a ella, mientras que no todos todavía la conocen. Cuando se convierta en la "broma esperada", su peligro será cero.
    1. 0
      17 diciembre 2019 07: 01
      Cita: Mytholog
      su peligro será cero

      este "cero" puede gobernar el país ...
      1. +3
        17 diciembre 2019 09: 05
        "Cero" no puede conducir por definición, pero todo puede multiplicarse por sí mismo ...
    2. +1
      17 diciembre 2019 10: 39
      Cita: Mytholog
      Esta tecnología es peligrosa solo en el período de adaptación a ella, mientras que no todos todavía la conocen. Cuando se convierta en la "broma esperada", su peligro será cero.

      Se puede suponer que durante la existencia de la llamada prensa amarilla todos Ya tuve la oportunidad de adaptarme, o al menos un poco de adaptación. Pero, sin embargo, esto no es así, y por cada lanzamiento al ventilador se produce una reacción violenta inmediata de lectores y consumidores devotos, ya que la estupidez humana es infinita.
  3. -1
    17 diciembre 2019 06: 17
    Yo vivo en el mundo de william gibson guiño Por último.
    1. +3
      17 diciembre 2019 08: 34
      Recientemente vi un video. Diferentes personas con diferentes gatos en sus brazos están mirando las pantallas de sus teléfonos móviles. La aplicación pone la cara de un gato en la cara de una persona. Todos los gatos reaccionan de la misma manera: el gato mira la pantalla con sorpresa, mira al dueño, ve que es normal, luego vuelve a la pantalla, la disonancia cognitiva del animal llega al límite, y horrorizado rompe las rodillas del dueño, se cría el pelaje, algunos gatos silban. .. Y los videos con políticos y actores supuestamente famosos ya son un tema antiguo, Internet está lleno de ellos. Una vez más, la Princesa Leia "animada" en la nueva "Guerra de las Galaxias", Obama pronuncia el discurso ... ¡Y no se nota! Y como no se puede notar la diferencia, aparentemente, se acerca la era de los políticos, que dicen lo que se necesita detrás de escena, que está disponible en todos los países. Sin embargo, ¿no ha sido siempre así? Solo que era más caro, había que pagarle al político. Y ahora saldrá más económico, ya que solo el programador tendrá que pagar.
      1. 0
        17 diciembre 2019 08: 47
        Hace poco vi un video. Diferentes personas con diferentes gatos en sus brazos miran las pantallas de sus teléfonos móviles.
        - También lo vi, fue divertido)
      2. 0
        18 diciembre 2019 09: 23
        Cita: depresor
        el gato mira sorprendido la pantalla, mira al dueño, ve que es normal, luego vuelve a la pantalla, la disonancia cognitiva del animal alcanza su límite, y con horror rompe las rodillas del dueño, el pelaje se levanta, algunos gatos silban ...

        No miré, pero según la descripción lo imaginé muy vívidamente, y si también soy el dueño a la Obama, puedes poner .......... riendo riendo candidato Compañero
  4. +4
    17 diciembre 2019 06: 25
    Por ejemplo, el formato UltraHD es 3840x2160 = 8294400 píxeles. ¿Es tan difícil "esparcir" los llamados "chirridos defectuosos" sobre la imagen? "marca de agua" para que afecte mínimamente a la calidad general de la imagen?
    Haga que este personaje sea dinámico con una clave cifrada. Bueno, la otra tecnología blockchain y cuántica para ayudar.
    1. +7
      17 diciembre 2019 08: 17
      Cita: g1washntwn
      ¿Es tan difícil "esparcir" los llamados "chirridos defectuosos" sobre la imagen? "filigrana"

      Entiendo esto para proteger el video original. ¿Y cómo reconocer una falsificación si el video no estaba protegido?

      El algoritmo puede falsificar la imagen, pero el modelo de comportamiento, el retrato psicológico, es poco probable hasta ahora. Pero es precisamente por esta clave que identificamos inequívocamente a Mikhan o Golovan en cualquier encarnación. Sin siquiera ver las fotos.
      1. +3
        17 diciembre 2019 11: 23
        Sí, no del todo difícil. Atraerán a un psicólogo, y él definitivamente corregirá el video por usted para que no note que la canción es falsa, no real. Supongo que ya hay programas que analizan el comportamiento y la forma de hablar de una figura real en la información periodística. No hay necesidad de hablar sobre la voz. Este es el siglo XXI, ¡todos lo fingen! Por ejemplo, cuando escuchó el discurso de Putin, en el que nos instó a tratar la reforma de pensiones con comprensión, no pude evitar sentir que no era Putin. Bueno, no él, eso es todo!
        1. 0
          18 diciembre 2019 06: 23
          Cita: depresor
          ..... Por ejemplo, cuando escuchó el discurso de Putin, en el que nos instó a tratar la reforma de pensiones con comprensión, no pude evitar sentir que no era Putin. Bueno, no él, eso es todo!


          Esto se debe a que en los medios todo estaba enmarcado como si este gobierno decidiera subir la edad, y Putin, como, no tuvo más remedio que firmar la ley. Y tu mogz se negó hasta el último momento a creer que estaba "A FAVOR" de aumentar la edad de jubilación.
        2. 0
          19 diciembre 2019 07: 51
          Los derechos de autor de las imágenes se pueden borrar y reemplazar, pero después de eso, incluso con una coincidencia del 100% de píxeles, la imagen "agrietada" deja de ser una copia auténtica. Puedes llamarlo falso con seguridad. Lo mismo ocurre con las "pruebas de video de Internet" modificadas. Ninguna "firma digital" certificada no es prueba. Por encima de los medios de comunicación que utilizaron ese material de información "pirateado", el camarada Themis agita su espada y se sumerge de cabeza en una tina con "esto más".
      2. +1
        17 diciembre 2019 16: 57
        ¿Y cómo reconocer una falsificación si el video no estaba protegido?

        Ningún artículo es sobre eso. TODO: OLVIDADO DE LA EVIDENCIA DE VIDEO DE INTERNET.
        No hay nada de malo en eso, habrá problemas solo durante el período de transición hasta que llegue a las personas.
      3. +1
        19 diciembre 2019 08: 09
        Es indecente responder una pregunta con una pregunta, pero contiene una respuesta. ¿Un documento electrónico sin EDS tiene fuerza legal? No. Además, el metraje debe ser abordado. Cualquier conjunto de píxeles no verdadero es el falso predeterminado.
    2. +3
      17 diciembre 2019 11: 59
      Cita: g1washntwn
      Por ejemplo, el formato UltraHD es 3840x2160 = 8294400 píxeles. ¿Es tan difícil "esparcir" los llamados "chirridos defectuosos" sobre la imagen? "marca de agua" para que afecte mínimamente a la calidad general de la imagen?
      Haga que este personaje sea dinámico con una clave cifrada. Bueno, la otra tecnología blockchain y cuántica para ayudar.

      Bien presentado, perro!
  5. +6
    17 diciembre 2019 07: 08
    Sí, en general, nada especial. Primero, siempre supieron manipular la información. Desde la época de los bylins de los gusanos callejeros. ¿Tienen tonterías sobre Ivan Tsarevich? ¡Ve a verlo! Al lejano reino. Y los collages de las fotografías y los retoques comenzaron a usarse desde la invención misma de la fotografía.
    Aquí hay solo otro aspecto. En general, solo necesita lo mismo: la capacidad de trabajar con información ...
    PiSi: y sobre "actores desempleados" - no es noticia en absoluto - un hecho de larga data, del que todo el mundo se ríe - ahora en el anuncio de cualquier película se te hablará 20 veces de "efectos especiales". Y que la película no lo es. un refrito del viejo Terminator-28 ... Así que allá por los años 80 se cortó en la película "Regreso al futuro". ¿Qué tipo de "mandíbulas" había?
    1. 0
      19 diciembre 2019 08: 04
      Estoy de acuerdo. Las primeras falsificaciones comenzaron a arañar las paredes de las cuevas: la fantasía de la roca "Cómo derrotamos al mamut". El proceso de mentir simplemente cambia formas, métodos y velocidad. Quizás, en el futuro, se nos cosan recuerdos y reflejos falsos ya en la etapa de nacimiento, inmediatamente en la subcorteza y exclusivamente para la situación política existente, esto facilitará enormemente el trabajo de los Departamentos de Estado locales y Politburos.
  6. +8
    17 diciembre 2019 07: 24
    Hoy, incluso sin falsificaciones profundas, la idea de la verdad y la mentira se invierte. Por lo tanto, sucedió algo terrible incluso sin programas de computadora: falsificaciones, acusaciones sin evidencia, ataques masivos de información en los medios, provocaciones manifiestas ... Sin este programa de computadora puede surgir una razón para el estallido del conflicto armado.
    1. +3
      17 diciembre 2019 09: 02
      Sí, muchas cosas están sucediendo en una palabra simple, sin ninguna justificación o evidencia.
  7. 0
    17 diciembre 2019 08: 33
    "El sistema global de videovigilancia resultará ser una pérdida de dinero" Y eso es bueno, no queremos que nos vigilen constantemente. Es desagradable. En la entrada, hay un intercomunicador con una cámara en la casa, hay cámaras por todas partes, y todo está disponible si quieres. ¿Quizás fui con mi ama?)
    1. +2
      17 diciembre 2019 09: 36
      Siempre puedes jugarlo, un amante es falso.
      1. -1
        17 diciembre 2019 09: 41
        ¡Sí señor! O "no fui yo, es falso" Aunque me temo que no funcionará
  8. +1
    17 diciembre 2019 08: 35
    Hee, ingrese la falsificación tan profunda que se olvide por completo de la seguridad de la información de varios miles de años de antigüedad. Probablemente nuestros antepasados ​​lejanos también sufrieron la pregunta de que cualquiera puede tirar tabletas falsas en una piedra, luego papiros igualmente falsos, luego artículos en papel, facturas, transacciones, bueno, llegaron al video ... Pero coloque un sello y una firma certificada testigos del video (electrónico-digital en el caso del video digital, la tecnología se conoce desde hace mucho tiempo y cuesta un par de centavos), y los falsos, aquellos que han dominado la tecnología de protección, no pasarán.
  9. +2
    17 diciembre 2019 09: 00
    Un fondo de premios de $ 10 millones se destinará a alguien que pueda desarrollar un algoritmo que le permita reconocer videos falsos con una garantía del 100%.


    ¿Es esto mucho o poco para tal desarrollo? este es todo el problema, la solución puede costar "tres kopeks" o billones ...
    1. +1
      17 diciembre 2019 10: 54
      Un fondo de premios de $ 10 millones se destinará a alguien que pueda desarrollar un algoritmo que le permita reconocer videos falsos con una garantía del 100%.

      desde la inquisición se conocen estos "algoritmos" am
  10. +1
    17 diciembre 2019 09: 35
    Todo es más maravilloso y maravilloso.
  11. +1
    17 diciembre 2019 09: 51
    Bueno, ha llegado la "Generación P", ya que esto ha ido a las masas, entonces no cuesta nada dibujar un jefe superior.
  12. +1
    17 diciembre 2019 10: 40
    Todo esto ya ha llevado al hecho de que ningún vídeo o foto ya no puede considerarse prueba de nada. Eso es todo. Algunas de las herramientas simplemente se han quitado de los forenses. Todo esto, por un lado, no es alentador, pero por otro lado ... ahora los sistemas de seguridad "desiertos" tendrán que volver a llenarse de gente, ya que las cámaras solo tendrán la tarea de información operativa, y para demostrar algo se necesita un testigo vivo, un guardia de seguridad que lo haya visto personalmente.
  13. +1
    17 diciembre 2019 10: 58
    "Haga" que la imagen de una persona pronuncie cualquier texto en cualquier idioma con su voz.

  14. 0
    17 diciembre 2019 11: 41
    Los videos sintetizados se determinan durante el examen, lo que significa que no habrá ningún problema grave.
    Es como con la historia sobre "Mamá, soy tu hijo, tuve un accidente, le doy dinero a un hombre en la esquina de la calle, o me meterán en la cárcel"
    Aún no lo sabíamos, los estafadores lograron
    1. 0
      17 diciembre 2019 14: 59
      Los videos sintetizados se determinan durante el examen, lo que significa que no habrá ningún problema grave.

      No parece entender de qué trata el artículo .....
      En tales casos, ¿sería mejor permanecer en silencio?
      Pregúntese quién determinará la falsificación?
      1. -1
        17 diciembre 2019 17: 42
        Entiendo perfectamente
        Y no pareces
        Como evidencia en la corte, no pasarán, el examen revelará signos de instalación
        Y el efecto sobre la audiencia en los medios o los rebotes se desvanecerá rápidamente después de varias exposiciones de tales falsificaciones.
        Tendrán un efecto solo mientras la mayoría de las mentes subconscientes crean que el video es imposible de falsificar o muy difícil.
        Tan pronto como quede claro para la mayoría que la falsificación es posible, el efecto de dicho relleno desaparecerá
        ¿Entonces entiendes?
        1. +1
          17 diciembre 2019 18: 28
          Como evidencia en la corte, no pasarán, el examen revelará signos de instalación

          No entiendes nada. riendo
          Adios
          1. +1
            17 diciembre 2019 18: 29
            Se parece a ti
      2. +1
        17 diciembre 2019 18: 19
        Cita: bk316
        Los videos sintetizados se determinan durante el examen, lo que significa que no habrá ningún problema grave.

        No parece entender de qué trata el artículo .....
        En tales casos, ¿sería mejor permanecer en silencio?
        Pregúntese quién determinará la falsificación?

        Como un producto de software que creó una falsificación, qué más. La tarea está siendo resuelta. Está claro que es caro. Un bot hace una falsificación, el otro lo reconoce, con cierto grado de confiabilidad, por supuesto))). Los programadores también quieren ganar dinero, pasándoles IA en ...
        1. +1
          17 diciembre 2019 18: 41
          Como un producto de software que creó una falsificación, qué más. XNUMX

          Es maravilloso, de hecho, se lo indiqué al aviador.
          Pero él es terco, no necesita. Él cree firmemente en la superioridad de los Estados Unidos y también se encuentra en la grandeza de la experiencia. riendo


          Los algoritmos establecidos en la base del programa compiten constantemente entre sí en dos procesos: capacitación en las fotografías presentadas para crear una sustitución real de la cara por copias y eliminación de opciones inadecuadas hasta hasta que la máquina comience a confundir el original y la copia.


          Es decir, si el producto es el mismo, entonces no revelará una falsificación. Significa que se necesita una red neuronal más "poderosa", y aquí es donde está la basura, no hay una métrica de redes neuronales desde el punto de poder en el contexto del problema que se está resolviendo. El número de nodos, capas, topología no indica en absoluto la calidad de la solución al problema. Como resultado, tendremos una situación en la que una red neuronal en la corte diga falsa, la otra no es falsa. PERO LA RED NEURAL NO PUEDE EXPLICAR Por qué Falso. Además, cualquier red resuelve este problema con cierta probabilidad, es decir, da resultados falsos positivos.
          Resumen: un producto de software similar no puede resolver este problema.

          Entiendo que no es difícil para un programador entender esto, pero ya explicó cómo podría hacerlo.
          Por cierto, ¿sabes que ningún programador escribirá la palabra programa con ONE M? riendo
          1. +1
            17 diciembre 2019 18: 54
            Cita: bk316
            Entiendo que no es difícil para un programador entender esto, pero

            Recordé una broma sobre una rubia a la que se le preguntó cuál es la probabilidad de que se encuentre con un dinosaurio en la calle. La rubia dijo: 50%!
            O reunirse, o no reunirse ...
            Es asesino, pero absolutamente correcto: la pregunta no es suficientes condiciones límite)))) Sin embargo.
            1. 0
              18 diciembre 2019 14: 09
              Cita: Grueso
              cincuenta%! O reunirse, o no reunirse ...
              Masacre, pero absolutamente correcta


              La rubia confundió la probabilidad y el número de posibles resultados. Si la respuesta le parece correcta, usted también lo hará.
          2. +1
            17 diciembre 2019 19: 14
            Y te di a entender que no entendiste lo que dice el artículo
            ¿En qué tribunal vio el examen de programas o redes neuronales?
            El examen lo realiza una persona, si es necesario, en modo manual
            Y durante el examen, seguirán apareciendo pegados y rastros de instalación, sin importar qué redes neuronales se hagan, especialmente si tiene que reemplazar no solo la cara, sino toda la figura humana, o, especialmente, crear desde cero
            O, como opción, el examen no podrá confirmar la autenticidad, que no es lo mismo que reconocer una falsificación
            Los programas sobre los cuales el artículo no es necesario para su examen en la corte, es para identificar rápidamente falsificaciones, para que pueda identificar rápidamente una falsificación, en tiempo real de la mejor manera.
            ¿Y cómo arrastraste a los Estados Unidos aquí? Generalmente es un misterio
            hi
            1. 0
              17 diciembre 2019 21: 15
              Cita: avior
              Y te di a entender que no entendiste lo que dice el artículo
              ¿En qué tribunal vio el examen de programas o redes neuronales?
              El examen lo realiza una persona, si es necesario, en modo manual
              Y durante el examen, seguirán apareciendo pegados y rastros de instalación, sin importar qué redes neuronales se hagan, especialmente si tiene que reemplazar no solo la cara, sino toda la figura humana, o, especialmente, crear desde cero
              O, como opción, el examen no podrá confirmar la autenticidad, que no es lo mismo que reconocer una falsificación
              Los programas sobre los cuales el artículo no es necesario para su examen en la corte, es para identificar rápidamente falsificaciones, para que pueda identificar rápidamente una falsificación, en tiempo real de la mejor manera.
              ¿Y cómo arrastraste a los Estados Unidos aquí? Generalmente es un misterio
              hi

              Los programas de los que hablamos en el artículo son muy adecuados para crear un casus belli. El país agresor necesita una razón, no una prueba. Ejemplo: Operación Comida enlatada, Tubo de ensayo de Powell en la ONU o Cascos blancos. El artículo en sí se titula.
              1. 0
                17 diciembre 2019 21: 46
                Tan pronto como estos programas se generalicen, dejará de tomarse en serio.
                Con el mismo éxito, puede fabricar una carta falsa en una impresora
                Solo un video mucho más confiable
                Y en cuanto al incidente de Bellus, ahora no es un problema hacer tal imitación, los dinosaurios corren por las pantallas, no sorprenderás a nadie
                Es más fácil con el programa, pero para el propósito indicado por usted, no importa
              2. +2
                18 diciembre 2019 14: 15
                Cita: Grueso
                Los programas que se analizan en el artículo son muy adecuados para crear casus belli.


                La experiencia ha demostrado que el caso Belli se crea sin falsificaciones profundas. Y la falsificación profunda, tan pronto como se conozca el fenómeno, se convertirá rápidamente en un medio de bromas y sketches prácticos.
            2. 0
              18 diciembre 2019 07: 52
              Cita: avior
              El examen lo realiza una persona, si es necesario, en modo manual
              Y durante el examen, seguirán apareciendo pegados y rastros de instalación, sin importar lo que hagan las redes neuronales
              Es muy ingenuo pensar que una persona puede reconocer esto con precisión. Por el momento, las falsificaciones aún son visibles, pero en el futuro cercano, el ojo humano apenas puede notar la diferencia. En el ejemplo de las películas modernas, uno puede ver que muchos de los efectos dibujados, fenómenos y criaturas se perciben como reales. Hasta ahora la tecnología ha avanzado.
              1. +1
                18 diciembre 2019 08: 29
                ¿Crees que el examen de autenticidad es mirar un video experto?
                1. -2
                  19 diciembre 2019 05: 20
                  Yo no dije eso. Acabo de dar un ejemplo del desarrollo de la tecnología en el cine. La conclusión es que no hay una forma cien por cien de reconocer una falsificación.
    2. -2
      18 diciembre 2019 07: 48
      Cita: avior
      Los videos sintetizados se determinan durante el examen, lo que significa que no habrá ningún problema grave.
      El artículo también dice que no hay algoritmos que con un cien por ciento de probabilidad reconozcan videos falsos profundos. ¿De qué tipo de experiencia estás hablando?
      Cita: avior
      Aún no lo sabíamos, los estafadores lograron
      Y ahora resulta que no estás al tanto. La gente todavía está involucrada en este cableado, especialmente los pensionistas.
      1. +1
        18 diciembre 2019 08: 31
        Algoritmos: estamos hablando de programas que pueden reconocer falsificaciones en modo automático
        1. -2
          19 diciembre 2019 05: 18
          Programas y trabajo sobre la base de los algoritmos integrados en ellos. Su llamado "modo automático" tampoco es más que el mismo algoritmo, que consta de secuencias de acciones pensadas por programadores. Por el momento, no hay programas correspondientes ni algoritmos correspondientes.

"Sector Derecho" (prohibido en Rusia), "Ejército Insurgente Ucraniano" (UPA) (prohibido en Rusia), ISIS (prohibido en Rusia), "Jabhat Fatah al-Sham" anteriormente "Jabhat al-Nusra" (prohibido en Rusia) , Talibanes (prohibidos en Rusia), Al-Qaeda (prohibidos en Rusia), Fundación Anticorrupción (prohibidos en Rusia), Sede de Navalny (prohibidos en Rusia), Facebook (prohibidos en Rusia), Instagram (prohibidos en Rusia), Meta (prohibida en Rusia), División Misantrópica (prohibida en Rusia), Azov (prohibida en Rusia), Hermanos Musulmanes (prohibida en Rusia), Aum Shinrikyo (prohibida en Rusia), AUE (prohibida en Rusia), UNA-UNSO (prohibida en Rusia) Rusia), Mejlis del Pueblo Tártaro de Crimea (prohibido en Rusia), Legión “Libertad de Rusia” (formación armada, reconocida como terrorista en la Federación Rusa y prohibida)

“Organizaciones sin fines de lucro, asociaciones públicas no registradas o personas físicas que desempeñen las funciones de un agente extranjero”, así como los medios de comunicación que desempeñen las funciones de un agente extranjero: “Medusa”; "Voz de America"; "Realidades"; "Tiempo presente"; "Radio Libertad"; Ponomarev; Savítskaya; Markélov; Kamalyagin; Apakhonchich; Makarevich; Falso; Gordon; Zhdanov; Medvédev; Fiódorov; "Búho"; "Alianza de Médicos"; "RKK" "Centro Levada"; "Monumento"; "Voz"; "Persona y derecho"; "Lluvia"; "Zona de medios"; "Deutsche Welle"; SGC "Nudo Caucásico"; "Persona enterada"; "Nuevo Periódico"