Tecnología falsa profunda como una razón para comenzar una guerra
Nuevo mundo con falso falso
Ahora, casi todos los hierros tienen Internet, cada vez es más difícil encontrar un punto en el mapa donde la red 4G no esté disponible. Internet de banda ancha es principalmente video HD en plataformas comunes que están reemplazando gradualmente para nosotros. noticias feeds, análisis y lectura entretenida. Además, es un instrumento de influencia en miles de millones de personas, lo que permite crear la opinión pública correcta en este momento. En la cima de estos juegos con el público, puede resultar ser una tecnología falsa profunda, que ya ha demostrado su capacidad para convertir a celebridades como Gal Gadot, Scarlett Johansson, Taylor Swift, Emma Watson y Katy Perry, en las estrellas de la industria del porno. Dipfake es un algoritmo que le permite simular el comportamiento y la apariencia de una persona en un video. La tecnología obtuvo su nombre de la combinación de aprendizaje profundo ("aprendizaje profundo") y falso ("falso"). En el corazón de la falsa profunda se encuentran las notorias redes neuronales que operan en la Red Adversaria Generativa (GAN). Los algoritmos establecidos en la base del programa compiten constantemente entre sí en dos procesos: capacitación en las fotografías presentadas para crear una sustitución real de la cara por copias y eliminación de opciones inadecuadas hasta que la máquina misma comience a confundir el original y la copia. En este complejo esquema, el objetivo principal de la falsificación profunda es crear fotos falsas y contenido de video en el que la cara del original se reemplace de una manera diferente. Por ejemplo, el carismático presidente de los Estados Unidos, Donald Trump, bien podría ocupar el lugar de cualquier líder odioso del siglo XX y llevar una herejía abierta a las masas desde la tribuna. Ahora, en uno de los videos falsos profundos generados, el ex presidente Barack Obama se permitió usar lenguaje grosero contra Donald Trump.
Por supuesto, al principio, la publicidad falsa profunda era exclusivamente viral: los rostros de las actrices de Hollywood implantadas en tramas sencillas de videos porno con todas las consecuencias resultantes. O, por ejemplo, el actor Nicolas Cage de repente se convierte en el actor principal en episodios de las películas más emblemáticas de nuestro tiempo. Algunas de estas creaciones se presentan en video y, francamente, muchas de ellas parecen algo torpes.
Pero la cantante de hip-hop Cardi Bee, que apareció en el programa nocturno Jimmy Fallon en la imagen del actor Will Smith, parece bastante convincente.
Y aquí está el original.
Las artesanías en el canal Ctrl Shift Face se ven bien. Por ejemplo, Sylvester Stallone probó el papel principal en Terminator.
Los analistas de TI ya afirman que la tecnología falsa puede ser la más peligrosa en el campo digital en las últimas décadas. Además de esta tecnología (y basada en ella), especialistas de las universidades de Princeton, Max Planck y Stanford crearon la aplicación Neural Rendering. Su tarea es aún más peligrosa: "forzar" la imagen de una persona a pronunciar cualquier texto en cualquier idioma con su voz. Esto requiere solo un video de 40 minutos con sonido, durante el cual la red neuronal aprenderá a trabajar con la voz y las expresiones faciales de una persona, transformándola para nuevas expresiones verbales. Inicialmente, la idea, por supuesto, se posiciona como buena: el principal consumidor de Neural Rendering serán los estudios de cine que quieran reducir el tiempo de rodaje de las tomas de actuación. Sin embargo, de inmediato se hizo evidente para todos que en un futuro cercano, prácticamente cualquier usuario puede generar falsificaciones de video en su computadora portátil desde la cual se pondrá los pelos de punta. La segunda rama del programa "falso" fue la aplicación DeepNude, que es capaz de "desnudar" a cualquier mujer desnuda en la foto. En los primeros días del servicio, el volumen de solicitudes fallidas era tan grande que los desarrolladores, por temor a demandas, anunciaron su cierre. Pero los piratas informáticos piratearon el recurso, y ahora DeepNude puede ser utilizado por todos. Por supuesto, intentan restringir el acceso al servicio, pero todos entienden que esto es solo una medida temporal.
La falsificación profunda resultó ser una buena herramienta en manos de los estafadores. A una compañía energética británica le robaron 220 mil euros, cuando un "clon" de un gerente de Alemania se puso en contacto con el departamento financiero. Pidió con voz simulada que transfiriera dinero urgentemente a una cuenta en Hungría, y los socios comerciales no tenían motivos para no confiar en un suscriptor. Por supuesto, ahora fingir de forma masiva y eficiente una secuencia de video es problemático: los reguladores estatales bloquean constantemente los recursos con fakeapp y facefake, y el poder de las computadoras aún no permite una rápida síntesis de video. Tenemos que delegar este trabajo en servidores pagos remotos, que requieren miles de fotos de la persona original y la "víctima" para trabajar.
Casus belli
La tecnología falsa profunda puede dejar a los actores sin trabajo en el futuro: toda la industria puede cambiar a héroes de películas de dibujos animados, muchos de los cuales la tecnología resucitará de entre los muertos. Pero estos son los sueños más probables del futuro, ya que numerosos sindicatos y una falta elemental de poder de computación empujan la perspectiva hacia adelante varios años más adelante. Aunque ahora en la película "Rogue One: Star Wars", el director de un episodio, el actor "resucitado" Peter Cushing, quien murió en 1994. Se rumorea que en la nueva película sobre la Guerra de Vietnam, puede aparecer el famoso James Dean. Las redes neuronales ayudan a los actores que ya tienen años a verse en el marco de 10 a 20 años más jóvenes, por ejemplo, Arnold Schwarzenegger y Johnny Depp. En promedio, se generan al menos 15-20 mil videos falsos cada mes en el mundo cada mes, la mayoría de los cuales aparecen en Internet. Los programadores rusos están tratando de mantenerse al día con las tendencias mundiales: Vera Voice en julio de 2020 invitará a los fanáticos del trabajo de Vladimir Vysotsky a comunicarse con una copia digital del cantante en el Teatro Taganka.
Todo se debe al hecho de que las pruebas de video y fotografía dejarán de ser argumentos efectivos en los litigios, y un sistema global de videovigilancia será una pérdida de dinero. Nadie confiará en los marcos de las cámaras de CCTV. ¿Dónde está la garantía de que este no es un muñeco sintetizado? En la propaganda política, la falsificación profunda ya se está convirtiendo en una palanca poderosa para influir en las opiniones de los votantes. California, en octubre de 2019, se convirtió en el primer estado en prohibir la publicación de videos con candidatos políticos 60 días o menos antes de las elecciones. Por la violación de esta ley, AB 730 enfrenta responsabilidad penal. Ahora, varios estados más se han unido a esta iniciativa, y en enero de 2020 estará prohibido en China publicar fotos y videos falsos sintetizados sin una marca especial. Por cierto, ahora uno de los métodos efectivos para determinar el falso a simple vista es la falta de parpadeo natural de los caracteres sintetizados.
Ahora imagine cómo el desarrollo de tecnología falsa profunda (y el desarrollo no se puede detener hasta que haya demanda) convertirá la idea de verdad y mentira. Especialmente cuando las estructuras estatales adoptan la novedad. Cualquier video sintetizado sobre la próxima exposición de espionaje con uso hábil puede ser la razón, al menos, para imponer otro paquete de sanciones o cerrar la misión diplomática. Y no será necesario realizar ataques químicos contra civiles para autorizar un ataque masivo con misiles contra un estado soberano. Actos de genocidio, consecuencias del uso armas Destrucción masiva, comportamiento provocativo y abusivo de las primeras personas del estado: todo este ramillete falso en la situación correcta puede justificar el comienzo de otra aventura militar a los ojos de los votantes. Y cuando las armas hablan y los cohetes vuelan, nadie recordará particularmente con qué video revelador comenzó la guerra.
Ahora no hay una respuesta definitiva sobre qué hacer con este desastre. Los mejores algoritmos mejorados al exponer falsificaciones profundas pueden garantizar solo un 97% de probabilidad. Actualmente, cada programador progresivo puede participar en el Deepfake Detection Challenge, que en septiembre de 2019 anunció Facebook. Un fondo de premios de $ 10 millones se destinará a alguien que pueda desarrollar un algoritmo que le permita reconocer videos falsos con una garantía del 100%. Uno solo puede adivinar qué tan rápido seguirá la respuesta de los desarrolladores falsos subterráneos.
- Evgeny Fedorov
- youtube.com, perfil.ru
información