El turbio futuro de todo deepfaked

¿Cuánto tiempo antes de que los deepfakes vayan más allá de las celebridades y el porno falso, y un extraño esté tomando pruebas falsas de un crimen que no cometiste con la policía?

Hao Li no anticipó que su curiosidad por la animación facial y los algoritmos de IA presagiaría a Espejo negro futuro.

Hace una década, era un doctorado en ciencias de la computación fascinado por la perspectiva de recrear con precisión a los humanos en el espacio digital. Desde entonces, ha trabajado como investigador para la legendaria firma de FX de Hollywood Luz y magia industrial , fundó su propia empresa especializada en avatares animados por IA y se enganchó a la dirección en a laboratorio tecnológico de vanguardia dirigido por la Universidad del Sur de California.

En estos días, también es un experto reacio en el oscuro futuro de deepfakes . Manipulados con la ayuda del software de inteligencia artificial, los deepfakes usan caras intercambiadas y, a veces, sustitución de audio para crear videos que parecen realistas de manera convincente. Lo que comenzó como experimentación para "algunos personajes de dibujos animados, básicamente" se transformó, en el transcurso de 10 años, en una tecnologíaeso podría distorsionar permanentemente la idea de que ver realmente es creer. “Me tomó un poco por sorpresa todo el concepto”, explica. “La motivación del trabajo fue, ¿cómo hacemos que el proceso de animar a una persona sea más rápido, más barato?y más escalable? "

En ese momento, crear un avatar realista requería trabajo convencional de CG y VFX, que es demasiado costoso y requiere mucho tiempo para la gente promedio. Pero a medida que Li y sus compañeros en el campo lograron avances, se dio cuenta de que un propósito diferente se estaba apoderando dela atención del público. "De repente, en los últimos años, los medios de comunicación se nos acercaron y comenzamos a discutir el hecho de que, 'Bueno, ahora puedes manipular videos de políticos para que digan lo que quieras'", dice Li.

Hubo un momento en que los deepfakes se discutían principalmente en algunos círculos de pornografía en línea, con trabajos de aficionados que revelaban su artificio gracias a la distorsión y los artefactos dentro de los videos. Pero en estos días, tanto la tecnología como los usuarios que crean deepfakes han explotado enla corriente principal.

corriente principal medios salidas tener informado sobre el fenómeno digital con más de a toque de moral pánico - tal vez con razón, dadas las implicaciones. Un informe de la NYU que se publicó el mes pasado señaló a los deepfakes como una gran amenaza al proceso democrático en las elecciones de 2020. El aumento del audio falso asistido por IA, que ahora puede imita voces de manera convincente agrega aún más presión. También es una tendencia en la que las empresas de tecnología están invirtiendo; el gigante Adobe, por ejemplo, está desarrollando un “ Photoshop para audio . ”

Se siente como una tormenta perfecta para un futuro en el que los simulacros tendrán poder sobre nuestras vidas físicas, haciéndonos vulnerables a una serie de dolencias que van desde noticias falsas r hasta el caos en el sistema de justicia penal y el intenso ciberacoso. Expertos en seguridadya están advirtiendo que los deepfakes podrían haberlo hecho efectos desestabilizadores sobre los estados-nación y la democracia en todo el mundo.

Sin embargo, como Li me señala, hay un lado positivo absurdo en la locura: "Los deepfakes están forzando toda la cuestión de, ya sabes, ¿en qué puedes confiar?", Dice, sugiriendo encogerse de hombros con su tono de voz..

Alarmas similares sobre la inminente caída de la sociedad sonaron con la cúspide de Internet, el sufragio e incluso la palabra impresa . La mayor amenaza podría ser simplemente un agotamiento aumentado: de la información, de la comunicación, de la batalla por la verdad. "Creo que el estímulo excesivo, la tensión y la irrealidad que las personas experimentan a través de las redes sociales realmente son un factor de agotamiento y depresión.", Me dijo Reef Karim, un experto en salud mental en Los Ángeles anterior este verano.

Tendremos que hacer frente a una tecnología que se utilizará para humillar a todos, desde los líderes mundiales hasta los niños de todos los días. También engrosará la brecha generacional entre los expertos en tecnología y los crédulos. Considere los deepfakes en el examen final cuandose trata de los límites de nuestra credulidad. Para bien o para mal, cada vez está más claro que necesitaremos un toque humano para gestionar la propagación.

Como en los primeros días, el uso más prominente de deepfakes hoy en día es en la pornografía. Videos con versiones deepfaked de Taylor Swift, Selena Gomez, Gal Gadot e incluso una variedad de YouTubers se encuentran fácilmente a través de una búsqueda en Internet. Estos videos varían en calidad, pero el proceso para hacerlos sigue siendo el mismo. IA de aprendizaje profundo, también conocida como “ redes neuronales , ”funciona como el cerebro humano: los algoritmos trabajan juntos para identificar patrones basados ​​en datos de entrada, y con el tiempo aprenden a clasificar los datos con mayor precisión.

Ha habido una serie de aplicaciones algorítmicas diferentes en los últimos años, que van desde la FakeApp difícil de encontrar hasta la ahora omnipresente DeepFaceLab, completa y ampliamente compartida tutoriales . "La forma en que funciona es que primero necesitas un video de destino. Entonces, digamos el video porno. Y si quieres cambiar la cara con una celebridad, bueno, las celebridades son buenas porque hay muchas fotos de ellasen línea ", explica Li." Entonces, lo que harías es buscar en Google y descargar tantas como sea posible e ingresarlas en el software. En general, estamos hablando del rango de unas mil imágenes. Cuantas más, mejor ".

La IA identifica las expresiones faciales, los ángulos y la iluminación, que influyen en la forma en que aprende a clasificar. En última instancia, cada fotograma de la cara del actor porno se reemplaza por uno que coincida con el de la celebridad, y el software hace el trabajo pesado para suavizarAdemás, es más fácil que nunca para una persona promedio probar suerte con los deepfakes, dice Li, gracias a las mentes que codificaron programas como DeepFaceLab, que cuentan con "componentes de última generación" seleccionados del tipo deinvestigación que Li ha realizado en el pasado reciente. No es solo pornografía; hay una industria artesanal de creadores de YouTube que imponen técnicas deepfake en clips de películas y televisión, solo para divertirse.

Li está convencido de que los consumidores de todos los días tendrán acceso a “ perfectamente real ”tecnología de intercambio de caras dentro de un año, una línea de tiempo que Li admite que parecía insondable no hace mucho tiempo. La mala noticia es que, a pesar de lo rápido que se ha desarrollado la tecnología deepfake, el tipo de inteligencia artificial necesaria para combatirla todavía se queda atrás. La situación ideal sería crear un software que pueda detectar si un video es falso o no, dice Li; no es de extrañar que la unidad de investigación avanzada DARPA del Departamento de Defensa haya publicado recientemente una solicitud de colaboradores solo en eso. Aún así, Li tiene la sospecha de que las falsificaciones pueden volverse técnicamente indistinguibles de la realidad en algún momento “En el cerca futuro ”, aclara, lo que hace que la carrera armamentista por la IA que mata a los deepfake sea un poco discutible.

"Entonces, la pregunta es: ¿podemos realmente detectar e investigar el intención ¿de un video en lugar de si es falso o no? ”, Se pregunta.

Esa es la tarea abrumadora que tenemos entre manos, y algunos expertos piensan que la intervención humana será esencial. "Cuanto más se acerque al uso automatizado, más probabilidades tendrá de tener inexactitudes o censura", dijo Kate Klonick, profesora de St.John's University y experto en gobernanza de plataformas, dijo al Revisión técnica del MIT . "Definir la sátira, definir las noticias falsas, definir la ficción: todas estas son preguntas filosóficas enormes".

Las máquinas no están del todo preparadas para la filosofía, y esa es la dicotomía que enfrentamos cuando nos acercamos a una guerra fascinante que mezcla el ingenio humano y la sofisticación de la inteligencia artificial en un lío moral turbio. Nuestra política probablemente estará bien, o al menos no será una mierda.; ¿por qué molestarse con videos sofisticados cuando algunos sitios de "noticias" mal construidos pueden reunir el mismo apoyo rabioso de los distintos rincones de Internet?

Lo que es más preocupante es cómo los deepfakes podrían servir como arma en la batalla interpersonal. Las leyes actuales en los EE. UU. Apenas están preparadas para el porno de venganza, y mucho menos para algo tan complicado como los deepfakes, que podrían fracasar una red llena de agujeros de leyes laxas sobre privacidad y difamación. casos judiciales podría ser infectado por clientes con evidencia fabricada o videos falsos que terminan en archivos institucionales confiables. Riana Pfefferkorn , director asociado de ciberseguridad en Stanford's Centro de Internet y Sociedad , advierte que un sistema de justicia no preparado podría tener grandes problemas mientras lucha por autenticar la evidencia. “A medida que la tecnología deepfake mejora y se vuelve más difícil saber qué es real, los miembros del jurado pueden comenzar a cuestionar la autenticidad incluso de las pruebas debidamente admitidas, con un efecto potencialmente corrosivo enel sistema de justicia ”, ella escribe .

El consejo obvio podría ser minimizar su presencia en línea, para evitar que extraños puedan robar su identidad, pero eso parece muy poco, demasiado tarde. Tal vez sea el momento de aceptar que algún día, tal vez tenga que contar conun clip de "tú" involucrado en un acto repugnante. Claro, se están proponiendo una serie de leyes que obstaculizarían o incluso prohibirían la propagación de deepfakes. Pero si la historia de Internet muestra algo, es que las legalidades tienden a doblarse yromperse bajo el peso de la inteligencia tecnológica.

En cuanto a lo que asusta a Li, hace una pausa y gira cuando le pregunto qué sucede cuando, digamos, un extraño lleva pruebas falsas de tu crimen a la policía. "Soy bastante optimista sobre esto, pero ... la gente va aser inmune a ver videos. Dirán: "Bueno, esto tal vez haya sido manipulado". Así que trato de no preocuparme tanto por los deepfakes. Creo que es un poco como el efecto Photoshop. No ha arruinado nuestras vidas,"Li responde." Esto obviamente tendrá otras consecuencias, pero ... "

Se apaga, dejando los detalles para que yo los averigüe.

¿Esta prueba definitiva de nuestra credulidad podría ser algo bueno? Después de todo, tal vez terminemos consumiendo menos a ciegas. Pero parece lo contrario: todos terminaremos viendo lo que queremos en los píxeles ylas matemáticas.