Deepfake

De Wikipedia, la enciclopedia libre
Ir a la navegación Ir a la búsqueda

Deepfake o ultrafalso [1]​ es un acrónimo del inglés formado por las palabras fake, falsificación, y deep learning, aprendizaje profundo.[2]​ Es una técnica de inteligencia artificial que permite editar vídeos falsos de personas que aparentemente son reales, utilizando para ello algoritmos de aprendizaje no supervisados, conocidos en español como RGAs (Red generativa antagónica), y vídeos o imágenes ya existentes.[3]​ El resultado final de dicha técnica es un vídeo muy realista, aunque ficticio. Entre los ejemplos destacados de uso del uso de la técnica del deepfake[4]​ se encuentran dos escenas de la película Rogue One una historia de Star Wars (2016) en las que la Princesa Leia aparece con la cara de Carrie Fisher cuando era joven, cuando en realidad fue interpretada por la actriz noruega Ingvild Deila.[5]

Esta técnica de modelo de RGAs se popularizo por la creación de contenido falsificado en el que un actor o personaje del espectáculo aparecía participando en un vídeo pornográfico cometiendo actos sexuales. Esta modalidad de vídeos falsos es creados mediante la combinación de un vídeo pornográfico (que es utilizado como referente para el algoritmo) más otro vídeo o imagen del actor o personaje, el cual es procesado por el programa informático con técnicas deepfake. No importa que el actor o personaje nunca haya realizado escenas o vídeos pornográficos, precisamente lo que se persigue es crear el efecto, lo más realista posible, de que algo así ha ocurrido. Debido a la abundancia de contenido pornográfico que existe en el Internet, los vídeos deepfakes acostumbran a crear falsificaciones pornográficas de celebridades aunque cabe resaltar que también son usados para falsificar noticias y crear bulos malintencionados. Esta tecnología emergente vio su origen en el mundo de la investigación con aplicaciones prácticas en el mundo del cine como una alternativa a los procesos construcciones digitales que tienden a generar altos costos. Quizá el ejemplo mas famoso de la implementación de esta tecnología en el cine es en la última película de la saga Star Wars. En la cual la actriz Carrie Fisher, conocida por su personaje princesa Leia, había fallecido durante su rodaje, por lo que hubo que hacer uso de esta técnica para las escenas que faltaban grabar.. Gracias a los algoritmos RGA se pueden generar fotografías que parecen auténticas a observadores humanos. Por ejemplo, una fotografía sintética de un gato que consiga engañar al discriminador (una de las partes funcionales del algoritmo) es probable que lleve a una persona cualquiera a aceptarlo como una fotografía real.[6]

Técnicas de Uso[editar]

Los Deepfakes utilizan los algoritmos RGAs del cual dos modelos de Aa (Aprendizaje automático) son presentados con objetivos antagónicos.[7]​ El primer modelo de Aa es alimentado una base de datos de referentes visuales, ya sean fotografías o vídeos y con esta base empieza a generar imágenes falsificadas.[7]​ El otro modelo por su parte se encarga de detectar las imágenes falsas creadas por el primero modelo, este ciclo se repite hasta que eventualmente el primer modelo logra generar una imagen que el segundo modelo no logra identificar como falsa.[7]

Teniendo lo anterior presente, es claro ahora entender por que el uso de esta tecnología ha sido dirigida primordial mente a figuras publicas. Debido a la vasta cantidad de contenido audiovisual que existe de estas personas, es facil alimentarselas a la base de datos del modelo para poder crear imágenes falsas convincentes.

Impacto en los medios[editar]

Cine[editar]

La actriz noruega Ingvild Deila interpretó a la Princesa Leia en Rogue One: una historia de Star Wars, aunque su cara no apareció en la gran pantalla. Gracias a las mismas técnicas que se utilizan en el Deepfake se pudo ver a una jovencísima Carrie Fisher, aunque estaba a punto de cumplir los 60 años en el momento del rodaje. Algo más adelante, Carrie Fisher falleció durante el rodaje y se volvieron a aplicar nuevamente las mismas técnicas.[8]​ Aun así, el mundo del cine se encuentra debatiendo la posición legitima y las oportunidades que esta tecnología brinda a la producción de contenido audiovisual. Existen diversos canales de Youtube que implementan estas tecnologías en películas populares para mostrar el poder de estos software. Estos vídeos varían de entrevistas en las cuales sobreponen la cara de una figura publica en el cuerpo de la persona entrevistada [9]​, o recrean escenas famosas que pareciera que fueron llevadas acabo por otro actor.[10]

Pornografía[editar]

Las técnicas deepfake se popularizaron en el mundo mediante el surgimiento de contenido pornográfico en el año 2017, los primeros vídeos se vieron publicados en la plataforma Reddit siendo prohibida inmediatamente por sitios como el mismo Reddit, Twitter y Pornhub. En otoño de 2017, un usuario anónimo de Reddit bajo el seudónimo "Deepfakes" publicó varios vídeos pornográficos. El primero vídeo que atrajo la atención de la prensa fue uno en el que protagonizaba a la actriz Daisy Ridley el cual causo el primer debate acerca de este contenido falsificado.[11]​ Al poco tiempo surgió otro vídeo bajo la misma cuenta de "Deepfakes" el cual protagonizaba a la actriz Gal Gadot siendo parte de otro vídeo pornográfico.[12]​ La noticia de este vídeo fue cubierta por Vice por la reportera Samantha Cole en el cual hace una investigación detalla del origen de esta tecnología emergente y la comunidad de pornografía falsa que surgió a partir de estos vídeos.[12]​ Hay que destacar que aunque el vídeo resultante es completamente falso (deepfake) no ocurre lo mismo con los vídeos pornográficos sobre los que se habían superpuesto los rostros de ambas actrices.

En la sección técnica y científica de la revista Vice se informó por primera vez sobre el tema en diciembre de 2017, lo que llevó a su amplia difusión en otros medios.[12]​ La atención traída al tema por los reportajes hechos alrededor del mundo llevaron a que al poco tiempo una persona creara una aplicaron que facilitaba el uso de estas tecnológicas. Al poco tiempo de que esta applicacion se lanzara al público, se especula que logro alcanzar aproximadamente las 100,000 mil descargas.[13]​ Actualmente aunque se han buscando alternativas para contraatacar este contenido falso, se ha especulado que aproximadamente un 96% del contenido creado por los algoritmos de Deepfake han sido para la creación de vídeos pornográficos.[14]

Política[editar]

De la misma manera como los vídeos que involucraban a las actrices Daisy Ridley y Gal Gadot lograr captar la atención de los noticiero alrededor del mundo, el mundo de la política también se vio involucrado en el desarrollo de contenido falsificado por mano de los algoritmos de Deepfake. En este caso la finalidad del uso de este software es disfamar la imagen y la opinión de las figuras políticas mediante la creación de discursos falsos. A mediados de abril del 2018 el actor y director Jordan Peele publico un vídeo en el que mediante la falsificación de un discurso del ex-presidente Barack Obama buscaba llamar la atención a las consecuencias que esta tecnologías podrían tener.[15]​ Desde ese entonces ha habido un incremento en la producción de vídeos que involucran a políticos tales como uno publicado en el 2019 que consiste en sobreponer la cara del presidente Donald Trump sobre la actuación del comediante Jimmy Fallon.[16]

Actualmente con la cercanía de las elecciones presidenciales norteamericanas del 2020, se ha visto un incremento de debates en relación con el tema de los deepfakes y la falsificación de contenido audiovisuales.[17]​ Existen figuras políticas tales como Marco Rubio que han comparado esta tecnología emergentes como las armas nucleares del siglo XXI.[18]​ En junio del 2019 la House Intelligence Commitee en Estados Unidos llevo a cabo una serie de debates y audiencias que giraron entorno a los riesgos que los deepfakes presentaban a la integridad política del país.[19]

Véase también[editar]

Referencias[editar]

  1. «ultrafalso, alternativa a deepfake». fundeu. 19 de marzo de 2019. Consultado el 21 de marzo de 2019. 
  2. Horowitz, Brian T. (13 de mayo de 2019). «AI and Machine Learning Exploit, Deepfakes, Now Harder to Detect Deepfake videos are enabled by machine learning and data analytics». PC Magazine. 
  3. Chivers, Tom (23 de junio de 2019). «What do we do about deepfake video?». The Guardian. 
  4. Gisela Daus (27 de septiembre de 2019). «Deepfakes: chantajes y mentiras en el videoclub. Entrevista a Sam Gregory, experto y activista de DDHH internacional.». Clarín. p. https://www.clarin.com/autor/gisela-daus.html. Consultado el 3 de octubre de 2019. 
  5. «Exploring deepfakes». KD Nuggets. marzo de 2018. 
  6. Salimans, Tim; Goodfellow, Ian; Zaremba, Wojciech; Cheung, Vicki; Radford, Alec; Chen, Xi (2016). «Improved Techniques for Training GANs». arXiv:1606.03498  [cs.LG]. 
  7. a b c Porup, J. M. (2019-04-10). «Deepfake videos: How and why they work — and what is at risk». CSO Online (en inglés). Consultado el 2019-11-11. 
  8. «Ingvild Deila, el nuevo rostro detrás de la Princesa Leia en «Star Wars»». abc. 15 de noviembre de 2017. Consultado el 15 de enero de 2019. 
  9. Bill Hader channels Tom Cruise [DeepFake], consultado el 2019-11-11 
  10. Taxi Driver starring Al Pacino [DeepFake], consultado el 2019-11-11 
  11. Roettgers, Janko (2018-02-21). «Porn Producers Offer to Help Hollywood Take Down Deepfake Videos». Variety (en inglés). Consultado el 2019-11-11. 
  12. a b c Cole, Samantha (2017-12-11). «AI-Assisted Fake Porn Is Here and We’re All Fucked». Vice (en inglés). Consultado el 2019-11-11. 
  13. Roettgers, Janko (2018-02-21). «Porn Producers Offer to Help Hollywood Take Down Deepfake Videos». Variety (en inglés). Consultado el 2019-11-11. 
  14. Dickson, E. J. (2019-10-07). «Deepfake Porn Is Still a Threat, Particularly for K-Pop Stars». Rolling Stone (en inglés estadounidense). Consultado el 2019-11-11. 
  15. You Won’t Believe What Obama Says In This Video, consultado el 2019-11-11 
  16. «The rise of the deepfake and the threat to democracy». the Guardian (en inglés). Consultado el 2019-11-11. 
  17. «Q&A: LAW’s Danielle Citron Warns That Deepfake Videos Could Undermine the 2020 Election | BU Today». Boston University (en inglés). Consultado el 2019-11-11. 
  18. Porup, J. M. (2019-04-10). «Deepfake videos: How and why they work — and what is at risk». CSO Online (en inglés). Consultado el 2019-11-11. 
  19. CNN, Donie O'Sullivan. «Congress to investigate deepfakes as doctored Pelosi video causes stir». CNN. Consultado el 2019-11-11. 

Referencias generales[editar]