Deepfakes: Los oscuros orígenes de los videos falsos y su potencial para causar estragos en línea

La presencia de videos e imágenes alteradas con inteligencia artificial casi se duplica cada seis meses. Pero el problema puede ser más de lo que parece.

Encontrar videos alterados e imágenes con Photoshop es casi un rito de iniciación en Internet. Es raro en estos días que veas las redes sociales y no te encuentres con algún tipo de contenido editado, ya sea un simple selfie con un filtro, un meme muy adornado o un video editado para agregar una banda sonora o mejorar ciertos elementos.

Te puede interesar: ¿Qué hace realmente un experto en ciberseguridad?

Pero mientras que algunas formas de medios son obviamente editadas, otras alteraciones pueden ser más difíciles de detectar. Es posible que haya escuchado el término "deepfake" en los últimos años; surgió por primera vez en 2017 para describir videos e imágenes que implementan algoritmos de aprendizaje profundo para crear videos e imágenes que parecen reales.

Por ejemplo, tomemos el discurso del desastre lunar que pronunció el ex presidente Richard Nixon cuando el equipo del Apolo 11 se estrelló contra la superficie lunar. Es broma, eso nunca sucedió. Pero un deepfake hiperrealista de Nixon rindiendo homenaje a Buzz Aldrin y Neil Armstrong caídos apareció en una película de 2019 , In Event of Moon Disaster , que mostró la alteración convincente del discurso original del presidente.

Otros líderes mundiales actuales y anteriores, como John F. Kennedy , Barack Obama y Vladimir Putin, también han sido objeto de videos deepfake, en los que parecen decir y hacer cosas que en realidad nunca dijeron o hicieron. Aunque el aumento de los deepfakes en los últimos años se ha debatido en los medios de comunicación populares, el conjunto de literatura académica sobre el tema sigue siendo relativamente escaso.

Pero los investigadores han expresado su preocupación de que estas imágenes y videos manipulados puedan presentar un riesgo de seguridad creciente en los próximos años. Un informe en Crime Science predice que los deepfakes representarán la amenaza de seguridad más grave en los próximos 15 años entre una serie de otras tecnologías impulsadas por IA.

"Los seres humanos tienen una fuerte tendencia a creer lo que ven y oyen", escribieron los investigadores en su conclusión. Entonces, cuando los medios que consumimos se ven demasiado buenos para ser falsos, es fácil ser víctima de un engaño. Y la cantidad de deepfakes online siguen creciendo, aunque no siempre en los lugares que cabría esperar.

¿Qué hace a un deepfake?

El término deepfake no se refiere a cualquier video o imagen editada convincente; más específicamente, el término es un conglomerado de "aprendizaje profundo" y "falso". Este tipo específico de medios se basa en redes neuronales para alterar el audio y el video.

La tecnología para crear deepfakes se ha vuelto más fácil de acceder a lo largo de los años, con un puñado de programas y sitios web que permiten a los usuarios crear los suyos propios, a veces a un precio elevado. Aún así, muchos de los deepfakes que pueblan varios rincones de Internet no son tan convincentes, dice Giorgio Patrini. Es el CEO y fundador de Sensity, una compañía en Ámsterdam que ha estado investigando la propagación de deepfakes desde 2018. Patrini dice que la mayoría de los deepfakes con los que se ha encontrado están hechos con las mismas pocas herramientas de código abierto. “La razón es que son muy fáciles de usar y están muy bien mantenidas y son conocidas por las comunidades”, agrega. Y la mayoría de los medios que encuentran "en la naturaleza", como dice Patrini, utilizan los mismos métodos para alterar el metraje digital.

Recientemente, Facebook anunció los resultados de una competencia en la que los expertos crearon nuevos algoritmos para detectar deepfakes: el ganador pudo detectar el 82 por ciento de los medios alterados por IA a los que estuvieron expuestos. Algunos deepfakes se pueden crear usando métodos que aún son difíciles de detectar para los algoritmos de detección actuales, pero Patrini dice que los creadores de deepfake en la naturaleza tienden a usar métodos más baratos y simples al hacer videos. El software de detección que tenemos ahora es bastante exitoso en clasificar las grandes franjas de medios que se encuentran en línea, agrega.

“Yo diría que tal vez el 99 por ciento, o incluso más, de los videos deepfake que encontramos están… basados ​​en el intercambio de caras”, dice. "Hay otras formas de crear videos falsos, incluso cambiando el habla y el movimiento de los labios, [o] cambiando el movimiento del cuerpo". Pero hasta ahora, esos no son los métodos más populares entre los conocedores de deepfake, dice Patrini, por lo que los algoritmos actuales aún pueden eliminar gran parte del contenido alterado por IA.

Y aunque la tecnología de intercambio de rostros se puede aplicar literalmente a cualquier foto o video con un rostro humano, los creadores de deepfake parecen tener afinidad por un tipo de medio en particular: la pornografía. Se crea una cantidad abrumadora de videos alterados por IA para colocar la cara de un sujeto en el cuerpo de una estrella del porno, un fenómeno que se dirige desproporcionadamente a las mujeres y se remonta a los orígenes oscuros de los deepfakes.

El problema de la pornografía

En 2019, cuando Sensity publicó un informe sobre el estado de los deepfakes con el nombre de Deeptrace, detectaron un total de 14,678 videos alterados por IA en línea. De ellos, el 96 por ciento se utilizó en contenido pornográfico.

Y los primeros videos de deepfake, de hecho, se hicieron por la misma razón. En 2017, los usuarios de Reddit comenzaron a publicar videos adulterados de celebridades femeninas cuyos rostros fueron intercambiados sin consentimiento en los cuerpos de estrellas porno . Reddit prohibió a los usuarios publicar estos deepfakes explícitos en 2018 , pero los informes muestran que otros sitios y aplicaciones éticamente problemáticos todavía aparecieron en su lugar.

"No hemos ido muy lejos", dice Patrini. A pesar de la amplia cobertura mediática de los deepfakes políticos, las ediciones pornográficas han sido la forma predominante de contenido alterado por IA que se propaga por la web. Y hasta ahora, las mujeres son casi siempre los objetivos: el informe de Sensity de 2019 encontró que el 100 por ciento de los deepfakes pornográficos detectados incluían sujetos femeninos.

Hace solo dos meses, Sensity identificó un total de 49,081 videos deepfake en línea, una tendencia que muestra que los números se duplican casi cada seis meses. Últimamente, dice Patrini, han observado un aumento en los videos dirigidos a personas que son personalidades populares de Internet, o personas influyentes, en Youtube, Instagram y Twitch. "Quizás hace un año vimos que la mayor parte del contenido presentaba celebridades conocidas que podrían ser ... de la industria del entretenimiento", dice. Pero los creadores de deepfake también se dirigen a personas, a menudo mujeres, que llevan vidas activas en línea.

¿Podemos detener la propagación?

Si bien los medios alterados por IA pueden parecer muy malos, la tecnología en sí no es intrínsecamente dañina. “Para muchas personas, los deepfakes ya tienen una connotación intrínsecamente negativa”, dice Patrini. Pero la tecnología que hay detrás se puede utilizar para una gran cantidad de proyectos creativos, como servicios de traducción o trucos visuales en películas y programas de televisión.

Tome el deepfake de Nixon, por ejemplo. Los directores no presentaron su creación para engañar a los espectadores o hacerles pensar que los libros de historia se equivocaron en la misión del Apolo 11. Por el contrario, la película utilizó una nueva tecnología experimental para mostrar cómo podría haber sido una línea de tiempo histórica alternativa, al tiempo que educaba a los espectadores sobre lo convincentes que pueden ser los deepfakes y la edición de video.

Pero eso no quiere decir que los deepfakes no puedan inducir a error, ni que aún no se estén utilizando para llevar a cabo actos nefastos. Además del uso generalizado de pornografía manipulada y no consensuada, Patrini dice que también ha visto un aumento en los casos en que se utilizan deepfakes para hacerse pasar por alguien que intenta abrir una cuenta bancaria o una billetera Bitcoin. La verificación de video puede ser necesaria para estos procesos y es posible que un deepfake engañe a las cámaras.

"Con algo de sofisticación, las personas pueden falsificar una identificación y también falsificar cómo aparecen en el video", dice Patrini. A veces, eso puede significar abrir cuentas con el nombre de un extraño o un nombre falso y crear una persona que no existe. Por ahora, dice Patrini, este tipo de engaño no parece estar muy extendido, pero representa una aplicación más siniestra para los deepfakes.

Y con la tecnología cada vez más accesible, es probable que continúe la propagación de deepfakes. Solo podemos esperar que la gente elija usarlos para siempre. 

Publicar un comentario

0 Comentarios