Hasta ahora ha creado videos de varias de las celebridades más importantes de la industria de Hollywood.

La tecnología de edición digital avanza a pasos agigantados, y programas que hasta hace muy poco hubieran sido increíblemente caros ahora están al alcance de cualquiera.

Prueba de lo anterior es uno de los hilos más populares en las últimas horas en Reddit, en el que el usuario “deepfakes” ha demostrado cómo un programa diseñado por él mismo puede usarse para mezclar imágenes y videos de celebridades de Hollywood con videos pornográficos.

Todo comenzó cuando el usuario publicó un supuesto video porno de Gal Gadot, en el que la voz de la actriz suena diferente pero su rostro sí corresponde con el de la protagonista de Wonder Woman (aunque se mueve un poco raro). Después, deepfakes confesó que con ayuda de los programas TensorFlowKeras (ambos de código abierto), diseñó un algoritmo que funciona de forma parecida a los filtros de Snapchat y Facebook Messenger, que le permite recolectar imágenes de celebridades para intercambiar sus rostros con las actrices porno que protagonizan los videos, casi de forma automática.

Un fragmento –para todo público– de uno de los videos.

El algoritmo de deepfakes utiliza un sistema de aprendizaje profundo que, por medio de redes de nodos interconectados, ejecuta cálculos de forma autónoma. Después de realizar la misma tarea varias veces, el sistema “aprende” a arreglar de forma automática los problemas de edición y así mejora progresivamente la calidad de los videos.

Los clips han resultado un gran éxito en Reddit, y ya hay versiones porno que ahora son “protagonizadas” por famosas como Scarlett Johansson, Maisie Williams, Taylor Swift, Aubrey Plaza y la mencionada Gal Gadot. Si bien los videos todavía tienen fallas, podrían ser el inicio de una nueva oleada de videos eróticos con celebridades.

Sin embargo, esto también representan un peligro mayor. El éxito del algoritmo de aprendizaje automático diseñado por deepfakes también muestra que cada vez es más fácil realizar videos en los que los protagonistas dicen y hace cosas que jamas ocurrieron, y esto podría ser un peligro para todos en el futuro cercano. Sobre todo por la enorme cantidad de personas que inundan sus redes sociales con selfies.

Así, tal como apunta Motherboard, no sería raro que dentro de poco alguien fuera capaz de crear un video pornográfico usando sólo fotos o videos de internet, lo que podría afectar gravemente la intimidad de otra persona. Esta sería una nueva y sofisticada forma de porno vengativo, que no necesitaría ni siquiera de un video o foto real para hacerlo.

vía Motherboard

fuente Reddit

temas