Las plataformas consideran que este tipo de videos son similares al “porno de venganza”.

El mundo de la pornografía se cimbró en diciembre del año pasado, cuando un usuario conocido como “deepfakes” publicó en Reddit un programa diseñado por él mismo, con el que se podían crear videos porno falsos protagonizados por celebridades (e incluso por cualquier persona de la que tuviera suficientes fotos o videos).

Con el paso de las semanas, la inteligencia artificial del programa mejoró, e incluso se lanzó una versión de escritorio que le permitía a cualquiera crear un video de este tipo al mezclar videos reales con los rostros de famosos. Gracias a eso, los videos de este tipo –conocidos popularmente como “deepfakes”– inundaron la red, sobre todo el sitio de pornografía Pornhub, en los que se veían a personalidades como Gal Gadot, Maisie Williams, Selena Gómez, Taylor Swift, Emma Stone, o Daisy Ridley.

Un fragmento para todo público de un deepfake de Daisy Ridley

Ahora, Pornhub finalmente se ha pronunciado respecto a los “deepfakes”. El sitio líder en pornografía habló con Motherboard y dijo que eliminará cualquier video similar que se suba a su plataforma, bajo el argumento de que son clasificados com “contenido no consensual”, es decir, Pornhub cataloga a este tipo de videos en el mismo nivel que el “porno de venganza”.

En el mismo sentido, Twitter anunció que cerrará las cuentas de los usuarios que suban este tipo de videos.

“No se pueden publicar o compartir fotos o videos íntimos de alguien que se produce o se distribuye sin su consentimiento”, indicó un portavoz de Twitter.

A diferencia de otras redes sociales, Twitter sí permite difundir contenido para adultos, siempre y cuando estén marcados como “contenido multimedia delicado. Sin embargo, la plataforma tiene estrictas políticas contra el llamado “porno de venganza”.

Ambas plataformas saben que es difícil eliminar este tipo de videos, pero creen que pueden controlar el problema en el mediano plazo. Como sea, el éxito del algoritmo de aprendizaje automático diseñado por deepfakes también muestra que cada vez es más fácil realizar videos en los que los protagonistas dicen y hace cosas que jamás ocurrieron, y esto podría ser un peligro para todos en el futuro cercano.

fuente Motherboard

temas