El peligro que acecha: IA podría crear ola de falsos videos porno

Otro riesgo de la Inteligencia Artificial: podría hacer del deepfake porn una amenaza mayor para las mujeres.

Por ANDRÉS ALBURQUERQUE / Foto: ARCHIVO

La Inteligencia Artificial (IA) podría fácilmente convertir la pornografía falsa en una amenaza aún mayor para las mujeres. Con la ayuda de sus herramientas, las fotografías y videos pueden manipularse para crear “deepfake porn” de una persona, lo que podría causar un daño permanente.

La australiana Noelle Martin tenía 18 años en el año 2013, cuando descubrió que circulaban por internet fotos pornográficas suyas. Nunca recordó haber tomado, y mucho menos compartido, imágenes íntimas. Sin embargo, en esas imágenes aparecía su cara, pero el cuerpo no era el suyo.

Fue víctima de lo que más tarde se bautizaría como “deepfakes”. Las fotos pornográficas habían sido manipuladas para que se parecieran a ella utilizando imágenes que había compartido en sus cuentas personales de las redes sociales.

“Es una condena de por vida. Puede destruir la vida de las personas, sus medios de subsistencia, su empleabilidad, sus relaciones interpersonales, sus relaciones románticas. Y es muy, muy poco lo que se puede hacer una vez que alguien es el objetivo”, dijo Noelle a Euronews.

Los deepfakes son videos o imágenes alterados digitalmente y creados para representar a alguien en escenarios falsos. Aunque la tecnología deepfake puede utilizarse teóricamente para fines más desenfadados, satíricos o bienintencionados, un informe de Deeptrace Labs de 2019 descubrió que el 96% del contenido deepfake en línea es pornografía no consentida.

Martin se dedicó a la abogacía y pasó años impulsando legislación contra el intercambio no consentido de imágenes íntimas en Australia. En 2018, sus esfuerzos ayudaron a introducir nuevas leyes que penalizan la distribución de imágenes íntimas no consentidas o “porno de venganza” en su país.

Diez años después de su propia experiencia traumática, Martin, investigadora legal en la Universidad de Australia Occidental, sigue abogando contra el intercambio de contenido sexual no consentido, especialmente aquellos creados con tecnología deepfake.

“En última instancia, lo que tratamos de hacer como comunidad de supervivientes es presionar para que se establezcan leyes, presionar para que los países de todo el mundo tipifiquen como delito esta cuestión, presionar para que se desarrolle la infraestructura que garantice que las víctimas puedan buscar ayuda”, afirma.

Sin embargo, los grandes avances recientes en IA y la creciente accesibilidad de esta tecnología han facilitado la creación de material sexual perturbadoramente realista y engañoso.

Cuando surgieron los deepfakes, su principal objetivo era crear videos pornográficos con rostros de famosos. El término deepfakes surgió en 2017, cuando un usuario con ese alias en la plataforma social Reddit se hizo conocido por hacer y compartir videos pornográficos trucados de celebridades femeninas, como Scarlett Johansson y Taylor Swift.

Sophie Compton, cofundadora de la coalición My Image My Choice (Mi imagen, mi elección), que hace campaña contra el abuso de la imagen íntima, afirmó que los usuarios de sitios web de deepfakes son parte del problema y también deben rendir cuentas.

“No son sólo los creadores, son todos los usuarios. Y estos son chicos normales. Es gente de nuestras escuelas, y probablemente también algunas mujeres. Pero predominan los hombres. Y son compañeros de clase, amigos, hermanos, novios”, explica Compton.

Aunque los deepfakes porno de famosos existen desde hace años, los recientes avances en IA hacen que hoy en día prácticamente cualquiera pueda convertirse en víctima de este tipo de contenidos. Y la tecnología también puede utilizarse para desacreditar o chantajear a personas en un intento de silenciarlas o socavarlas.

Ya sea que la motivación detrás de crear y compartir deepfakes porno sea avergonzar, difamar o acosar a las víctimas o simplemente ganar dinero, el contenido a menudo refleja las fantasías de algunos hombres de degradar y cosificar a las mujeres utilizando imágenes explícitas, ya sean reales o falsas.

“Desde la perspectiva de una persona que es objeto de esto, incluso si se puede decir que algo es falso o incluso si no es completamente realista, el daño sigue siendo irreparable. Si se crea un deepfake de ti, y aunque puedas darte cuenta, la gente seguirá asociando lo que se representa de ti contigo. Todavía pueden apropiarse indebidamente de ti. Tu reputación, tu nombre y tu imagen pueden seguir siendo arrastrados por el barro”, dijo Martin.

Los activistas dicen que actualmente es muy fácil humillar públicamente a una persona creando deepfakes de ella, y que esta falta de regulación y responsabilidad está fallando a las víctimas.

La Ley de Inteligencia Artificial, que se está debatiendo actualmente en el Parlamento Europeo, exige a los creadores que indiquen claramente si el contenido se ha generado o manipulado artificialmente.

Sin embargo, los activistas afirman que es muy difícil que las cláusulas de exención de responsabilidad disuadan a los creadores de deepfakes o hagan justicia a las víctimas una vez que el contenido haya salido a la luz y esté vinculado a ellas -lamentablemente- para siempre.