Una nueva aplicación de Inteligencia Artificial pone la cara de cualquier mujer en videos porno con sólo hacer un clic.

Actualización: el 14 de septiembre, un día después de la publicación de esta historia, Y publicó un nuevo aviso diciendo que ya no está disponible. Continuaremos vigilando el sitio para ver si hay más cambios.

El sitio web es llamativo por su simplicidad. Sobre un fondo blanco, un botón azul gigante invita a los visitantes a subir la foto de una cara. Debajo del botón, 4 caras generadas por IA (Inteligencia Artificial) permiten probar el servicio. Encima del botón, el eslogan proclama descaradamente su propósito: convertir a cualquiera en una estrella porno mediante el uso de tecnología ultrafalsa, o deepfake para intercambiar la cara de la persona en un video para adultos. Todo lo que requiere es una fotografía y pulsar un botón.

MIT Technology Review ha optado por no nombrar el servicio, que llamaremos Y, ni utilizar citas directas y capturas de pantalla de su contenido, para evitar dar tráfico a la página web. Esto lo descubrió el investigador de deepfake Henry Ajder, quien ha estado rastreando la evolución y el surgimiento de los medios sintéticos online.

Por ahora, Y existe en relativa oscuridad, con una pequeña base de usuarios que manda comentarios al creador en foros online sobre cómo va su desarrollo. Los investigadores temían que surgiera una app como esta, que cruzara una línea ética que ningún otro servicio ha cruzado antes.

Desde el principio, los deepfakes, o medios sintéticos generados por IA, se han utilizado principalmente para crear representaciones pornográficas de mujeres, que a menudo encuentran esto psicológicamente devastador. El creador original de Reddit que popularizó esta tecnología cambió las caras de mujeres famosas en videos porno. Hasta el día de hoy, la compañía de investigación Sensity AI estima que entre el 90% y el 95% de todos los videos deepfake online son pornografía no consensuada, y alrededor del 90% de ellos son de mujeres.

A medida que la tecnología avanza, han surgido numerosas herramientas sin código fáciles de usar, que permiten a los usuarios «quitar» la ropa de los cuerpos femeninos de las imágenes. Muchos de estos servicios se han visto obligados a desconectarse, pero el código todavía existe en repositorios de código abierto y ha seguido resurgiendo en nuevas formas. El último sitio de este tipo recibió más de 6,7 millones de visitas en agosto, según la investigadora Genevieve Oh, quien lo descubrió. Todavía no lo han quitado.

Ha habido otras apps de intercambio de caras, como ZAO o ReFace, que colocan a los usuarios en escenas seleccionadas de películas convencionales o videos pop. Pero como la primera app porno dedicada al intercambio de caras, Y lleva esto a otro nivel. Está «hecho a medida» para crear imágenes pornográficas de personas sin su consentimiento, dice Adam Dodge, fundador de EndTAB, una organización sin ánimo de lucro que educa a las personas sobre el abuso posibilitado por esta tecnología. Esto hace que sea más fácil para los creadores mejorar la tecnología para este uso específico y tentar a gente que de otra manera no habría pensado en crear porno deepfake. «Cuando te especializas así, creas un nuevo rincón de Internet que atrae a nuevos usuarios», dice Dodge.

Y es increíblemente fácil de usar. Cuando el usuario sube la foto de una cara, el sitio abre una biblioteca de videos porno. La gran mayoría de mujeres, aunque un pequeño puñado también tiene a hombres, principalmente en pornografía gay. El usuario puede seleccionar cualquier video para generar una previsualización del resultado intercambiando las caras en cuestión de segundos, y luego pagar para descargar la versión completa.

Los resultados están lejos de ser perfectos. Muchos de los intercambios de caras son obviamente falsos, las caras brillan y se distorsionan al giran en diferentes ángulos. Pero para un observador casual, algunos son lo suficientemente sutiles como para pasar por buenos, y la trayectoria de los deepfakes ya ha demostrado cuán rápido pueden volverse indistinguibles de la realidad. Algunos expertos argumentan que la calidad del deepfake tampoco importa tanto, porque el costo psicológico para las víctimas va a ser el mismo. Y muchos miembros del público siguen sin ser conscientes de que tal tecnología existe, por lo que incluso los intercambios de caras de baja calidad pueden ser capaces de engañar a la gente.

Y se anuncia como una herramienta segura y responsable para explorar fantasías sexuales. El sitio anima a los usuarios a subir su propia cara. Pero nada les impide subir las caras de otras personas, y los comentarios en los foros online sugieren que eso es justo lo que se hace.

Las consecuencias para las mujeres y las niñas a las que se dirige esa actividad pueden ser abrumadoras. A nivel psicológico, estos videos pueden sentirse tan violatorios como la pornografía de venganza: videos íntimos reales filmados o publicados sin consentimiento. «Este tipo de abuso, en el que las personas tergiversan tu identidad, nombre, reputación y la alteran de maneras tan violatorias, te destrozan completamente», dice Noelle Martin, una activista australiana que ha sido blanco de una campaña porno deepfake.

Y las repercusiones pueden perseguir a las víctimas de por vida. Las imágenes y los videos son difíciles de eliminar de Internet, y se puede crear nuevo material en cualquier momento. «Afecta tus relaciones interpersonales; te afecta hasta para buscar trabajo. Puede ser mencionado en todas las entrevistas de trabajo a las que vayas. En las posibles relaciones románticas», dice Martin. «Nunca he tenido éxito en conseguir que ni una de las imágenes sea eliminada. Estarán ahí fuera para siempre. No importa lo que haga».

A veces es incluso más complicado que el porno de venganza. Como el contenido no es real, las mujeres pueden dudar si merecen sentirse traumatizadas y si deben denunciarlo, dice Dodge. «La duda de si se es o no una víctima, afecta a la capacidad de recuperación», dice.

La pornografía deepfake no consensuada también puede tener impactos económicos y profesionales. Rana Ayyub, una periodista india que se convirtió en víctima de una campaña porno deepfake, recibió un acoso online tan intenso, que tuvo que minimizar su presencia online y, por lo tanto, el perfil público requerido para hacer su trabajo. Helen Mort, una poeta y locutara del Reino Unido que había compartido su historia con MIT Technology Review, dijo que se había sentido presionada para hacer lo mismo después de descubrir que habían robado fotos suyas de cuentas privadas de redes sociales para crear desnudos falsos.

La línea de ayuda Revenge Porn financiada por el gobierno del Reino Unido recibió recientemente un caso de una maestra que perdió su trabajo después de que imágenes pornográficas de ella empezaran a circular por las redes sociales y se avisara a su escuela, dice Sophie Mortimer, quien administra el servicio. «Está empeorando, no mejorando», dice Dodge. «Más mujeres están siendo atacadas de manera similar».

La opción de Y de crear porno gay deepfake, aunque limitada, representa una amenaza adicional para hombres en países donde la homosexualidad está criminalizada, dice Ajder. Este es el caso en 71 jurisdicciones, 11 de las cuales la castigan con la muerte.

Ajder, que ha descubierto numerosas aplicaciones porno deepfake en los últimos años, dice que ha intentado ponerse en contacto con el servidor de Y y forzarlo a salir de internet. Pero es pesimista acerca de evitar que se creen herramientas similares. Ya ha aparecido otro sitio que parece estar intentando hacer lo mismo. Cree que prohibir este contenido de las plataformas de redes sociales, y tal vez incluso hacer que su creación o consumo sea ilegal, sería una solución más sostenible. «Eso significa que estos sitios web son tratados de la misma manera que el material de la dark web», dice. «Aunque sólo se les obligue a la clandestinidad, al menos desaparecen de la vista de la gente corriente».

Y no respondió a múltiples solicitudes de comentarios en el correo electrónico que figura en su página web. La información de registro asociada con el dominio también está bloqueada por el servicio de privacidad Withheld For Privacy. El 17 de agosto, después de que MIT Technology Review intentara por tercera vez contactar con el creador, el sitio puso un aviso en su página de inicio diciendo que ya no está disponible para nuevos usuarios. A día 12 de septiembre, el aviso todavía estaba allí.

Artículo original

Hilo

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Información básica sobre protección de datos Ver más

  • Responsable: Salagre.
  • Finalidad:  Moderar los comentarios.
  • Legitimación:  Por consentimiento del interesado.
  • Destinatarios y encargados de tratamiento:  No se ceden o comunican datos a terceros para prestar este servicio. El Titular ha contratado los servicios de alojamiento web a Lucushost S.L. que actúa como encargado de tratamiento.
  • Derechos: Acceder, rectificar y suprimir los datos.
  • Información Adicional: Puede consultar la información detallada en la Política de Privacidad.

Este sitio usa Akismet para reducir el spam. Aprende cómo se procesan los datos de tus comentarios.

Otros artículos

Suscríbete a nuestra newsletter


Loading

Buscar en el blog

Buscar
Esta web utiliza cookies propias y de terceros para su correcto funcionamiento. Al hacer clic en Aceptar, aceptas el uso de estas tecnologías y el procesamiento de tus datos para estos propósitos.    Preferencias y más información.
Privacidad