Las redes sociales volvieron a revolucionarse en los últimos días con un nuevo escándalo: varios usuarios denunciaron la aparición en Instagram y en Facebook de publicidades de una app que prometía desnudar mujeres con inteligencia artificial.
Las capturas de pantallas de la promoción, que dieron la vuelta al mundo y se viralizaron, mostraban una foto de Kim Kardashian y la leyenda “Desnuda a cualquier mujer gratis. Inténtalo”.
Otra de las stories que muchos usuarios de Instagram lograron capturar comparaba la imagen de una chica muy joven vestida con una versión de la misma muchacha desnuda, realizada con un software basado en IA.
En ambas publicidades se invitaba a los usuarios a generar, a partir de fotos reales de mujeres, desnudos fake no consentidos e hiperrealistas. Esta práctica es considerada una forma de violencia de género y abuso sexual digital, ya que las imágenes, afectan la dignidad de las personas y pueden ser utilizadas para dañar la reputación de las personas o para difundir información falsa.
Los deepfake como abuso sexual digital
Los deepfakes son un tipo de contenido multimedia generado por algoritmos de aprendizaje automático que pueden reemplazar el rostro, la voz, o incluso el cuerpo de una persona, insertarlo en un clip de video y hacerlo actuar o interactuar de acuerdo a lo que desee quien lo programa.
Esto se logra mediante la recopilación de datos de imágenes y videos de la persona a ser sustituida y luego se utiliza para entrenar el modelo de inteligencia artificial. Una vez que el modelo está entrenado, se puede superponer el rostro de la persona en el cuerpo de otra, en un video, o crear diálogos que parezcan auténticos, pero que, en realidad, son generados por la IA.
Estos videos manipulados, que utilizan la tecnología de generación de imágenes para reemplazar la cara y la voz de una persona con el cuerpo de otra, encontraron un inquietante nicho de mercado en la industria de entretenimiento para adultos.
Pero, de la misma manera que la pornovenganza -la publicación en redes sociales de fotos íntimas de exparejas- la pornografía deepfake se considera abuso sexual digital, basado en imágenes, un término que abarca la toma, la creación y/o el intercambio de fotos íntimas sin consentimiento.
La app generó una ola de indignación, ya que Instagram no solo no prohíbe explíticamente las herramientas de este tipo, sino que muchas veces son promocionas activamente entre los usuarios. Pero en este caso, esta aplicación van en contra de las propias políticas de plataformas de Meta, empresa a la que pertenece Instagram.
Por esa razón, Instagram y Facebook dieron de baja esos anuncios y eliminaron todas esas publicidades que invitaban a los usuarios a desnudar mujeres, que generaban imágenes fake de manera virtual, digital y con inteligencia digital, sin su consentimiento.