Imágenes falsas y explícitas de Taylor Swift han aparecido en 4chan, según estudio

Graphika, una firma de investigación que estudia la desinformación, rastreó las imágenes hasta una comunidad en 4chan, un foro conocido por compartir discursos de odio, teorías de conspiración y, cada vez más, contenido racista y ofensivo creado con inteligencia artificial.

Las personas de 4chan que crearon las imágenes del cantante lo hicieron en una especie de juego, dijeron los investigadores, una prueba para ver si podían crear imágenes obscenas (y a veces violentas) de figuras femeninas famosas.

Las imágenes sintéticas de Swift se difundieron a otras plataformas y fueron vistas millones de veces. Los fanáticos se han unido en defensa de Swift y los legisladores han pedido protecciones más fuertes contra las imágenes creadas por IA.

Graphika encontró un hilo de mensajes en 4chan que animaba a las personas a intentar eludir las medidas de seguridad establecidas por las herramientas de generación de imágenes, incluidas DALL-E de OpenAI, Microsoft Designer y Bing Image Creator. Se pidió a los usuarios que compartieran «consejos y trucos para encontrar nuevas formas de evitar los filtros» y se les dijo: «Buena suerte, sean creativos».

Compartir contenido desagradable a través de juegos permite a las personas sentirse conectadas con una comunidad más grande y motivadas por el prestigio que reciben por participar, dijeron los expertos. Antes de las elecciones de mitad de período de 2022, grupos en plataformas como Telegram, WhatsApp y Truth Social se han involucrado en la búsqueda de fraude electoral, ganando puntos u honoríficos por presentar supuestas pruebas de irregularidades electorales. (La evidencia verdadera de fraude electoral es excepcionalmente rara).

En el hilo de 4chan que condujo a las imágenes falsas de la Sra. Swift, varios usuarios recibieron elogios (“hermosa gen anon”, escribió uno) y se les pidió que compartieran el lenguaje utilizado para crear las imágenes. Un usuario se quejó de que un mensaje mostraba una imagen de una celebridad en traje de baño en lugar de desnuda.

Las reglas publicadas por 4chan que se aplican en todo el sitio no prohíben específicamente imágenes sexualmente explícitas de adultos reales generadas por IA.

“Estas imágenes provienen de una comunidad de personas motivadas por el ‘desafío’ de eludir las salvaguardas de los productos de IA generativa, y las nuevas restricciones son vistas como un obstáculo más a ‘derrotar’”, Cristina López G., analista senior de Graphika, dijo en un comunicado. «Es importante comprender la naturaleza lúdica de esta actividad maliciosa para evitar mayores abusos en la fuente».

Swift “no es la única víctima”, dijo López G. En la comunidad 4chan que manipuló su imagen, muchas actrices, cantantes y políticos aparecían con más frecuencia que Swift.

OpenAI dijo en un comunicado que las imágenes explícitas de la Sra. Swift no fueron generadas usando sus herramientas, señalando que filtra contenido más explícito cuando entrena su modelo DALL-E. La compañía también dijo que utiliza otras barreras de seguridad, como rechazar solicitudes que soliciten el nombre de una figura pública o que busquen contenido explícito.

Microsoft dijo que «continuaría investigando estas imágenes» y agregó que había «reforzado nuestros sistemas de seguridad existentes para evitar aún más el uso indebido de nuestros servicios para ayudar a generar imágenes como estas». La empresa prohíbe a los usuarios utilizar sus herramientas para crear contenido íntimo o para adultos sin consentimiento y advierte a los infractores reincidentes que pueden ser bloqueados.

La pornografía falsa generada por software ha sido una plaga desde al menos 2017, afectando a celebridades renuentes, figuras gubernamentales, transmisores de Twitch, estudiantes y otros. La regulación fragmentada deja a pocas víctimas con recursos legales; aún menos tienen una base de seguidores devotos capaces de aplastar las imágenes falsas con publicaciones coordinadas de “Protege a Taylor Swift”.

Después de que las imágenes falsas de la Sra. Swift se volvieran virales, Karine Jean-Pierre, secretaria de prensa de la Casa Blanca, calificó la situación de “alarmante” y dijo que la aplicación laxa de sus reglas por parte de las empresas de redes sociales había afectado desproporcionadamente a mujeres y niñas. Dijo que el Departamento de Justicia financió recientemente la primera línea directa nacional para personas que son víctimas de abuso sexual basado en imágenes, que el departamento describió como una satisfacción de una «creciente necesidad de servicios» relacionados con la distribución de imágenes íntimas sin consentimiento. SAG-AFTRA, el sindicato que representa a decenas de miles de actores, calificó las imágenes falsas de Swift y otros como un “robo de su privacidad y su derecho a la autonomía”.

También se han utilizado versiones generadas artificialmente de la Sra. Swift para promover estafas relacionadas con los utensilios de cocina de Le Creuset. Se utilizó inteligencia artificial para hacerse pasar por la voz del presidente Biden en llamadas automáticas para disuadir a los votantes de participar en las elecciones primarias de New Hampshire. Los expertos en tecnología dicen que a medida que las herramientas de inteligencia artificial se vuelven más accesibles y fáciles de usar, se pueden crear parodias de audio y video con avatares realistas en minutos.

Los investigadores dijeron que la primera imagen de IA sexualmente explícita de la Sra. Swift en el hilo de 4chan apareció el 6 de enero, 11 días antes de que aparecieran en Telegram y 12 días antes de que aparecieran en X. 404 Media informó el 25 de enero que Las imágenes virales de Swift habían saltado a las principales plataformas de redes sociales desde 4chan y un grupo de Telegram dedicado a imágenes violentas de mujeres. La organización de noticias británica Daily Mail informó esa semana que un sitio web conocido por compartir imágenes sexualizadas de celebridades publicó imágenes de Swift el 15 de enero.

Por varios días,

Audio producido por Tally Abecassis.

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *