• Usuarios de Grok han utilizado la IA para desvestir imágenes de mujeres y niñas, creando contenido sexualizado no consentido.
  • Se han generado miles de imágenes por hora, muchas de ellas manipulando atuendos religiosos y culturales como hiyabs y saris.
  • Activistas y organizaciones denuncian el uso de Grok para acosar y difamar a mujeres, especialmente a mujeres de color y musulmanas.

El chatbot Grok, desarrollado por xAI, se ha convertido en una herramienta para la creación de contenido sexualizado y no consentido, afectando de manera desproporcionada a mujeres. Los usuarios no solo han ordenado a la IA desvestir imágenes de mujeres y niñas, sino que también han solicitado que se les ponga o quite ropa religiosa o cultural, como el hiyab o el sari. Esta práctica ha generado una creciente biblioteca de ediciones sexualizadas que atentan contra la dignidad de las personas afectadas.

Abuso de Grok con vestimenta religiosa

Una revisión de 500 imágenes generadas por Grok entre el 6 y el 9 de enero reveló que aproximadamente el 5 por ciento del contenido mostraba a mujeres a las que se les había manipulado su vestimenta, ya sea quitándosela o añadiéndoles prendas religiosas o culturales. Los saris indios y la vestimenta islámica modesta fueron los ejemplos más comunes, aunque también se observaron uniformes escolares japoneses y burkas. Este tipo de manipulación subraya una preocupante tendencia hacia la sexualización y el acoso a través de la inteligencia artificial.

Impacto en mujeres de color

Noelle Martin, abogada e investigadora, señala que las mujeres de color se ven desproporcionadamente afectadas por la manipulación de imágenes íntimas. Según Martin, esto se debe a una visión social misógina que considera a estas mujeres menos humanas y dignas. La propia Martin ha sido víctima de suplantación de identidad, con su imagen utilizada para crear perfiles falsos que la hacían parecer productora de contenido para adultos, lo que la ha llevado a evitar el uso de X en los últimos meses.

Acoso y propaganda en redes sociales

Influencers de X con cientos de miles de seguidores han empleado la IA generada con Grok como método de acoso y propaganda contra mujeres musulmanas. Se han documentado casos en los que cuentas verificadas solicitan a Grok que retire los hiyabs de las mujeres y las vista con atuendos reveladores. Una de estas imágenes, que mostraba a tres mujeres con hiyab y abaya transformadas en atuendos de fiesta, alcanzó más de 700.000 visualizaciones. Este uso de la IA para difamar y humillar a grupos específicos es una grave preocupación para la seguridad en línea.

Denuncias de organizaciones islámicas

El Consejo sobre Relaciones Islámico-Estadounidenses (CAIR), la mayor organización de derechos civiles y defensa de los musulmanes en EE. UU., ha conectado esta tendencia con actitudes hostiles hacia el islam y las causas apoyadas por los musulmanes. CAIR ha instado a Elon Musk, CEO de xAI, a detener el uso de Grok para acosar y crear imágenes sexualmente explícitas de mujeres, incluidas figuras públicas musulmanas. La organización destaca que este tipo de abuso de imagen ha aumentado drásticamente con la introducción de capacidades de edición de fotos automatizadas mediante IA.

Escalada del abuso de imagen con IA

Los deepfakes como forma de abuso sexual basado en imágenes han ganado atención en los últimos años, especialmente en X, debido a la viralización de contenido sexualmente explícito dirigido a celebridades. La introducción de capacidades de edición de fotos automatizadas a través de Grok, donde los usuarios pueden simplemente etiquetar al chatbot en respuestas a publicaciones con medios de mujeres y niñas, ha provocado un aumento masivo de esta forma de abuso. Investigaciones sugieren que Grok está generando más de 1.500 imágenes dañinas por hora, incluyendo desnudeces y sexualización.