- El Reino Unido prohibirá las aplicaciones de 'desnudificación' que utilizan inteligencia artificial.
- Las nuevas leyes penalizarán la creación y distribución de herramientas de IA para editar imágenes sin consentimiento.
- Se busca proteger a mujeres y niñas de la explotación y el abuso en línea.
El gobierno del Reino Unido ha anunciado su intención de prohibir las aplicaciones de 'desnudificación' impulsadas por inteligencia artificial. Estas herramientas, que permiten editar imágenes para simular la eliminación de la ropa de una persona, serán declaradas ilegales como parte de una estrategia más amplia para combatir la violencia contra mujeres y niñas. La medida busca endurecer las normativas existentes sobre 'deepfakes' sexualmente explícitos y el abuso de imágenes íntimas, asegurando que la tecnología no sea utilizada para humillar o explotar a las víctimas. La Secretaria de Tecnología, Liz Kendall, afirmó que el país no tolerará que la tecnología sea un arma para el abuso.
Nuevas leyes contra la IA de 'desnudificación'
Las nuevas normativas harán ilegal la creación y el suministro de herramientas de inteligencia artificial que permitan a los usuarios editar imágenes para eliminar la ropa de forma aparentemente realista. Estas ofensas se basarán en las leyes actuales que ya penalizan los 'deepfakes' sexualmente explícitos y el abuso de imágenes íntimas. La Secretaria de Tecnología, Liz Kendall, enfatizó que quienes se beneficien de estas aplicaciones o faciliten su uso se enfrentarán a todo el peso de la ley. La creación de imágenes explícitas falsas sin consentimiento ya es un delito bajo la Ley de Seguridad en Línea del Reino Unido, y esta nueva medida amplía el alcance para incluir las herramientas que lo posibilitan.
Las aplicaciones de 'desnudificación' o 'de-clothing' utilizan IA generativa para crear imágenes o vídeos que parecen mostrar a una persona sin ropa. Expertos han alertado sobre el grave daño que estas herramientas pueden causar, especialmente cuando se utilizan para generar material de abuso sexual infantil (CSAM). La Comisionada para la Infancia en Inglaterra, Dame Rachel de Souza, ya había solicitado una prohibición total de estas aplicaciones, argumentando que la tecnología que las habilita debería ser tan ilegal como el acto de crear dichas imágenes. El gobierno se compromete a colaborar con empresas tecnológicas para desarrollar métodos que combatan el abuso de imágenes íntimas.

Colaboración tecnológica y protección infantil
El gobierno británico trabajará conjuntamente con empresas tecnológicas para desarrollar estrategias contra el abuso de imágenes íntimas. Esto incluye la continuación de la colaboración con la empresa británica de tecnología de seguridad SafeToNet, que ha desarrollado software de IA capaz de identificar y bloquear contenido sexual, además de desactivar cámaras al detectar la captura de dicho material. Estas tecnologías se suman a los filtros ya implementados por plataformas como Meta para detectar y marcar desnudez en imágenes, con el objetivo de prevenir que menores compartan imágenes íntimas. El objetivo es hacer imposible que los niños puedan tomar, compartir o ver imágenes de desnudos en sus teléfonos, y también se busca prohibir herramientas de IA diseñadas para crear o distribuir CSAM.
Organizaciones de protección infantil han acogido con satisfacción las medidas, aunque algunas expresan decepción por la falta de ambición en cuanto a la implementación de protecciones obligatorias a nivel de dispositivo. La Internet Watch Foundation (IWF) informó que un porcentaje significativo de los menores que utilizan su servicio de denuncia han sufrido manipulación de sus imágenes. Su directora ejecutiva, Kerry Smith, aplaudió la prohibición de las aplicaciones de 'desnudificación', calificándolas de innecesarias y peligrosas. Por otro lado, el NSPCC, si bien celebra la noticia, insta al gobierno a exigir a las empresas tecnológicas que faciliten la identificación y prevención de la difusión de CSAM en sus servicios, incluso en mensajes privados. La seguridad en línea, especialmente para los menores, sigue siendo una prioridad clave.