• El regulador británico Ofcom investiga a X por la generación de imágenes sexualizadas de menores por su chatbot Grok.
  • La plataforma podría haber violado la Ley de Seguridad Online al no bloquear contenido ilegal.
  • X se enfrenta a posibles multas millonarias y al bloqueo de Grok en el Reino Unido si no cumple la ley.

El regulador de medios del Reino Unido, Ofcom, ha iniciado una investigación sobre la plataforma X (anteriormente Twitter) debido a la alarmante proliferación de imágenes sexualizadas de mujeres y niños generadas por su chatbot, Grok. La investigación se centra en determinar si X ha incumplido la Ley de Seguridad Online británica, una legislación diseñada para obligar a las plataformas digitales a bloquear contenido ilegal y proteger a los usuarios, especialmente a los menores, de material perjudicial.

Investigación sobre Grok y la Ley de Seguridad Online

Ofcom ha confirmado que la posible violación de la ley podría derivar de la difusión de imágenes íntimas no consentidas y material de abuso sexual infantil (CSAM) a través de X. La ley exige que las plataformas prevengan la exposición de menores a contenido pornográfico. Un portavoz de Ofcom declaró que los informes sobre el uso de Grok para crear y compartir material ilegal no consentido y CSAM en X son «profundamente preocupantes». La agencia ha enfatizado que las plataformas deben proteger a los ciudadanos del Reino Unido de contenido ilegal y que no dudarán en investigar a las empresas que no cumplan con sus deberes, especialmente cuando exista riesgo para la infancia. La responsabilidad legal recae en las plataformas para determinar si el contenido infringe las leyes del Reino Unido.

Posibles sanciones para X

Como resultado de esta investigación, X podría enfrentarse a severas sanciones, incluyendo multas de hasta el 10 por ciento de sus ingresos globales. Además, existe la posibilidad de que Grok sea bloqueado en el Reino Unido si X no demuestra un cumplimiento efectivo de la Ley de Seguridad Online. La plataforma ya ha visto bloqueado su chatbot en países como Indonesia y Malasia. X está cooperando con la investigación y ha cumplido con un plazo para explicar las medidas que está tomando para cumplir con la ley británica. Sin embargo, Ofcom no ha proporcionado detalles sobre los cambios específicos que X podría haber implementado para limitar Grok en el Reino Unido o a nivel global, ya que la investigación sigue activa.

Desafíos regulatorios y el poder de la IA

La capacidad de Grok para generar este tipo de contenido ha puesto a prueba la efectividad de la Ley de Seguridad Online del Reino Unido, especialmente en lo que respecta a la regulación de la inteligencia artificial generativa. Algunas voces, como la presidenta de los comités de tecnología y medios del Parlamento británico, han expresado dudas sobre si la ley actual tiene la autoridad para regular la funcionalidad de la IA, es decir, su capacidad para generar o modificar imágenes de forma no consentida. Esto sugiere que el Reino Unido podría necesitar actualizar su legislación para abordar de manera más efectiva la creación y difusión de 'deepfakes' sexualizados. La creciente preocupación por la inteligencia artificial se observa en otros sectores, incluso en la salud, como se detalla en el artículo sobre el uso de IA para prescribir medicamentos.

Definición de contenido ilegal y 'deepfakes'

Ofcom ha dejado claro que, según su interpretación, el CSAM incluye imágenes generadas por IA, 'deepfakes' y otros medios manipulados, considerándolos como «pseudo-fotografías». Si una pseudo-fotografía da la impresión de mostrar a un niño, debe tratarse como tal. De manera similar, las imágenes y vídeos manipulados, como los 'deepfakes', entran dentro del ámbito del abuso de imágenes íntimas. La ley británica detalla que una «situación íntima» puede incluir imágenes donde los genitales, glúteos o pechos de una persona estén cubiertos solo por ropa interior o por ropa mojada o transparente. A pesar de que algunos defensores de Grok minimizan el problema, las autoridades británicas están actuando con urgencia para proteger a los ciudadanos. Este incidente resalta la necesidad de una regulación efectiva de la IA, tema que también se discute en las advertencias sobre la burbuja de la IA por parte del ex CEO de Intel. La investigación en curso sobre Grok también es un ejemplo de cómo la IA está impactando la industria tecnológica y generando debates sobre seguridad y ética.