- X suspenderá a creadores de su programa de reparto de ingresos si publican vídeos de conflictos bélicos generados por IA sin declararlo.
- Los infractores por primera vez serán excluidos durante 90 días, y los reincidentes eliminados permanentemente.
- La política se aplica solo a vídeos de conflictos bélicos y a creadores dentro del programa de monetización.
La red social X, anteriormente conocida como Twitter, implementará una nueva política que obligará a los creadores de contenido a etiquetar los vídeos que representen conflictos armados y que hayan sido generados mediante inteligencia artificial. Esta medida busca aumentar la transparencia en la plataforma, especialmente en un contexto global marcado por tensiones bélicas. Los creadores que no cumplan con esta directriz y pertenezcan al programa de reparto de ingresos de X se enfrentarán a sanciones significativas. La decisión subraya la creciente preocupación por la desinformación generada por IA en situaciones sensibles.
Nuevas normas para creadores de contenido
Nikita Bier, jefe de producto de X, anunció el pasado 3 de marzo la nueva normativa. Según sus declaraciones, los creadores que infrinjan esta política por primera vez serán suspendidos del programa de reparto de ingresos durante 90 días. Para aquellos que reincidan, la exclusión será permanente, lo que supone un duro golpe para quienes dependen de la plataforma para monetizar su trabajo. Esta medida busca disuadir la publicación de contenido engañoso sobre eventos de alta sensibilidad.
Sanciones y aplicación de la política
La política de X es específica y se centra únicamente en los vídeos generados por IA que ilustran conflictos bélicos. No afecta al contenido de IA en general ni a las cuentas que no participan en el programa de monetización de la plataforma. Las infracciones serán detectadas bien a través del sistema de verificación de hechos colaborativo de X, conocido como Community Notes, o mediante la detección de metadatos específicos de las herramientas de IA generativa. Bier justificó la medida como una necesidad imperativa "durante tiempos de guerra", aunque señaló que los conflictos actuales no han sido formalmente declarados como tales.
El avance de la IA y la desinformación
La calidad de la generación de vídeo mediante IA ha avanzado a un ritmo vertiginoso, haciendo que el contenido generado sea prácticamente indistinguible del material real para la mayoría de los espectadores. X ya implementa marcas de agua en las imágenes y vídeos generados por su chatbot Grok, pero hasta ahora no había exigido a los usuarios la divulgación de contenido creado por IA. La plataforma está probando una opción más amplia de etiquetado de IA que permitiría a los usuarios marcar cualquier publicación como contenido sintético.
Transparencia en contenidos sintéticos
Aunque X aún no ha proporcionado una fecha concreta para el lanzamiento de esta función de etiquetado general, la nueva política sobre vídeos de conflictos bélicos marca un paso importante hacia una mayor responsabilidad en el uso de la inteligencia artificial. La iniciativa responde a la creciente preocupación social y mediática sobre el potencial de la IA para generar y difundir desinformación, especialmente en contextos de conflicto. La plataforma busca así mantener un equilibrio entre la innovación tecnológica y la veracidad de la información.
Como ya se vio con el reciente anuncio de Discord y su nueva verificación de edad con IA, las plataformas se están poniendo serias con respecto a la moderación. Discord implementa verificación de edad con IA y revisión humana, buscando proteger a sus usuarios.
Contexto de "tiempos de guerra"
La decisión de X de exigir etiquetas para vídeos de conflictos bélicos generados por IA se enmarca en un contexto global de creciente inestabilidad y tensiones geopolíticas. Nikita Bier, jefe de producto de la compañía, enfatizó la necesidad de esta medida "durante tiempos de guerra", reconociendo la capacidad de la inteligencia artificial para influir en la percepción pública de eventos críticos. Aunque no se han declarado guerras formales en el sentido legal tradicional, la percepción de "tiempos de guerra" se ha vuelto una realidad para muchos.
El uso de la IA también está impactando en otros ámbitos, como en la industria de los videojuegos, como se vio recientemente cuando el CEO de Krafton admitió uso de ChatGPT, presumiblemente para evitar pagar al equipo de Subnautica 2.
Desafíos de la verificación en la era digital
La rápida evolución de las tecnologías de IA presenta desafíos significativos para la verificación de la información. La indistinguibilidad entre contenido real y generado por IA, como se menciona en el artículo, complica la labor de moderación y fact-checking. X, al implementar estas nuevas directrices, intenta abordar proactivamente estos desafíos, buscando salvaguardar la integridad de la información compartida en su plataforma, especialmente en temas tan delicados como los conflictos armados. La colaboración con Community Notes es un ejemplo de cómo la plataforma busca soluciones comunitarias para problemas tecnológicos.
Para aprender más sobre el uso de herramientas contra la IA, lee sobre cómo Microsoft presenta una herramienta contra las 'puertas traseras' en la IA.