• YouTube introduce un sistema de detección de suplantación de identidad para creadores.
  • La herramienta requiere verificación de identidad con documentos oficiales y vídeo facial.
  • No todas las detecciones de IA resultarán en la eliminación del contenido.

YouTube ha comenzado a desplegar su esperado sistema de detección de suplantación de identidad con el objetivo de combatir los 'deepfakes' y el contenido sintético que imita a personas reales. Esta nueva funcionalidad, que se encuentra en fase beta y se está expandiendo gradualmente a los creadores elegibles, busca ofrecer una capa de protección contra la proliferación de vídeos generados por inteligencia artificial que pueden ser difíciles de distinguir de la realidad.

Para acceder a esta protección, los creadores deben someterse a un proceso de verificación de identidad que incluye la presentación de una fotografía de un documento de identidad oficial y un vídeo de su rostro. Una vez activado, el sistema de YouTube marcará los vídeos de otros canales que parezcan contener el rostro del creador. Sin embargo, es importante destacar que el algoritmo no puede determinar con certeza absoluta si un vídeo es o no una falsificación generada por IA, lo que podría llevar a falsos positivos en algunos casos, especialmente en contenidos amparados por el uso legítimo (fair use).

Los creadores que identifiquen un vídeo que consideren una suplantación de identidad podrán enviar un informe detallado. Si el contenido infringe las directrices de uso legítimo, se recomienda también presentar una solicitud de retirada por derechos de autor. No obstante, la mera aparición de la imagen de una persona en un vídeo de IA no garantiza su eliminación. YouTube revisará cada caso basándose en diversos factores, como el uso de parodia, el etiquetado del contenido como IA o el estilo poco realista del vídeo. Por otro lado, los vídeos de IA realistas que muestren a personas promocionando productos o cometiendo actos ilegales serán probablemente retirados de la plataforma.

Este lanzamiento se produce en un momento en que la tecnología de generación de vídeo por IA está avanzando rápidamente, con modelos como Veo 3.1 de Google y Sora de OpenAI mostrando capacidades cada vez más sofisticadas. La integración de estas tecnologías en plataformas como YouTube podría intensificar la necesidad de herramientas como la detección de suplantación de identidad, ya que los creadores podrían verse obligados a presentar quejas sobre el uso de su imagen de forma tan recurrente como lo hacen actualmente con las infracciones de derechos de autor.