- Se implementarán controles más granulares para que los titulares de derechos especifiquen cómo se pueden usar sus personajes.
- OpenAI planea compartir ingresos con los titulares de derechos cuyos personajes sean generados por los usuarios.
- Se explorará un sistema de pago por generación de vídeos ante la alta demanda de uso de Sora 2.
OpenAI está trabajando en importantes actualizaciones para su modelo de generación de vídeo, Sora 2, que buscan mejorar la experiencia tanto para los creadores como para los titulares de derechos de autor. El CEO de la compañía, Sam Altman, ha revelado que se introducirán "controles más granulares" para que los creadores de contenido puedan especificar cómo se utilizan sus personajes en las creaciones generadas por la IA. Esto significa que en el futuro podría ser más complicado generar clips con personajes de propiedades intelectuales reconocidas sin la debida autorización.
Altman ha señalado que los titulares de derechos se muestran entusiasmados ante la posibilidad de una "ficción de fans interactiva" que podría generarles valor, pero insisten en tener la capacidad de controlar su uso. OpenAI busca un equilibrio, incentivando la participación de los titulares de derechos al tiempo que les ofrece la opción de excluirse del sistema. La compañía aspira a maximizar el número de usuarios y la generación de vídeos, haciendo la tecnología lo suficientemente atractiva para fomentar la colaboración.
Además de las mejoras en derechos de autor, OpenAI también está considerando implementar un sistema de monetización. Este sistema estaría dirigido a las empresas cuyo trabajo se incluya en los clips de Sora, más que a los usuarios que crean el contenido. Ante el volumen de vídeos que los usuarios están generando, la compañía podría introducir un modelo de pago por generación, especialmente durante periodos de alta demanda. "Vamos a intentar compartir algunos de estos ingresos con los titulares de derechos que quieran que sus personajes sean generados por los usuarios", afirmó Altman, indicando que el modelo exacto se definirá mediante prueba y error, con una implementación prevista "muy pronto".