- La editora Finji denuncia que TikTok ha modificado anuncios de sus juegos utilizando inteligencia artificial generativa.
- Las modificaciones incluyen contenido sexualizado y racista, alterando la representación de personajes.
- Finji afirma tener desactivadas las opciones de IA en la plataforma, pero TikTok insiste en que se usaron formatos de "catálogo de anuncios".
La editora independiente Finji ha acusado a TikTok de utilizar inteligencia artificial generativa para modificar anuncios de sus juegos sin su conocimiento ni permiso. La compañía, responsable de títulos como Night in the Woods y Tunic, se enteró de estas alteraciones tras ser alertada por seguidores de su cuenta oficial en la plataforma. Según Finji, uno de los anuncios modificados presentaba una representación "racista y sexualizada" de un personaje de uno de sus juegos, una versión que difiere drásticamente de la apariencia original del personaje en el título.
Denuncia de contenido inapropiado en anuncios
Finji, que publicita sus títulos en TikTok, ha declarado que tiene la inteligencia artificial "completamente desactivada" en la plataforma. Sin embargo, tras recibir capturas de pantalla de los anuncios en cuestión por parte de los fans, la CEO y cofundadora Rebekah Saltsman inició una investigación. Los anuncios afectados, que aparecían como si provinieran directamente de Finji, incluían diapositivas con imágenes de los juegos. Una de las imágenes, vista por IGN, mostraba a la protagonista de Usual June con un bikini, caderas y muslos exageradamente grandes, y botas altas, una imagen que no se corresponde con el personaje en el juego.
Respuesta inicial de TikTok y escalada del problema
Inicialmente, TikTok respondió a las quejas de Finji negando la evidencia de uso de "activos generados por IA o formatos de presentación". A pesar de que Finji proporcionó capturas de pantalla de la imagen editada, la plataforma insistió en su postura. En un intercambio posterior, TikTok pareció reconocer la evidencia y aseguró que el asunto se estaba investigando internamente. La plataforma cuenta con opciones como "Smart Creative" y "Automate Creative" que utilizan IA para optimizar anuncios, pero Finji confirmó tener estas opciones desactivadas, algo que un agente de TikTok también corroboró para el anuncio en cuestión. Tras varios intercambios tensos, TikTok admitió que el anuncio "plantea problemas significativos, incluido el uso no autorizado de IA, la sexualización y tergiversación de sus personajes, y el daño comercial y reputacional resultante para su estudio".
Posting this here for reasons 😒 If you happen to see any Finji ads that look distinctly UN-Finji-like, send me a screencap. If you are someone who writes intelligently about something like "massive company running ai versions of paid ads without small company's consent" idk, maybe reach out.
— Bex (@bexsaltsman.bsky.social) 5 de febrero de 2026, 18:08
[image or embed]
Explicación de TikTok y falta de resolución
TikTok ofreció una explicación a Finji, indicando que la campaña utilizaba un "formato de anuncios de catálogo" diseñado para "demostrar los beneficios de rendimiento de la combinación de activos de carrusel y vídeo en campañas de ventas". Según la plataforma, esta "iniciativa" ayudaba a los anunciantes a "lograr mejores resultados con menos esfuerzo", aunque no abordó directamente el contenido dañino. Finji también parece haber optado por este formato de anuncio sin ser plenamente consciente de ello. TikTok declinó hacer comentarios adicionales sobre el asunto cuando fue contactada por IGN. Saltsman expresó su "sorpresa por la completa falta de respuesta apropiada de TikTok ante el desastre que crearon", esperando una disculpa y garantías claras para evitar futuras recurrencias, aunque se mostró escéptica sobre la posibilidad de obtenerlas.
Este incidente pone de manifiesto el creciente debate sobre el uso de la IA en la creación de contenido publicitario y sus posibles consecuencias. La preocupación de Finji se alinea con las críticas que ha recibido el uso de IA en la industria del entretenimiento, como el caso de SNK, bajo propiedad saudí, que fue criticada por usar IA en el tráiler de Fatal Fury. Además, la situación también recuerda a la polémica por la publicidad de Call of Duty, que fue prohibida por trivializar la violencia sexual. La falta de transparencia y control sobre el contenido generado por IA en las plataformas de publicidad online es un tema que requiere una mayor atención y regulación para proteger los derechos de los creadores y evitar la difusión de contenido inapropiado.