- OpenAI envió 80 veces más informes de explotación infantil al NCMEC en la primera mitad de 2025 que en 2024.
- El aumento coincide con la introducción de más funciones de carga de imágenes y el crecimiento de usuarios.
- El incremento en reportes sigue un patrón similar observado en la IA generativa por el NCMEC.
OpenAI ha comunicado un notable incremento en los reportes de explotación infantil enviados al Centro Nacional para Niños Desaparecidos y Explotados (NCMEC) durante el primer semestre de 2025. La compañía envió aproximadamente 80 veces más notificaciones que en el mismo periodo del año anterior. El CyberTipline del NCMEC es un organismo autorizado por el Congreso para recibir y procesar denuncias de material de abuso sexual infantil (CSAM) y otras formas de explotación. Las empresas tienen la obligación legal de reportar cualquier indicio de explotación infantil a esta plataforma, la cual, tras una revisión, remite los casos a las autoridades competentes para su investigación.
Aumento de reportes y factores clave
El número de reportes de CyberTipline enviados por OpenAI durante la primera mitad de 2025 fue de 75.027, una cifra muy cercana al total de piezas de contenido relacionadas, que ascendió a 74.559. En contraste, en la primera mitad de 2024, OpenAI remitió 947 reportes de CyberTipline sobre 3.252 piezas de contenido. Este marcado aumento tanto en reportes como en contenido se atribuye, según la portavoz de OpenAI, Gaby Raila, a las inversiones realizadas a finales de 2024 para mejorar la capacidad de revisión y acción ante los reportes, así como a la introducción de nuevas funcionalidades que permitían la carga de imágenes. El creciente uso de sus productos, incluyendo un aumento cuatriplicado de usuarios activos semanales en ChatGPT respecto al año anterior, también contribuyó significativamente a esta tendencia.
Detalles sobre el contenido reportado
El concepto de 'contenido' en este contexto abarca diversas formas de material. OpenAI ha declarado que reporta al NCMEC todas las instancias de CSAM, incluyendo tanto las cargas como las solicitudes. Además de su aplicación ChatGPT, que permite a los usuarios subir archivos e interactuar con modelos de texto e imagen, la compañía ofrece acceso a sus modelos a través de su API. Es importante señalar que las cifras de este informe no incluyen reportes relacionados con la aplicación de generación de vídeo Sora, cuyo lanzamiento en septiembre de 2025 se produjo después del periodo analizado.
Contexto de la IA generativa y seguridad infantil
Este repunte en los reportes de OpenAI se alinea con las observaciones generales del NCMEC respecto al auge de la inteligencia artificial generativa. El análisis del centro sobre todos los datos de CyberTipline reveló un incremento del 1.325% en reportes relacionados con IA generativa entre 2023 y 2024. Aunque el NCMEC aún no ha publicado los datos de 2025, y otras grandes empresas de IA como Google no especifican el porcentaje de sus reportes a NCMEC que están vinculados a IA, la tendencia es clara. Este contexto se agrava ante el escrutinio creciente sobre la seguridad infantil en el sector de la IA, evidenciado por cartas de fiscales generales y demandas relacionadas con el presunto impacto de chatbots en menores.
Medidas de seguridad y regulación
En respuesta a estas preocupaciones, OpenAI ha implementado nuevas herramientas de seguridad. En septiembre, introdujo controles parentales para ChatGPT, permitiendo a los padres gestionar la configuración de sus hijos, como desactivar el modo de voz, la memoria o la generación de imágenes, y optar por no participar en el entrenamiento de modelos. La compañía también anunció la posibilidad de notificar a los padres sobre signos de autolesión en las conversaciones de sus hijos y, en casos de amenaza inminente a la vida, contactar a las autoridades si no se puede localizar a un progenitor. Adicionalmente, a finales de octubre, OpenAI acordó con el Departamento de Justicia de California continuar implementando medidas para mitigar riesgos para adolescentes y otros usuarios en el desarrollo y despliegue de IA. En noviembre, publicaron su 'Teen Safety Blueprint', reafirmando su compromiso con la mejora continua en la detección y reporte de CSAM a las autoridades.