- Más del 72% de las apps de IA analizadas contienen secretos codificados.
- Se filtraron casi 730TB de datos de usuario a través de buckets de almacenamiento mal configurados.
- Casi 285 bases de datos Firebase carecían de autenticación, exponiendo datos sensibles.
Una investigación exhaustiva de 1,8 millones de aplicaciones de Android disponibles en Google Play, con especial atención a aquellas que anuncian funciones de inteligencia artificial, ha destapado alarmantes vulnerabilidades de seguridad. Los investigadores de Cybernews identificaron 38.630 aplicaciones de IA y analizaron su código interno, descubriendo fallos generalizados en el manejo de datos que van más allá de errores aislados de los desarrolladores. En concreto, se halló que casi tres cuartas partes (72%) de las aplicaciones de IA para Android contenían al menos un secreto codificado directamente en su código, y de media, cada aplicación afectada filtraba 5,1 secretos.
Fugas masivas de datos y credenciales en apps de IA
En total, los investigadores identificaron 197.092 secretos únicos en el conjunto de datos, lo que demuestra que las prácticas de codificación inseguras siguen siendo generalizadas a pesar de las advertencias. Más del 81% de todos los secretos detectados estaban vinculados a la infraestructura de Google Cloud, incluyendo identificadores de proyecto, claves de API, bases de datos de Firebase y buckets de almacenamiento. De los puntos finales de Google Cloud codificados, se detectaron 26.424, aunque aproximadamente dos tercios apuntaban a infraestructuras que ya no existían. Entre los puntos finales restantes, 8.545 buckets de almacenamiento de Google Cloud aún existían y requerían autenticación, mientras que cientos estaban mal configurados y dejados públicamente accesibles, exponiendo potencialmente más de 200 millones de archivos, con un total de casi 730TB de datos de usuario.
Bases de datos Firebase y secretos de pago expuestos
El estudio también identificó 285 bases de datos de Firebase sin controles de autenticación, que colectivamente filtraban al menos 1,1 GB de datos de usuario. En el 42% de estas bases de datos expuestas, los investigadores encontraron tablas etiquetadas como prueba de concepto, lo que indica un compromiso previo por parte de atacantes. Otras bases de datos contenían cuentas de administrador creadas con direcciones de correo electrónico de estilo atacante, lo que demuestra que la explotación no era teórica sino que ya estaba en marcha. A pesar de la preocupación por las funciones de IA, las claves de API de modelos de lenguaje grande filtradas fueron relativamente raras; solo se detectó un pequeño número de claves asociadas con proveedores importantes como OpenAI, Google Gemini y Claude en todo el conjunto de datos. Algunas de las exposiciones más graves involucraron infraestructura de pago en vivo, incluidas claves secretas de Stripe capaces de otorgar control total sobre los sistemas de pago.
Riesgos sistémicos y falta de mitigación
Estas fallas de seguridad no pueden mitigarse con herramientas básicas como un firewall o software antivirus una vez que la exposición ha ocurrido. La escala de los datos expuestos y el número de aplicaciones ya comprometidas sugieren que la revisión de las tiendas de aplicaciones por sí sola no ha reducido el riesgo sistémico. La investigación subraya la necesidad urgente de que los desarrolladores adopten prácticas de codificación seguras y que Google refuerce los mecanismos de control y seguridad en su plataforma para proteger a los usuarios de la filtración de datos y el posible fraude.