- Más de 175.000 servidores de Ollama han sido descubiertos públicamente expuestos.
- Los atacantes explotan estas instancias para generar spam y malware mediante 'LLMjacking'.
- El problema se debe a una mala configuración por parte del usuario, que puede solucionarse fácilmente.
Investigadores de seguridad han alertado sobre la existencia de aproximadamente 175.000 sistemas Ollama en todo el mundo que se encuentran expuestos, lo que los pone en riesgo de sufrir todo tipo de actividades maliciosas. De hecho, algunos ya están siendo abusados, y si usted ejecuta una instancia de Ollama, debería considerar reconfigurarla. Recientemente, SentinelOne SentinelLABS y Censys descubrieron que muchas empresas están ejecutando modelos de IA localmente utilizando Ollama. Sin embargo, en alrededor de 175.000 casos, estos están mal configurados para escuchar en todas las interfaces de red, en lugar de solo en localhost, haciendo que la IA sea públicamente accesible para cualquier persona en Internet, sin contraseña. Esta mala configuración deja a los usuarios vulnerables a ataques de 'LLMjacking'.
Exposición masiva de servidores Ollama
Muchas de estas instancias se ejecutan en conexiones domésticas, servidores VPS o máquinas en la nube, y alrededor de la mitad permiten la 'llamada a herramientas', lo que significa que su IA no solo responde preguntas, sino que también ejecuta código, llama a APIs e interactúa con otros sistemas. Los actores maliciosos que encuentran estas instancias pueden abusar de ellas para realizar diferentes acciones, y según Pillar Security, muchas lo están haciendo. En un ataque denominado 'LLMjacking', estos actores utilizan la electricidad, el ancho de banda y la capacidad de cómputo de otras personas para generar spam, contenido de malware y, en algunos casos, revender el acceso a otros delincuentes. Para empeorar las cosas, muchos sistemas se encuentran fuera de la seguridad empresarial normal y carecen de los beneficios de firewalls corporativos, monitoreo, autenticación y similares.
El riesgo del 'LLMjacking'
Todas estas circunstancias, junto con el hecho de que muchas residen en IPs residenciales, las hace difíciles de rastrear y fáciles de abusar. Además, algunos sistemas ejecutan modelos sin censura y sin ningún tipo de verificación de seguridad, lo que aumenta el potencial de abuso. Afortunadamente, esto no es un error de software ni una vulnerabilidad y puede abordarse con relativa facilidad. Ollama ya se vincula solo a localhost (127.0.0.1) por defecto, lo que significa que el problema comienza con los usuarios que exponen sus instancias a Internet sin ninguna protección. Todo lo que los usuarios necesitan hacer es asegurar adecuadamente sus instancias para protegerse del 'LLMjacking'.
Soluciones y recomendaciones de seguridad
La principal recomendación para mitigar este riesgo es asegurarse de que las instancias de Ollama estén configuradas para escuchar únicamente en la interfaz de red local (localhost). Esto evita que sean accesibles desde fuera de la red privada del usuario. Los usuarios deben revisar sus configuraciones de red y de Ollama para confirmar que la opción de vinculación a todas las interfaces de red no esté habilitada. La seguridad de estos sistemas de IA depende en gran medida de la correcta configuración inicial por parte del usuario.
Impacto en la seguridad de la IA
La exposición de servidores de IA como Ollama puede tener consecuencias graves, no solo para los propietarios de las instancias, sino también para la integridad general de los sistemas de inteligencia artificial. El uso indebido de estos recursos computacionales puede llevar a la generación de desinformación a gran escala, la propagación de malware más sofisticado y la erosión de la confianza en la tecnología de IA. Es crucial que tanto los desarrolladores como los usuarios finales adopten prácticas de seguridad robustas para proteger estos potentes sistemas. La falta de autenticación y la accesibilidad pública son los principales vectores de ataque. Los recientes aumentos en el uso de IA, como se evidencia en el artículo sobre el uso de ChatGPT por el CEO de Krafton (CEO de Krafton y el uso de ChatGPT) para evitar pagos, demuestran la necesidad de una gestión segura y responsable de estas tecnologías.
Además, la demanda de recursos para ejecutar modelos de IA, como Ollama, está impactando el mercado de hardware. Este crecimiento en el uso de IA local también está impulsando la demanda de GPUs, lo que a su vez eleva los precios, tal como se discute en el artículo sobre el aumento de los precios de las GPUs debido a la IA (La IA dispara los precios de las GPUs de gama alta), lo que dificulta aún más la implementación segura para muchos usuarios. Por último, también es importante recordar que este tipo de sistemas consumen grandes cantidades de energía y recursos hídricos, como se discute en el artículo sobre el consumo de agua en centros de datos de IA (Centros de datos de IA y el consumo de agua).
```