- OpenAI busca un Jefe de Preparación para anticipar y mitigar los daños de la IA.
- El puesto responde a preocupaciones sobre el impacto de la IA en la salud mental y otros riesgos.
- La empresa ha experimentado cambios significativos en sus equipos de seguridad en los últimos años.
OpenAI está en la búsqueda de un nuevo Jefe de Preparación que ayude a la compañía a anticipar los posibles perjuicios derivados de sus modelos y cómo estos podrían ser mal utilizados, con el fin de guiar la estrategia de seguridad de la empresa. Esta iniciativa surge tras un año marcado por numerosas acusaciones sobre el impacto de ChatGPT en la salud mental de los usuarios, incluyendo algunas demandas por muerte injustificada. El CEO de OpenAI, Sam Altman, reconoció en una publicación en X que el "impacto potencial de los modelos en la salud mental fue algo que vimos como un anticipo en 2025", junto con otros "desafíos reales" que han surgido a la par del avance de las capacidades de los modelos. Altman calificó el puesto de "crítico en un momento importante".
Nuevo puesto clave en OpenAI
Según la oferta de empleo, el Jefe de Preparación, que percibirá 555.000 dólares anuales más acciones, "liderará la estrategia técnica y la ejecución del marco de Preparación de OpenAI, nuestro marco que explica el enfoque de OpenAI para rastrear y prepararse para las capacidades de vanguardia que crean nuevos riesgos de daño severo". Altman describió la labor como "un trabajo estresante en el que te lanzarás al abismo prácticamente de inmediato". Este rol es fundamental para la dirección futura de la compañía.
Detalles del marco de preparación
El marco de preparación de OpenAI detalla la metodología de la empresa para identificar y gestionar los riesgos emergentes asociados con el desarrollo de inteligencia artificial avanzada. La compañía busca activamente soluciones para garantizar un despliegue seguro y responsable de sus tecnologías.
Cambios en los equipos de seguridad de OpenAI
En los últimos dos años, los equipos de seguridad de OpenAI han experimentado una considerable reestructuración. El anterior Jefe de Preparación, Aleksander Madry, fue reasignado en julio de 2024. En aquel momento, Altman indicó que el puesto sería asumido por los ejecutivos Joaquin Quinonero Candela y Lilian Weng. Sin embargo, Weng dejó la empresa pocos meses después, y en julio de 2025, Quinonero Candela anunció su traslado del equipo de preparación para liderar el reclutamiento en OpenAI. Estos movimientos reflejan una constante adaptación en la estructura de seguridad de la organización.
Reestructuración de roles clave
La rotación de personal en puestos de alta responsabilidad dentro de las áreas de seguridad de OpenAI ha sido notable. La salida de figuras clave como Lilian Weng y el cambio de rol de Joaquin Quinonero Candela plantean interrogantes sobre la continuidad y la estrategia a largo plazo en la gestión de riesgos de la IA. La empresa busca consolidar un equipo robusto y estable para afrontar estos desafíos.
Preocupaciones sobre el impacto de la IA
Las acusaciones sobre los efectos negativos de la inteligencia artificial en la salud mental y otros ámbitos han ganado prominencia. Casos como las demandas por muerte injustificada vinculadas al uso de ChatGPT subrayan la urgencia de abordar estos riesgos. OpenAI reconoce la necesidad de una estrategia proactiva para mitigar estos daños potenciales.
Impacto en la salud mental
El impacto de los modelos de lenguaje avanzados en el bienestar psicológico de los usuarios es una de las áreas de mayor preocupación. La compañía busca activamente comprender y abordar estos efectos, reconociendo la complejidad de la interacción humano-IA. La preparación ante estos escenarios es una prioridad para OpenAI.