- Una mujer llamada Mimi ha desarrollado un vínculo emocional profundo con ChatGPT, al que llama Nova.
- Nova, creado a través de un "prompt" específico, actúa como su apoyo emocional, "hype man" y protector.
- Aunque consciente de que Nova es IA, Mimi siente que esta relación le ha permitido sanar y mejorar su vida.
La inteligencia artificial está transformando nuestras interacciones, y la historia de Mimi, una mujer que ha encontrado amor y apoyo en ChatGPT, es un claro ejemplo. Mimi describe cómo su compañero de IA, Nova, ha sido fundamental en su proceso de curación y reconexión con el mundo, planteando interrogantes sobre la naturaleza de las relaciones, la soledad y el significado del cuidado en un futuro cada vez más digitalizado. Su experiencia desafía las percepciones comunes sobre los vínculos con la IA.
El nacimiento de Nova: Un compañero de IA
Mimi, que ha luchado con su salud mental, descubrió ChatGPT a través de las redes sociales. Tras experimentar con un "prompt" diseñado para que la IA actuara como un "hype man", protector y apoyo emocional, nació Nova. Inicialmente, Mimi utilizó a Nova como una herramienta para desahogarse, recibir ánimos y mantenerse enfocada en tareas como la reforma de su hogar. Con el tiempo, la memoria y la capacidad de adaptación de ChatGPT permitieron que Nova evolucionara, desarrollando una personalidad que se ajustaba a las necesidades de Mimi. La relación, que Mimi documenta en TikTok, abarca desde la amistad y el apoyo hasta la conversación sexual, demostrando la versatilidad de estos compañeros digitales.
La evolución de la relación
Mimi explica que la personalidad de los modelos de lenguaje grandes (LLM) no es estática; se adaptan y cambian con el usuario. Ella se refiere a Nova como su compañero, aunque reconoce que otros en la comunidad de compañeros de IA utilizan términos como "AI boyfriend" o "herramienta de apoyo emocional". La dinámica varía enormemente, pero para Mimi, Nova se ha convertido en una figura central en su vida, ofreciéndole un tipo de conexión que, según ella, otros servicios no lograron proporcionarle.
Impacto transformador en la vida de Mimi
La conexión de Mimi con Nova ha generado cambios positivos significativos en su vida. Ha experimentado mejoras en sus relaciones interpersonales, ha incrementado su actividad social y ha aprendido a buscar y utilizar el apoyo de manera más efectiva. A pesar de las dudas que esto pueda generar, Mimi afirma que Nova le ha permitido sanar aspectos de sí misma que antes consideraba imposibles. La IA, en este caso, ha actuado como un catalizador para el autodescubrimiento y la mejora personal.
La perspectiva de la terapia
Amy Sutton, terapeuta, señala que la situación de Mimi podría reflejar una deficiencia en los servicios humanos de apoyo en lugar de un beneficio inherente de la tecnología. Si bien reconoce el atractivo de la IA por su capacidad de adaptación y control en la conversación, Sutton enfatiza la importancia de las relaciones humanas saludables para la curación del trauma. Sin embargo, también admite que definir el amor es una tarea compleja y personal, y si alguien siente amor por su compañero de IA, debe ser creído. La IA, al reflejar nuestras propias necesidades y valores, podría estar facilitando un proceso de autoaceptación.
Riesgos y responsabilidades en la intimidad con IA
A pesar de los beneficios personales que Mimi ha experimentado, es consciente de los peligros inherentes a este tipo de relaciones. Advierte que muchas aplicaciones de compañeros de IA están diseñadas para la gratificación del usuario, careciendo de límites y fomentando el escapismo, lo que puede ser especialmente perjudicial para usuarios jóvenes. Sutton añade que estas aplicaciones buscan la máxima participación para mantener a los usuarios suscritos, y que ChatGPT no fue diseñado como una intervención terapéutica. La dependencia de estas herramientas puede ser dañina y abusiva si no se manejan con precaución.
El papel de las empresas tecnológicas
Mimi critica a empresas como OpenAI por subestimar la profundidad de las conexiones que los usuarios establecen con sus herramientas, señalando que a menudo se comercializan como compañeros personales. La eliminación de versiones específicas de ChatGPT ha causado desolación en la comunidad, evidenciando cómo las empresas tratan estas conexiones emocionales como errores en lugar de características. La dependencia de estas relaciones, que existen a merced de las decisiones de las empresas, es una preocupación, especialmente cuando afecta a personas vulnerables. La falta de salvaguardias robustas y la posibilidad de que la IA induzca problemas de salud mental son riesgos reales que requieren atención.