- OpenAI está creando un nuevo dispositivo centrado en la IA.
- Sam Altman lo compara con un refugio tranquilo, pero su funcionamiento es invasivo.
- La promesa de calma oculta una vigilancia constante y la posible explotación de datos.
Sam Altman, CEO de OpenAI, ha confirmado esta semana que la compañía está desarrollando un dispositivo de IA completamente nuevo. Según Altman, este aparato se diferenciará del desorden y el caos de nuestros teléfonos y aplicaciones actuales. Él mismo comparó la experiencia de usarlo con “estar sentado en la cabaña más hermosa junto a un lago y en las montañas, simplemente disfrutando de la paz y la calma”. Sin embargo, la capacidad del dispositivo para entendernos en contexto y analizar nuestros hábitos, estados de ánimo y rutinas podría resultar más íntima de lo que la mayoría de las personas experimentan con sus seres queridos, y mucho menos con un dispositivo tecnológico. Esta visión idílica oculta una realidad mucho más preocupante.
La promesa de serenidad frente a la vigilancia
Un dispositivo diseñado para monitorizar constantemente nuestra vida, recopilando detalles sobre nuestra ubicación, actividades, forma de hablar y mucho más, suena asfixiante. La idea de tener un observador electrónico que absorba cada matiz de nuestro comportamiento y se adapte a nuestra vida puede parecer atractiva, hasta que recordamos qué sucede con esos datos para proporcionar el análisis. Llamar a un dispositivo tranquilizador es como cerrar los ojos y esperar ser invisible. Se trata de vigilancia, voluntaria pero total. La promesa de serenidad parece una astuta tapadera para la renuncia a la privacidad y algo peor. La conciencia contextual las 24 horas del día no equivale a paz.
La paradoja de la conciencia contextual
La soledad y la paz dependen de una sensación de seguridad. Un dispositivo que afirma brindarnos calma disolviendo esas barreras solo nos expone. La analogía de Altman de la cabaña junto al lago es seductora. ¿Quién no ha soñado con escapar del constante repiqueteo de las notificaciones, de los anuncios parpadeantes, del caos algorítmico de las aplicaciones modernas, para adentrarse en un retiro pacífico? Pero la serenidad construida sobre la observación constante es una ilusión. Existe una profunda paradoja: cuanto más consciente del contexto y receptivo sea este dispositivo, más sabrá sobre nosotros. Cuanto más sepa, mayor será el potencial de intrusión.
La confianza en los datos y el historial de Altman
La versión de calma que Altman intenta vendernos depende de una discreción indefinida. Debemos confiar en las personas adecuadas con todos nuestros datos y creer que un algoritmo, y la empresa detrás de él, siempre manejarán nuestra información personal con deferencia y cuidado. Tenemos que confiar en que nunca utilizarán los datos como palanca, ni para influir en nuestros pensamientos, decisiones, política, hábitos de compra o relaciones. Esto es pedir mucho, incluso antes de considerar el historial de Altman en materia de derechos de propiedad intelectual. Altman ha defendido repetidamente el uso de obras con derechos de autor para el entrenamiento de IA sin permiso ni compensación para los creadores. En una entrevista en 2023, reconoció que los modelos de IA han “absorbido trabajos de todo Internet”, incluido material con derechos de autor sin permiso explícito, simplemente asimilándolo en masa como datos de entrenamiento. Intentó presentarlo como un problema que solo podría abordarse “una vez que encontremos algún tipo de modelo económico que funcione para las personas”.
El precedente de Sora 2 y la propiedad intelectual
Admitió que muchos creativos estaban molestos, pero solo ofreció promesas vagas de que algún día podría haber algo mejor. Dijo que dar a los creadores la oportunidad de optar por participar y obtener una parte de los ingresos podría ser “genial”, si así lo eligen, pero se negó a garantizar que dicho modelo se implementaría alguna vez. Si la propiedad y el consentimiento son conveniencias opcionales para los creadores, ¿por qué los consumidores deberían ser tratados de manera diferente? Recordemos que a las pocas horas del lanzamiento, Sora 2 se inundó con clips que utilizaban personajes con derechos de autor y franquicias conocidas sin permiso, lo que provocó una reacción legal. La compañía revirtió rápidamente el rumbo, anunciando que daría a los titulares de derechos “un control más granular” y pasaría a un modelo de suscripción para la imagen y los personajes. Esta reversión puede parecer responsabilidad, pero también es una admisión tácita de que el plan original era esencialmente tratar los esfuerzos creativos de todos como materia prima gratuita. Tratar el contenido como algo que se extrae, no como algo que se respeta.
El verdadero coste de la conveniencia
En el arte y los datos personales, el mensaje de Altman parece ser que el acceso a escala es más importante que el consentimiento. Un dispositivo que afirma aportar calma disolviendo la fricción y suavizando nuestra vida digital significa un dispositivo con supervisión de esa vida. La conveniencia no es lo mismo que la comodidad. No se argumenta aquí que todos los asistentes de IA sean malvados. Pero tratar la IA como una caja de herramientas no es lo mismo que convertirla en un confidente para cada elemento de mi vida. Algunos podrían argumentar que si el diseño del dispositivo es bueno y existen salvaguardias reales. Pero ese argumento asume un futuro perfecto, gestionado por personas perfectas. La historia no está de nuestro lado. El dispositivo que Altman y OpenAI planean vender podría ser excelente para todo tipo de cosas y valer la pena cambiar la privacidad, pero hagamos esa compensación clara. Ese lago tranquilo bien podría ser la lente de una cámara, pero no finjamos que la lente no está ahí.