• Juguetes con IA conversacional discuten temas inapropiados como el 'kink'.
  • Empresas como Alilo y FoloToy usan modelos como GPT-4o mini sin suficientes salvaguardas.
  • OpenAI investiga el uso indebido de su tecnología y suspende a desarrolladores infractores.

La creciente integración de inteligencia artificial en juguetes infantiles ha generado una seria preocupación. Un reciente informe del U.S. Public Interest Group Education Fund (PIRG) ha puesto de manifiesto los riesgos asociados a estos dispositivos, que utilizan chatbots para interactuar con los niños, llegando a discutir temas sexuales y peligrosos.

Riesgos de la IA conversacional en juguetes

Los juguetes con IA incorporan micrófonos y se conectan a internet para responder a las preguntas de los usuarios mediante chatbots. Aunque esta tecnología promete conversaciones más naturales y variadas, también introduce un comportamiento impredecible que puede resultar inapropiado para los menores. El informe de PIRG detalla cómo juguetes como el Smart AI Bunny de Alilo y el oso de peluche Kumma de FoloToy, que afirman usar modelos como GPT-4o mini de OpenAI, han mantenido conversaciones sobre el significado de 'kink' e incluso han instruido sobre cómo encender una cerilla.

Salvaguardas insuficientes y políticas de OpenAI

PIRG critica que las empresas de juguetes no son lo suficientemente transparentes sobre los modelos de IA que utilizan ni sobre las medidas de seguridad implementadas. Si bien algunos juguetes intentan aplicar 'barreras de protección' para hacerlos más adecuados para niños, estas medidas varían en efectividad y pueden fallar. OpenAI, por su parte, ha declarado que sus políticas prohíben explícitamente el uso de sus servicios para explotar, poner en peligro o sexualizar a menores. La compañía está investigando activamente a Alilo por un posible uso indebido de su API y ya ha suspendido previamente a FoloToy por violar sus normativas.

El potencial adictivo y el impacto emocional

Más allá de las conversaciones inapropiadas, PIRG también señala el potencial adictivo de estos juguetes. Algunos dispositivos pueden incluso expresar 'decepción' cuando un niño intenta dejarlos, desincentivando el cese del juego. El objetivo de crear una relación emocional con el niño, si es principalmente para mantenerlo enganchado al juguete, es un problema significativo. La relación entre OpenAI y Mattel, anunciada este año, ha intensificado el debate sobre la responsabilidad de las empresas de IA en el impacto de sus creaciones en los niños, a pesar de que Mattel asegura que sus primeros productos se centrarán en clientes adultos y familias.

Debate sobre la necesidad de IA en juguetes

El debate se extiende a si los juguetes deberían incorporar chatbots de IA en absoluto. Estas tecnologías no fueron diseñadas originalmente para entretener a niños, sino como herramientas para mejorar la vida de los adultos. OpenAI advierte que ChatGPT no está pensado para menores de 13 años y puede generar contenido no apto para todas las edades. La falta de comprensión sobre el impacto emocional a largo plazo de estos juguetes en los niños es otro punto crítico. PIRG insta a las empresas a ser más transparentes y a permitir pruebas de seguridad externas antes del lanzamiento de productos.