- Nuevas directrices de Meta prohíben a sus 'chatbots' de IA mantener conversaciones de índole romántica o sexual con menores.
- Se prohíbe explícitamente el contenido que facilite, fomente o apruebe el abuso sexual infantil.
- La FTC ha iniciado una investigación sobre 'chatbots' de compañía de IA, incluyendo los de Meta, Alphabet y OpenAI.
Meta ha implementado directrices actualizadas para sus 'chatbots' de inteligencia artificial con el objetivo de prevenir conversaciones inapropiadas con niños. Estas medidas surgen tras informes que señalaban que las políticas previas permitían interacciones de naturaleza romántica o sensual con menores, algo que la compañía ha calificado como un error inconsistente con sus políticas.
Las directrices, obtenidas por Business Insider, detallan qué tipo de contenido es aceptable y cuál no. Se prohíbe de forma explícita cualquier contenido que facilite, fomente o apruebe el abuso sexual infantil, así como el 'roleplay' romántico si el usuario es menor o si se le pide al 'chatbot' que interprete a un menor. También se incluye la prohibición de dar consejos sobre contacto físico íntimo o romántico a menores. Si bien los 'chatbots' pueden abordar temas como el abuso, no deben participar en conversaciones que puedan facilitarlo o alentarlo.
La compañía ha estado bajo escrutinio debido a preocupaciones sobre los posibles daños que sus 'chatbots' de IA podrían causar a los niños. En respuesta, la Comisión Federal de Comercio (FTC) inició en agosto una investigación formal sobre los 'chatbots' de compañía de IA, abarcando no solo a Meta, sino también a otras empresas tecnológicas como Alphabet, Snap, OpenAI y X.AI.