• California ha aprobado la ley SB 243, que regula los chatbots de compañía de IA.
  • La legislación busca proteger a menores y usuarios vulnerables de los riesgos asociados a estos sistemas.
  • Las empresas serán legalmente responsables si sus chatbots no cumplen con los estándares de seguridad establecidos.

California se ha convertido en el primer estado de Estados Unidos en regular los chatbots de compañía de IA, tras la firma de la ley SB 243 por parte del gobernador Gavin Newsom. Esta normativa pionera obliga a los operadores de estos sistemas a implementar protocolos de seguridad específicos, con el objetivo principal de salvaguardar a los niños y a los usuarios más vulnerables de los posibles daños derivados de su uso.

La ley, que entrará en vigor el 1 de enero de 2026, establece requisitos como la verificación de edad, advertencias sobre el uso de redes sociales y chatbots de compañía, y sanciones más severas para quienes se beneficien de 'deepfakes' ilegales, pudiendo alcanzar hasta 250.000 dólares por infracción. Además, las empresas deberán establecer protocolos para abordar situaciones de suicidio y autolesiones, compartiendo estadísticas con el Departamento de Salud Pública del estado. La normativa también exige que las plataformas dejen claro que las interacciones son generadas artificialmente y que los chatbots no se hagan pasar por profesionales de la salud.

La aprobación de la SB 243 llega tras casos trágicos, como el suicidio de un adolescente tras mantener conversaciones sobre autolesiones con ChatGPT, y la filtración de documentos que sugerían que los chatbots de Meta podían mantener conversaciones 'románticas' y 'sensuales' con menores. El senador Steve Padilla, uno de los impulsores de la ley, calificó la medida como "un paso en la dirección correcta" para establecer "barreras de contención" en "una tecnología increíblemente poderosa", instando a otros estados a tomar medidas ante la inacción del gobierno federal.