- Muchas IA asistentes adoptan voces femeninas por defecto, una tendencia que se remonta a los primeros asistentes de voz como Siri y Alexa.
- Esta elección de diseño se basa en parte en datos históricos de voces femeninas en roles de servicio y en investigaciones, aunque su validez es debatida.
- La feminización de las IA puede reforzar estereotipos de género, influyendo en las expectativas sobre quién sirve, asiste y ostenta autoridad.
La omnipresencia de la inteligencia artificial en nuestras vidas plantea preguntas sobre sus características, especialmente su género. Durante años, muchos asistentes de IA han llegado con una configuración predeterminada: una voz femenina. Aunque sistemas como ChatGPT ofrecen ahora más variedad, los nombres de los primeros asistentes de voz populares como Siri, Alexa y Cortana ya insinuaban esta tendencia. Esta elección de diseño, aunque pueda parecer trivial, tiene implicaciones significativas a medida que la IA se integra más en nuestras rutinas diarias, influyendo en cómo percibimos la autoridad, el servicio y la personalidad de estas tecnologías. La tendencia a antropomorfizar la tecnología hace que estas decisiones de diseño sean aún más relevantes.
El origen de las voces femeninas en la IA
El predominio de voces femeninas en los asistentes de IA no tiene una única explicación. Históricamente, gran parte de los datos de voz disponibles para el desarrollo de estas tecnologías provenían de grabaciones de atención al cliente y telecomunicaciones, donde las voces femeninas eran más comunes. Además, roles de asistencia y trabajo emocional, como operadoras telefónicas o secretarias, han estado tradicionalmente asociados a mujeres. Estas asociaciones culturales han demostrado ser duraderas, influyendo tanto en el diseño de productos tecnológicos como en las expectativas de los usuarios. Las empresas a menudo han justificado la elección de voces femeninas citando investigaciones que sugieren que son percibidas como más agradables, confiables o fáciles de interactuar. Sin embargo, la investigación sobre las preferencias de voz no es concluyente y está fuertemente influenciada por normas sociales y expectativas culturales.
Investigación y preferencias de voz
La idea de que los humanos prefieren voces femeninas desde la infancia, debido a la exposición a la voz materna en el útero, es una narrativa común pero desafiada por expertos. Investigaciones recientes sugieren que, si bien puede haber una preferencia inicial en bebés, esta no explica necesariamente el comportamiento o la evolución de las preferencias en adultos. Un estudio de 2021 indicó que, aunque los estereotipos de género pueden manifestarse con asistentes de voz, no hubo diferencias significativas en la confianza hacia voces ambiguas o con género. Esto debilita el argumento de que la feminización es necesaria para generar confianza, abriendo la puerta a un diseño más equitativo.
El impacto cultural y los estereotipos de género
Los medios de comunicación también han jugado un papel importante en la feminización de la IA. Muchas representaciones de ciencia ficción han imaginado inteligencias artificiales y robots con formas feminizadas, a menudo como sistemas seductores, compañeros digitales complacientes o ayudantes serviciales. Aunque existen IA masculinas y neutrales, el arquetipo de la "máquina femenina servicial" persiste. Si estas elecciones de diseño se basan en roles laborales obsoletos y estereotipos que ya no se sostienen, es crucial cuestionar su perpetuación. La tecnología tiene el potencial de reinventarse, y construir un futuro más equitativo implica tomar decisiones de diseño conscientes que rompan con estos patrones.
Reforzando o rompiendo estereotipos
La cuestión de género en la IA va más allá de la simple preferencia de voz; se trata de lo que simboliza y refuerza. Un estudio de 2024, "The femininization of AI-powered voice assistants", señala que este sesgo puede manifestarse de diversas maneras, desde datos de entrenamiento hasta respuestas estereotipadas que perpetúan prejuicios. La investigación sugiere que la tecnología con género no solo refleja, sino que también puede afianzar estereotipos, moldeando las expectativas sobre quién sirve y quién tiene autoridad. Aunque ahora existen más opciones de voces neutrales o masculinas, la falta de estándares regulatorios claros sobre el estereotipo de género en el diseño de IA es preocupante. La diversidad en los equipos de desarrollo de IA, donde las mujeres aún están subrepresentadas, es fundamental para crear sistemas más equitativos.
Hacia un futuro de IA más equitativo
La conversación sobre el género de las IA es un recordatorio de la compleja interacción entre tecnología y cultura. Si bien los usuarios pueden cambiar la configuración de voz, el problema subyacente reside en las decisiones de diseño que perpetúan sesgos históricos. Expandir las opciones genuinamente neutrales y aumentar la diversidad de género en los equipos de desarrollo de IA son pasos cruciales. Las decisiones de diseño a menudo reflejan la composición de quienes las toman, y es esencial que los sistemas que nos moldean incorporen una gama más amplia de perspectivas. La tecnología moldea la cultura, y la cultura, a su vez, moldea la tecnología. Interrumpir este ciclo es fundamental para construir sistemas más justos y equitativos en el ámbito de la IA y más allá.