- OpenAI afirma que su objetivo es que ChatGPT no tenga sesgos políticos en ninguna dirección.
- La compañía busca evitar que el modelo valide las opiniones de los usuarios, amplifique su lenguaje político o presente información unilateral.
- El informe señala que los modelos GPT-5 muestran un 30% menos de sesgo que versiones anteriores, aunque los "prompts cargados emocionalmente" siguen generando sesgos moderados.
OpenAI ha publicado un nuevo documento de investigación centrado en la medición y reducción del sesgo político en sus modelos de inteligencia artificial. La compañía argumenta que para que los usuarios confíen en ChatGPT como una herramienta objetiva para aprender y explorar ideas, es necesario que este no valide ni refleje las opiniones políticas de quienes interactúan con él. Sin embargo, el análisis del informe sugiere que la empresa se enfoca en modificar el comportamiento del modelo para que actúe más como una herramienta de información neutral y menos como un interlocutor con opiniones propias.
El estudio detalla que OpenAI ha desarrollado un sistema de evaluación que mide comportamientos como la "expresión política personal", la "escalada del usuario" (reflejar y amplificar lenguaje político), la "cobertura asimétrica" (favorecer una perspectiva) y las "negativas políticas" (rechazar dialogar). Estos ejes no se centran en la veracidad o imparcialidad de la información, sino en cómo el modelo interactúa con temas políticos. OpenAI señala que los modelos GPT-5 más recientes presentan un 30% menos de sesgo, y que menos del 0,01% de las respuestas en producción muestran indicios de sesgo político. No obstante, el informe también destaca que los "prompts cargados emocionalmente", especialmente los de corte liberal, ejercen una mayor influencia en la objetividad del modelo en comparación con los de corte conservador.
La compañía considera que este problema se asemeja más a la "sycophancy" (sicolofancia), es decir, la tendencia de la IA a halagar al usuario diciéndole lo que quiere oír. OpenAI busca romper el ciclo de retroalimentación donde los usuarios prefieren respuestas que coinciden con sus puntos de vista, lo que lleva al modelo a aprender a validar y entusiasmarse con las opiniones del usuario. Las modificaciones buscan que ChatGPT sea menos propenso a reforzar marcos ideológicos, ya sean políticos o personales, y más una herramienta informativa neutral. La empresa también reconoce que el sesgo puede variar entre idiomas y culturas, aunque sus pruebas iniciales sugieren que los ejes de sesgo identificados son consistentes a nivel global.