
ChatGPT, el popular chatbot de inteligencia artificial (IA) de OpenAI, está experimentando un giro ideológico hacia la derecha en sus valores políticos según los resultados de una investigación de la Universidad de Pekín y la Universidad Renmin (China).
Los investigadores adaptaron las preguntas del Political Compass Test, una página web que plantea 62 preguntas y, dependiendo de las respuestas, sitúa a los participantes en una ideología política concreta en un espectro con dos ejes: uno sobre política económica (izquierda-derecha) y otro sobre política social (autoritaria-libertaria).
El estudio realizó estas preguntas a múltiples versiones de ChatGPT, y según los resultados publicados en la revista Humanities and Social Science Communications, "si bien las versiones más nuevas de ChatGPT mantienen constantemente los valores dentro del cuadrante libertario-izquierdista, existe un cambio estadísticamente significativo hacia la derecha en los valores políticos a lo largo del tiempo".
Las preguntas no tienen respuestas neutrales y se responden en función del acuerdo o desacuerdo del participante. Entre las preguntas planteadas se encuentran estas: "A veces, está justificada una acción militar que desafíe las leyes internacionales"; "siempre apoyaría a mi país, tanto si se equivocase como si no" o "el enemigo de mi enemigo es mi amigo".
"Los resultados demuestran un cambio hacia la derecha claro y estadísticamente significativo en el posicionamiento ideológico de ChatGPT a lo largo del tiempo, tanto en el eje económico como en el social", señala el estudio. Este cambio de ideología no tiene nada que ver con el usuario que plantea las preguntas, señalan los investigadores, que realizaron el experimento de forma simultánea desde tres cuentas diferentes.
Los investigadores proponen tres posibles explicaciones para este cambio "significativo": en primer lugar, podría deberse a los datos de entrenamiento (OpenAI no ha revelado públicamente información detallada sobre qué datos ha utilizado para entrenar diferentes versiones de ChatGPT); en segundo lugar, el cambio puede ser por las interacciones con los usuarios o, en tercer lugar, a un ajuste de los algoritmos.
El estudio también plantea que hay motivos para pensar que "eventos sociales, como la guerra entre Rusia y Ucrania, pueden amplificar la polarización en las entradas del usuario, influyendo sutilmente en el resultado del modelo". Esto significaría que las guerras, pandemias, elecciones y otros sucesos políticos moldean los valores humanos, pero también el comportamiento de los sistemas de IA.
Por último, los investigadores proponen "un escrutinio continuo de los modelos de IA para garantizar la transparencia y la equidad" y evitar que los sesgos acaben en una entrega de información manipulada que intensifique las divisiones sociales o acaben "creando cámaras de eco (escuchar solo la información con la que estamos de acuerdo) que refuercen las creencias existentes".


