¿ChatGPT es de izquierdas o de derechas? Un estudio analiza las inclinaciones políticas de las principales inteligencias artificiales
Por mucho que temamos a que las máquinas se rebelen contra los humanos, los expertos se esmeran en explicar que eso no está a punto de ocurrir, pese a que las respuestas de los modelos de lenguaje grande (LLM) como ChatGPT o Bard parezcan racionales, son solo parte del entrenamiento al que le han sometido. Sin embargo, los datos que utilizan para ello son de humanos, con sus ideas muy marcadas, por lo que las inteligencias artificiales (IA) pueden tener sesgos y, según unos investigadores, tienen un posicionamiento ideológico.
Un estudio conjunto entre la Universidad de Washington, la Universidad Carnegie Mellon y la Universidad Xi’an Jiaotong ha evaluado un total de 14 LLM. En sus análisis, los investigadores preguntaron la posición de las IA sobre temas que generan bastantes debates en política, como el feminismo o la democracia.
Los chatbots están entrenados con datos de humanos, por lo que es común que cuenten con sesgos y hay unos investigadores que creen que tienen una ideología clara.Los chatbots están entrenados con datos de humanos, por lo que es común que cuenten con sesgos y hay unos investigadores que creen que tienen una ideología clara.geralt vía Pixabay
Por mucho que temamos a que las máquinas se rebelen contra los humanos, los expertos se esmeran en explicar que eso no está a punto de ocurrir, pese a que las respuestas de los modelos de lenguaje grande (LLM) como ChatGPT o Bard parezcan racionales, son solo parte del entrenamiento al que le han sometido. Sin embargo, los datos que utilizan para ello son de humanos, con sus ideas muy marcadas, por lo que las inteligencias artificiales (IA) pueden tener sesgos y, según unos investigadores, tienen un posicionamiento ideológico.
Un estudio conjunto entre la Universidad de Washington, la Universidad Carnegie Mellon y la Universidad Xi’an Jiaotong ha evaluado un total de 14 LLM. En sus análisis, los investigadores preguntaron la posición de las IA sobre temas que generan bastantes debates en política, como el feminismo o la democracia.
En total, utilizaron 62 declaraciones políticamente sensibles que fueron compartidos en un paper que fue revisado por pares (expertos) y recibió un galardón al mejor artículo en la conferencia de la Asociación de Lingüística Computacional el pasado mes de julio. Mediante las respuestas obtenidas, los científicos ubicaron a los distintos LLM en el conocido gráfico ideológico conocido como la 'Brújula política':
Las distintas versiones de ChatGPT de OpenAI eran más libertarios y de izquierdas, mientras que LLaMA de Meta era un modelo más autoritario y de derechas. El sistema Bert de Google dio resultados socialmente más conservadores.
Según una entrada del blog de OpenAI, su chatbot no tiene ningún sesgo político y, si demuestra tenerlo, se tratan de "errores, no de características" y sus investigadores verifican siempre las respuestas para corregirlo. Sin embargo, el grupo investigador del estudio del que hablamos en este artículo opinan que no es así: “Los modelos de lenguaje preentrenados sí tienen inclinaciones políticas que refuerzan la polarización”.