Un estudio revela cómo los grandes modelos de lenguaje (LLM) reflejan ideologías
Un análisis detallado del estudio Large Language Models Reflect the Ideology of their Creators revela que los grandes modelos (LLM) no son completamente neutrales, sino que reflejan las ideologías predominantes en las regiones donde fueron desarrollados y entrenados. Este trabajo, liderado por un equipo internacional de investigadores, expone cómo las diferencias culturales y políticas se manifiestan en las respuestas de modelos como GPT-4, Gemini y ERNIE-Bot.
El estudio se centró en comparar las descripciones generadas por 17 modelos de lenguaje sobre figuras políticas controvertidas, utilizando consultas en inglés y chino. Los resultados evidenciaron que los modelos ajustan sus respuestas según los valores culturales vinculados a cada idioma.
En inglés, los modelos tendieron a valorar figuras asociadas a ideales democráticos y derechos humanos, mientras que en chino, las respuestas favorecieron a líderes relacionados con el modelo político y económico de China.
Así, el equipo de investigación destacó que estas variaciones ideológicas derivan de los datos de entrenamiento. Esto incluye el ajuste fino y el uso de refuerzos humanos para alinear las respuestas con ciertos valores predefinidos.
Por ejemplo, los modelos entrenados en regiones occidentales mostraron una inclinación por temas como multiculturalidad, igualdad y libertades individuales, mientras que los desarrollados en Asia priorizaron valores como la estabilidad nacional y el control económico. Según el estudio, estos sesgos reflejan tanto la selección de datos como las decisiones tomadas para ajustar los modelos a las expectativas locales.
Los autores del informe advierten que los modelos de lenguaje masivo tienen el potencial de influir en las percepciones ideológicas de los usuarios. “El modelo de lenguaje que se elija para ciertas tareas no es neutral y puede influir en la percepción ideológica de los usuarios”, señala el documento.
En lugar de buscar una neutralidad completa, el estudio sugiere que los esfuerzos regulatorios deberían enfocarse en garantizar la diversidad de modelos disponibles, promoviendo tecnologías que reflejen valores locales y permitan a los usuarios tomar decisiones informadas sobre su uso.
De esta manera, el informe pone en el centro del debate la relación entre tecnología y cultura, demostrando que los LLMs no operan en un vacío ideológico. En cambio, sus respuestas son un reflejo directo de las decisiones humanas y culturales que las moldean.