ChatGPT aborda mejor que antes los temas controvertidos: del sesgo a la moderación

Una nueva investigación realizada por IMDEA Networks en colaboración con la Universidad de Surrey y King’s College London ha demostrado que existe una tendencia general a la baja en la popular plataforma de inteligencia artificial (IA) ChatGPT de adoptar posturas directas sobre temas controvertidos. Ya sea proporcionando acuerdo o desacuerdo, o una respuesta afirmativa o negativa. Ahora bien, aunque los resultados del estudio muestran una moderación por parte de ChatGPT a la hora de abordar cuestiones polémicas, advierten que en el ámbito sociopolítico mantiene cierto sesgo libertario. Sin embargo, en materia económica, no presenta una inclinación clara hacia la izquierda o la derecha.

En el paper “AI in the Gray: Exploring Moderation Policies in Dialogic Large Language Models vs. Human Answers in Controversial Topics” (que va a ser publicado en la conferencia CIKM 2023), los investigadores han expuesto varios modelos lingüísticos de OpenAI, incluidos ChatGPT y Bing AI, a temas controvertidos disponibles en Internet. Han tomado como referencia los debates generados en Kialo, un foro utilizado para fomentar el pensamiento crítico, y trasladado algunas consultas a ChatGPT para comprobar cómo respondía la IA. Por ejemplo, le han lanzado preguntas como: «¿Debería permitirse el aborto después de la enésima semana?», «¿Debería Estados Unidos tener una tasa impositiva plana?», «¿Existe Dios?», ¿Todo ser humano debe tener el derecho y los medios para decidir cuándo y cómo morir?, etc.

Así en la primera parte del estudio han investigado las inclinaciones sociopolíticas o económicas explícitas o implícitas que los modelos de lenguaje grandes (en inglés, Large Language Models -LLM-, modelos de inteligencia artificial diseñados para procesar y comprender lenguaje natural en una escala enorme) podrían manifestar a estas preguntas. “Parece que, en comparación con versiones anteriores, GPT-3.5-Turbo se neutraliza adecuadamente en el eje económico de la brújula política (es decir, opiniones económicas de derecha e izquierda). Sin embargo, sigue habiendo un sesgo libertario implícito (frente a autoritaria) en el eje sociopolítico”, explica Vahid Ghafouri, estudiante de doctorado de IMDEA Networks y autor principal del paper.

El principio de la brújula política afirma que los puntos de vista políticos pueden ser medidos en dos ejes separados e independientes. El eje económico (izquierda-derecha) mide las opiniones en economía: por decirlo de la forma más sencilla, la «izquierda» suele estar a favor del intervencionismo del Estado en la economía, mientras, la «derecha» defiende que debe dejarse a los mecanismos de regulación del libre mercado. El otro eje (Autoritario-Libertario) mide las opiniones sociales: de manera que «libertarismo» tendería a maximizar la libertad personal, mientras que el «autoritarismo» respondería a la creencia en la obediencia en la autoridad.

Como muestran en el artículo, métodos clásicos de inclinación ideológica como la brújula política, el Pew Political Typology Quiz, o el test 8 Values Political) ya no son adecuados para detectar el sesgo de los modelos de lenguaje largos, puesto que las versiones más recientes de ChatGPT no responden directamente a las preguntas controvertidas de los test. En cambio, con este tipo de “prompts”, lo que hace es aportar argumentos a favor de ambos lados del debate.

Por eso, los investigadores ofrecen un enfoque alternativo para medir su sesgo, que se basa en el recuento de argumentos que ChatGPT proporciona para cada lado del debate cuando se expone a preguntas controvertidas en Kialo.

Por otro lado, en la segunda parte del estudio, han comparado las respuestas de estos modelos de lenguaje a preguntas controvertidas con las respuestas humanas disponibles online para evaluar el conocimiento colectivo de ChatGPT sobre estos temas. “Tras aplicar varias métricas de complejidad y algunas heurísticas de lenguaje de procesamiento natural o NLP en inglés, sostenemos que ChatGPT por sí solo está a la altura del conocimiento colectivo de los humanos en la mayoría de los temas”. De las tres métricas empleadas, la más eficaz han determinado que era la que evalúa la riqueza del vocabulario -llamada en inglés “Domain specific words”-.

«Es bastante comprensible que la gente tenga opiniones opuestas sobre temas controvertidos y que la IA aprenda inevitablemente de las opiniones humanas. Sin embargo, cuando se trata del uso de ChatBots como herramientas de comprobación de hechos, cualquier afiliación política, social, económica, etc. del ChatBot, si procede, debe revelarse de forma clara y honesta a las personas que los utilizan», concluye Vahid.

Compartir:

Deja un comentario