El poder (y peligro) de la IA como nueva autoridad

El poder (y peligro) de la IA como nueva autoridad

Un estudio publicado en la revista Science en 2024 afirma que conversar con una IA generativa (un chatbot) puede debilitar las convicciones conspirativas de las personas. Los participantes interactuaron con el chatbot GPT-4 Turbo que refutaba sus teorías usando evidencias customizadas y verificables. Tras tres rondas de diálogo con el chatbot se observó que la seguridad y arraigo en las creencias previas se redujo, poniendo de manifiesto que no es la ceguera a las pruebas sino contar con las pruebas adecuadas lo que hace que una persona cambie de opinión.

Esta demostración del poder persuasivo de los chatbots muestra tanto las posibles repercusiones positivas de la IA generativa cuando se utiliza de forma responsable como la importancia de minimizar las oportunidades de que esta tecnología se utilice de forma irresponsable. Cuando la IA se diseña con rigor y se centra en la veracidad, puede actuar como aliada en la lucha contra la desinformación, favoreciendo la convivencia democrática y la cohesión social. Sin embargo, esta misma tecnología puede reforzar ideas falsas si sus algoritmos están sesgados o programados para ello. El estudio también invita a plantearse por qué confiamos tanto en lo que dice una máquina.

La respuesta reside en el sesgo de autoridad: la tendencia a sobreestimar fuentes percibidas como expertas. Desde los experimentos de Milgram (1974) sobre obediencia a la autoridad hasta los estudios de Raven (1993) sobre el poder legítimo, la psicología social muestra que atribuimos credibilidad a quien consideramos “competente”.

En el estudio publicado en Science, los participantes que percibieron al chatbot como una “figura de autoridad” fueron más propensos a cuestionar sus creencias previas que quienes lo vieron como un instrumento neutral. Valoraron más las refutaciones presentadas por la IA que las fuentes que respaldaban sus antiguas creencias. Asumir que el chatbot es “fiable”, aumenta la probabilidad de renunciar a convicciones previas y aceptar lo que propone la máquina.

En los últimos años, las IAs han empezado a encarnar una posición de autoridad. Se han convertido en los nuevos médicos, psicólogos o científicos cuyas afirmaciones pocas veces se cuestionan ¿A qué se debe esto? Dos fenómenos contribuyen a explicar esta tendencia:

El efecto Eliza. El programador Joseph Weizenbaum (1966) creó Eliza, un software muy simple que simulaba un diálogo terapéutico reformulando las frases del usuario. Pese a su sencillez, muchas personas lo percibían como realmente empático e inteligente. Cuando creemos que el chatbot “nos entiende” o actúa de forma “muy humana”, le atribuimos un mayor grado de confianza, aumentando la probabilidad de asumir sus argumentos sin juzgarlos críticamente.

The Media Equation. Reeves y Nass (1996) describen en su obra, The Media Equation, que tratamos a los ordenadores y otros medios electrónicos como si fueran agentes sociales, mostrándoles la misma cortesía, amabilidad o respeto que a un interlocutor humano. Cuando un chatbot emplea un lenguaje fluido, detalla argumentos y exhibe un tono “profesional”, se gana el estatus de “figura experta”. Al igual que confiamos en un médico con bata blanca, confiamos en la IA cuando “suena” segura y conocedora del tema.

Estas dinámicas se ven amplificadas por el constante marketing alrededor del rápido avance de las IAs, donde se destaca su capacidad de procesar enormes volúmenes de información y producir conclusiones “objetivas y exactas”. También influye la tendencia cultural de equiparar la tecnología punta con fiabilidad, “si es la última generación, debe ser mejor”, reforzando la idea de la IA como un “experto” cada vez más preciso.

Aunque el artículo deScience muestra el potencial de la IA para frenar teorías conspirativas, ¿es una fuente digna de absoluta credibilidad? Hay dos factores llevan a cuestionar su aparente neutralidad y resaltan la necesidad de mantener una mirada crítica:

Los modelos de lenguaje, a menudo, llenan sus respuestas con rodeos, repeticiones o ambigüedades cuando dudan de sus propias conclusiones. Este comportamiento, análogo a la vacilación humana, se describe en un estudio reciente. Aunque cuanto más larga es una respuesta, mayor suele ser la inseguridad que el sistema intenta encubrir, se genera una ilusión de profundidad. Es decir, para el usuario, un discurso muy extenso puede sugerir rigor o conocimiento detallado. Si no se analiza la calidad de la información, se asume que “más texto = más veracidad”. Paradójicamente, enmascarar las limitaciones con verborrea refuerza el sesgo de autoridad. Una respuesta “larga y bien redactada” puede llevar a la conclusión de que la IA domina el tema, ignorando la posibilidad de que el modelo simplemente esté rellenando su discurso por falta de seguridad.

Pese a su potencial de neutralidad, existen ejemplos de cómo la IA puede reflejar o amplificar intereses políticos, económicos o ideológicos:

Según El Confidencial, la nueva IA de Elon Musk, Grok 3, bloqueó temporalmente críticas hacia Musk y Donald Trump, introduciendo un “parámetro” que impedía mostrar resultados negativos. El jefe de ingeniería de xAI, Igor Babuschkin, justificó el problema afirmando que un antiguo empleado de OpenAI había modificado el sistema sin alinearlo con la “cultura” de xAI. Aunque se revirtió el cambio rápidamente, el suceso evidenció la facilidad con que un simple ajuste puede “invisibilizar” datos e imponer una visión parcial.

Un reportaje de The Guardian muestra que DeepSeek borra sus propias respuestas cuando el usuario aborda temas políticamente sensibles, por ejemplo, la represión en Hong Kong o Xinjiang. Inicialmente, DeepSeek comienza a ofrecer información crítica, pero de repente, se censura y responde con un mensaje genérico. Este mecanismo de autorregulación pone en evidencia que DeepSeek actúa bajo la política de control del gobierno chino, limitando la posibilidad de un debate libre.

En un artículo de TechCrunch, asesores de Donald Trump, entre ellos David Sacks, Marc Andreessen y Elon Musk, acusan a OpenAI de censurar activamente a ChatGPT. La polémica se inició cuando el modelo rehusó escribir un poema que elogiara a Trump, mientras que sí lo hizo para Joe Biden. Sam Altman, CEO de OpenAI, reconoció que existían “carencias” y “sesgos” y prometió “corregir el problema”. Este caso ilustra cómo las políticas de moderación para evitar contenido ofensivo o extremista pueden terminar generando acusaciones de parcialidad política.

En estos escenarios, la IA deja de ser un observador imparcial para depender de las decisiones editoriales o intereses de programación. El “halo de experto” puede llevar a la audiencia a creer que las aportaciones de la IA son fiables, pese a las limitaciones técnicas o los intereses económicos, políticos o culturales que puedan limitar lo que la IA muestra o calla. Según un informe de Microsoft Research (Lee, 2025), gran parte de la gente asume que la IA es veraz por defecto y no contrasta la información que recibe, confiando en que “la tecnología no se equivoca”. Esta actitud se agrava en momentos de urgencia o cuando las respuestas del chatbot suenan convincentes. Así, el sesgo de autoridad se ve reforzado, y la IA, aun con errores o carencias, mantiene la imagen de un “guía fiable”.

Las investigaciones más recientes, tanto en el ámbito académico como en estudios de campo, como el trabajo de Microsoft sobre profesionales que usan herramientas de IA a diario, apuntan a que la autoridad que atribuimos a los sistemas de inteligencia artificial puede ser un arma de doble filo. Por un lado, la IA, bien diseñada y orientada a la veracidad, puede refutar teorías conspirativas o agilizar tareas de gran complejidad, mejorando la eficiencia de los usuarios. Por otro lado, esa misma percepción de “experto infalible” puede mermar nuestro pensamiento crítico y conducir a una dependencia excesiva de la tecnología.

De acuerdo con el estudio de Microsoft Research, los usuarios tienden a verificar menos la información cuando confían plenamente en la IA y pueden desarrollar, a largo plazo, una diminución en sus habilidades de resolución de problemas de manera autónoma. A medida que la IA se integra en los flujos de trabajo, cambia el tipo de esfuerzo invertido en pensamiento crítico: en lugar de recabar información o diseccionarla detalladamente, muchos pasan directamente a la fase de “validación superficial” de la respuesta generada por la IA o, incluso, la asumen sin más.

La lección que surge de todos estos hallazgos es clara:

  1. Fomentar la conciencia y la motivación para analizar y contrastar la información, en vez de asumir que “la IA siempre acierta”.
  2. Diseñar sistemas que impulsen el escepticismo constructivo y brinden pistas claras sobre la fiabilidad de los resultados, en lugar de reforzar la ilusión de neutralidad absoluta.
  3. Mantener la habilidad humana de cuestionar y crear, aun cuando la tecnología parezca resolverlo todo con rapidez y precisión.

Conferimos a la IA un halo de autoridad que puede ayudarnos a resolver problemas o derribar mitos, pero que también puede desembocar en una falta de pensamiento crítico si no tomamos las debidas precauciones. Cultivar una actitud de verificación y reflexión, tanto en la vida cotidiana como en el ámbito laboral, garantiza que la IA sea una herramienta realmente efectiva y no un “árbitro incuestionable” de nuestras decisiones.

Costello, C. K., et al. (2023). “Durably reducing conspiracy beliefs through dialogues with AI.” Science.

El Confidencial (2025). “Elon Musk revienta la gran teoría de la conspiración de Silicon Valley con este último invento”

El Confidencial (2025). “El gran misterio detrás de los fallos de ChatGPT y el resto de inteligencias artificiales

Lee, S. (2025). “AI and Critical Thinking: A Survey on User Reliance and Verification Behaviors.” Microsoft Research.

Milgram, S. (1974). Obedience to Authority: An Experimental View. Tavistock Publications.

Raven, B. (1993). “The Bases of Power: Origins and Recent Developments.” Journal of Social Issues, 49(4), 227-251.

Reeves, B. & Nass, C. (1996). The Media Equation: How People Treat Computers, Television, and New Media Like Real People and Places. Cambridge University Press.

TechCrunch (16/02/2025). “OpenAI tries to uncensor ChatGPT.”

The Guardian (2025). “Chinese AI chatbot DeepSeek censors itself in realtime, users report.”

Weizenbaum, J. (1966). “ELIZA — A Computer Program for the Study of Natural Language Communication Between Man and Machine.” Communications of the ACM, 9(1), 36-45.

Zhang, Y., Das, S. S. S., & Zhang, R. (2024). Verbosity $\neq $ Veracity: Demystify Verbosity Compensation Behavior of Large Language Models. arXiv preprint arXiv:2411.07858.

Artículos relacionados

Resumen de privacidad

Esta web utiliza cookies para que podamos ofrecerte la mejor experiencia de usuario posible. La información de las cookies se almacena en tu navegador y realiza funciones tales como reconocerte cuando vuelves a nuestra web o ayudar a nuestro equipo a comprender qué secciones de la web encuentras más interesantes y útiles.

Puedes revisar nuestra política de privacidad en la página de privacidad y cookies