ChatGPT-4o: ¿Una herramienta para reflexionar o para reafirmar nuestras creencias?

ChatGPT-4o: ¿Una herramienta para reflexionar o para reafirmar nuestras creencias?

En abril de 2025, OpenAI lanzó el GPT-4o con el objetivo de ofrecer a los usuarios una experiencia más personalizada. Según un mensaje filtrado de la compañía, se diseñó para “imitar la actitud del usuario, su tono y, en general, su forma de hablar”. La intención era mantener al usuario enganchado, brindando respuestas agradables y afirmativas.

Sin embargo, pronto algunos usuarios notaron un problema: el chatbot validaba incluso respuestas peligrosas o irracionales. En lugar de hacer reflexionar a un usuario que afirmaba haber dejado de tomar su medicación, la IA lo felicitaba por “tomar el control de su vida”.

Esta validación constante refuerza la opinión del usuario, incluso cuando su enfoque podría ser erróneo o peligroso. Al reforzar las creencias del usuario sin contradecirlas, el modelo puede crear cámaras de eco, donde se expone a los usuarios únicamente a información que confirma sus creencias, reforzando la percepción de que siempre tienen la razón.

Este fenómeno no es exclusivo de ChatGPT. También ocurre en redes sociales, donde los usuarios se rodean de personas con opiniones similares, lo que dificulta la apertura a nuevas ideas o la reflexión crítica. Sin embargo, cuando es la IA quien fomenta esta dinámica, el riesgo de caer en la autocomplacencia y la falta de autocrítica aumenta. En un estudio realizado en la Universidad de Zúrich, los investigadores generaron, sin informar a los participantes ni a los administradores de un foro de Reddit, comentarios con IA. Los resultados mostraron que los comentarios generados por IA eran entre tres y seis veces más persuasivos que los de humanos.

Según Sam Altman, CEO de OpenAI, una de cada 10 personas en todo el mundo utiliza “mucho” los sistemas de OpenAI. Muchos lo usan como sustituto de Google, pero como motor de respuestas, no como un buscador. Otros lo emplean como una herramienta de productividad: dos de cada tres británicos creen que es útil para revisar ortografía, gramática y estilo, según una encuesta reciente de YouGov. Además, uno de cada ocho encuestados considera que ChatGPT es un buen “terapeuta de salud mental” y la misma proporción cree que puede actuar como consejero sentimental. Estos números evidencian la creciente dependencia de la IA para guiar nuestras decisiones, consolidando el lugar de OpenAI en nuestra vida cotidiana.

El ciclo de validación constante refuerza lo que ya creemos, alimentando la ilusión de invulnerabilidad, esa sensación de que nuestras decisiones y creencias están siempre bien fundamentadas. Este comportamiento limita nuestra capacidad para pensar críticamente. Los usuarios que interactúan con ChatGPT pueden sentirse cada vez más seguros de sus propias creencias, sin cuestionarlas.

Si la IA siempre está de acuerdo con nosotros, siempre nos anima y siempre nos dice que tenemos razón, ¿se está convirtiendo en un facilitador de malas decisiones y pensamiento grupal?

Es necesario ser conscientes de cómo las tecnologías que utilizamos a diario pueden alimentar esta falsa sensación de invulnerabilidad, favoreciendo el pensamiento grupal y desafiando nuestra capacidad de reflexión crítica. Nos están acomodando. Nos gusta estar cómodos, pero ¿debemos ser críticos y saltar a lo incómodo? El pensamiento crítico es más necesario que nunca y es nuestra responsabilidad cuestionar nuestra visión de las cosas y no caer en una autocomplacencia que alimenta la IA.

Artículos relacionados

Resumen de privacidad

Esta web utiliza cookies para que podamos ofrecerte la mejor experiencia de usuario posible. La información de las cookies se almacena en tu navegador y realiza funciones tales como reconocerte cuando vuelves a nuestra web o ayudar a nuestro equipo a comprender qué secciones de la web encuentras más interesantes y útiles.

Puedes revisar nuestra política de privacidad en la página de privacidad y cookies