El 21 de agosto Brian Armstrong (Coinbase) contó que dio una semana a sus ingenieros para utilizar las herramientas de IA de la compañía. Despidió a quienes no pudieron justificar el retraso. El mensaje era claro: la IA no es opcional (Business Insider, 2025-08-21).
No es un caso aislado. IgniteTech presume de haber sustituido en 2023 a gran parte de su plantilla por resistirse al giro IA, y su CEO afirma que lo repetiría (Fortune, 2025-08-17). Y varios medios han documentado políticas “AI-first” en compañías como Duolingo, Shopify, Meta o Box. Valoran el uso de IA en el desempeño, exigen justificar nuevas contrataciones solo si la IA “no puede” hacer la tarea, y utilizan comunicaciones internas para avisar que “usar IA no es opcional” (Business Insider, 2025-06-27; The Washington Post, 2025-06-03) Parece que la presión para que los empleados adopten herramientas IA en el trabajo está creciendo, convirtiéndose incluso en un requisito laboral. La IA parece estar pasando de opción a obligación. Todo este “ruido” influye nuestra percepción e influye sobre nuestras decisiones.
Las señales que vemos… y por qué suenan irreversibles
Abrimos el correo, LinkedIn, la prensa…, y la IA está en todas partes. Ese volumen informativo no es neutro. Crea el marco desde el que juzgamos si “hay que subirse ya o no”. Vamos a identificar qué señales están ahí y cómo empujan nuestra percepción.
Mundo empresarial. Las encuestas globales de McKinsey muestran que el 78% de las organizaciones dice usar IA en al menos una función, sobre todo IT, marketing y servicio al cliente, frente al 72% de 2024. Una subida que refuerza la idea de avance continuo (McKinsey, 2025-03-12). Algunas compañías como Microsoft ya trasladan a sus empleados que “usar IA no es opcional”, incorporando, por ejemplo, el uso de Copilot en las evaluaciones de desempeño (Business Insider 2025-06-27). Medios como The Washington Post han documentado políticas AI-first en Duolingo, Shopify y Box, que piden justificar nuevas contrataciones solo si IA no puede hacer la tarea (Washington Post, 2025-06-03). Estas decisiones actúan como referentes reforzando la expectativa de adopción. Si ellos lo exigen, será el camino.
Mercado laboral. LinkedIn registra un x20 de miembros que añaden “habilidades de IA” en sus perfiles desde 2016, y esa “alfabetización en IA” empieza a extenderse a roles no técnicos como marketing, ventas o atención al cliente (Economic Graph, 2025). Compañías como Goole han actualizado la descripción de algunos puestos para incluir el uso de la IA de forma explícita. Esto ha llevado a una explosión en la demanda formativa alrededor de la IA. En 2025, Coursera promedia 12 matrículas por minuto en cursos de IA generativa, frente a 1 por minuto en 2023 y 8 por minuto en 2024 (Coursera, 2025-06-04). Por su parte, Udemy reporta picos trimestrales de +75% en formación de AI en Finanzas y fuertes subidas en certificaciones de IA (Udemy, 2025-02-27), lo que sugiere una urgencia percibida por “ponerse al día”
Fuera del entorno empresarial. Los titulares y la cobertura informativa juegan su papel moldeando nuestra percepción sobre el tema. 2025, además de nuevos productos, trae mucha más conversación pública entorno a la IA. El AI Index registra que las menciones a IA crecieron un 21% interanual, nueve veces más que en 2016, lo que multiplica debates y noticias. El número de titulares y noticias alimenta la sensación de que “esto va en serio”.
Cómo este clima moldea nuestra percepción e influye en nuestras decisiones
El cerebro tiende a convertir volumen en certeza. Ver continuamente la IA en ofertas, evaluaciones, cursos, correos y titulares, puede llevarnos a creer que “esto es inevitable. O me uno o me quedo fuera”. Esa sensación, aunque comprensible, no es evidencia de valor por sí misma. En este contexto, ayuda ser consciente de cómo este clima lleno de figuras de autoridad, urgencias y pruebas sociales nos “empuja” a tomar decisiones en una determinada dirección. No se debe confundir “lo que suena mucho” con “lo que a mi me interesa”. Tres fuerzas alimentan ese empuje:
- Repetición y prueba social: Si varios referentes anuncian políticas AI-first la idea de “obligatoriedad” se vuelve cotidiana. Muchos titulares que suenan a lo mismo parecen empujarnos a imitar para “no quedarnos atrás”. Ese efecto “todos lo hacen” es potente, incluso cuando los casos tienen matices o correcciones posteriores, como por ejemplo cuando Klarna ajustó su despliegue para priorizar calidad (Washington Post, 2025-06-03)
- Autoridad y halo: Cuando líderes refuerzan públicamente el rol de la IA, como cuando el CEO de GitHub apoya medir el uso de IA en el trabajo, tendemos a darle más peso a las afirmaciones del que le daríamos por si solas (Business Insider, 2025-08-25). Si Nvidia bate récords de ventas y sigue dominando la narrativa de los chips de IA, es fácil pensar que todo lo que suene a IA será rentable o necesario (Financial Times, 2023-12-21). O si Microsoft presume de integrar modelos en su suite ofimática, otras compañías sienten que quedarse al margen sería un suicidio competitivo (Business Insider 2025-06-27). La autoridad y el halo generan un “efecto arrastre” que puede llevarnos a subirnos al tren porque “todo el mundo lo hace”.
- Urgencia ambientada: Mensajes del tipo “ahora o nunca” reducen nuestra tolerancia a pararnos a analizar. El caso Coinbase, una semana para adoptar las herramientas de IA, es un ejemplo de cómo se instala esa prisa. En paralelo, el volumen de lanzamientos, memos y formación refuerza la sensación de carrera. Que Gartner siga situando la GenAI dentro de su Hype Cycle 2025 es un recordatorio útil. Hay innovaciones valiosas, pero también expectativas infladas y aprendizaje pendiente (Gartner, 2025-07-29).
Este cóctel facilita dos saltos peligrosos: pasar de “se ve mucho” a “funciona en todas partes”, y de ahí a “hay que imponerlo ya”. Y no todas las señales tienen el mismo peso. Algunas pueden ser cosméticas, como añadir “IA” en una descripción de puesto sin cambiar tareas reales. Otras pueden estar sobre-promocionadas. La propia SEC ha advertido y sancionado casos de “AI-washing”, es decir, claims de IA exagerados o engañosos. En otras palabras: el ruido crea presión, pero no es prueba.
No caer en el entusiasmo ciego ni en el rechazo precipitado
Los puntos anteriores ponen de manifiesto la importancia de diferenciar correlación de causalidad a la hora de tomar una decisión. Que una empresa de éxito use IA no significa que su éxito provenga de ahí. Ni un fallo en un proyecto de IA significa que la IA no se pueda aplicar. Daniel Kahneman lo resumió con el principio WYSIATI: “lo que ves es todo lo que hay” [Kahneman, 2011]. Si solo vemos el crecimiento y la etiqueta “IA”, podemos concluir erróneamente que ambos están vinculados. Cuando el entorno grita “IA por todas partes”, es fácil confundir lo visible con lo cierto. Dos atajos simétricos nos pueden jugar malas pasadas:
- Entusiasmo ciego: ver unos cuantos casos llamativos y concluir que “funciona en todas partes”. Se impone “usar IA” sin comprobar impacto.
- Rechazo precipitado: un mal piloto y concluir que “no sirve”. Se desecha sin separar fallo de madurez, datos o diseño.
- La dificultad de los cambios culturales
Adoptar medidas como Coinbase orientadas a acelerar procesos de transformación pueden tener efectos secundarios que debemos considerar para evitar, en la medida de lo posible, que el proceso de cambio que se está iniciando fracase.
Teatro de adopción. Ante mandatos duros, la gente aparenta usar IA para no meterse en líos. Se infla el “uso” y se oculta el retrabajo o la caída de calidad. La literatura sobre silencio organizativo es clara: cuando percibes riesgo, callas problemas y maquillajes cifras. La organización aprende menosy corrige peor.
Pensamiento grupal y pérdida de disenso útil. Mensajes rotundos desde arriba pueden silenciar al “abogado del diablo”. Nadie quiere ser “el freno”. Sin voces críticas, los errores escapan a revisión.
Escalada del compromiso. Si se anuncia grande y luego los datos flojean, cuesta rectificar. Se ha invertido mucho en reputación y presupuesto. La tendencia humana más natural… “doblar la apuesta” para no admitir el error.
Conclusión
Casos como Coinbase crean un clima que nos puede empujar a tomar decisiones rápidas. Y es que, si no somos conscientes, el “ruido” acaba decidiendo por nosotros. Pensar requiere separar señales de pruebas de impacto, atribuir con métrica simples y mantener reversibilidad (disenso, umbrales de parada, ensayos cortos). El objetivo no es correr más, sino aprender mejor. Esto nos puede servir hoy para la IA, y mañana para cualquier otra moda.
Bibliografía
Business Insider 2025-06-27: https://www.businessinsider.com/microsoft-internal-memo-using-ai-no-longer-optional-github-copilot-2025-6?utm_source=chatgpt.com
Business Insider, 2025-08-21: https://www.businessinsider.com/coinbase-ceo-fired-employees-not-using-ai-tools-onboarding-2025-8?utm_source=chatgpt.com
Business Insider, 2025-08-25: https://www.businessinsider.com/github-ceo-thomas-dohmke-microsoft-memo-tracking-ai-use-2025-8?utm_source=chatgpt.com
Coursera, 2025-06-04: https://blog.coursera.org/presenting-courseras-2025-global-skills-report-the-skills-trends-shaping-the-future-of-education-and-employment/?utm_source=chatgpt.com
Fortune, 2025-08-17: https://fortune.com/2025/08/17/ceo-laid-off-80-percent-workforce-ai-sabotage/?utm_source=chatgpt.com
Gartner, 2025-07-29: https://www.gartner.com/en/articles/hype-cycle-for-genai?utm_source=chatgpt.com
LinkedIn Economic Graph, 2025: https://economicgraph.linkedin.com/content/dam/me/economicgraph/en-us/PDF/Work-Change-Report.pdf?utm_source=chatgpt.com
McKinsey, 2025-03-12: https://www.mckinsey.com/capabilities/quantumblack/our-insights/the-state-of-ai?utm_source=chatgpt.com
Udemy, 2025-02-27: https://about.udemy.com/udemy-business/q4-2024-global-workplace-learning-index/?utm_source=chatgpt.com
Washington Post, 2025-06-03: https://www.washingtonpost.com/business/2025/06/03/ai-workplace-duolingo-shopify-employees/?utm_source=chatgpt.com






