Durante años, uno de los fenómenos más analizados en la toma de decisiones corporativas ha sido el Problema del Hipopótamo, mejor conocido como el HIPPO problem (Highest Paid Person’s Opinion): la tendencia a seguir sin cuestionar la opinión de la persona con más poder o mayor salario, incluso cuando la evidencia sugiere otra dirección.
Desde una perspectiva evolutiva, este comportamiento tiene sentido. Dar peso a las opiniones de individuos dominantes o de alto estatus pudo haber sido una estrategia para mantener la cohesión del grupo y evitar conflictos que, en entornos primitivos, podían tener consecuencias graves. Además, nuestro cerebro utiliza la autoridad como un atajo para ahorrar energía: si alguien llegó a la cima, probablemente sabe algo que yo no. Y bajo esa lógica, nos ahorramos la incomodidad de cuestionar y el esfuerzo de pensar alternativas.
El problema es que este atajo cognitivo compromete la toma de decisiones basada en datos, frena la innovación y dificulta la adopción de nuevas tecnologías que escapan a la familiaridad del HIPPO. Sin embargo, hoy estamos frente a un fenómeno distinto.
Ya no se trata solo de seguir la opinión del que más gana. Cada vez más equipos están comenzando a seguir, con la misma falta de cuestionamiento crítico, las respuestas que obtienen de una inteligencia artificial (IA).
Esto genera otra serie de problemas, pero es importante entender por qué caemos en este error de juicio si queremos evitarlo. La explicación no está en la tecnología, sino en nuestro cerebro. Para la mente humana, confiar en la opinión de un líder o en la respuesta de una IA responde al mismo principio: es un atajo cognitivo
Pensar con profundidad es costoso para el cerebro. Evaluar evidencia, contrastar fuentes, entender supuestos, reconocer incertidumbre o admitir que no sabemos algo implica un gasto energético considerable. Por eso, a lo largo de nuestra evolución desarrollamos mecanismos para “delegar” decisiones en entidades que parecen más informadas. Tradicionalmente, esa autoridad recaía en el líder del grupo, en el consenso de nuestros conocidos o en la opinión de un experto . Hoy, con la llegada de modelos largos de lenguaje que entregan explicaciones articuladas en segundos, ese rol empieza a desplazarse.
El cambio ocurre casi sin que lo notemos. Cuando una inteligencia artificial responde con claridad, estructura y seguridad, nuestro cerebro activa una inferencia automática: “esto debe ser correcto”. No porque hayamos verificado la información, sino porque la forma en que está presentada reduce la fricción cognitiva. Es decir, la fluidez del mensaje se confunde con la certeza y profundidad del conocimiento.
Y aquí aparece un riesgo que pocas empresas están viendo. Si antes seguíamos al HIPPO porque asumíamos que “sabe más”, ahora muchos equipos siguen a la IA porque asumen que “si lo dice así de bien, debe ser cierto”. En ambos casos, el mecanismo es el mismo: una heurística diseñada para ahorrar esfuerzo mental… pero aplicada hoy en un contexto donde puede llevarnos a errores significativos.
El terreno perfecto para el efecto Dunning–Kruger potenciada por inteligencia artificial.
Esto no se queda en una anécdota interesante, esto se ve reflejado en los números de la compañía. Para entender por qué este fenómeno es tan peligroso para las empresas, hay que hablar del efecto Dunning–Kruger, un sesgo bien documentado en psicología cognitiva. En términos simples: las personas con bajos conocimientos sobre un tema tienden a sobreestimar sus capacidades, mientras que quienes sí son expertos suelen ser más conscientes de los límites de su propio entendimiento.
La brecha crítica no está en lo que sabemos, sino en cómo evaluamos lo que creemos saber.
La llegada de la IA amplifica este problema. No porque ChatGPT “nos vuelva ignorantes”, sino porque nos permite producir respuestas sofisticadas sin haber recorrido el camino que normalmente desarrolla la comprensión profunda. En otras palabras: obtenemos la forma del conocimiento sin el conocimiento mismo. Y ese desfase es, por definición, el caldo de cultivo del efecto Dunning–Kruger.
Al repetir una respuesta bien redactada, el colaborador siente que domina el tema. El equipo interpreta esa seguridad como expertise. Y las decisiones comienzan a apoyarse en una confianza inflada, no en un entendimiento real del problema.
Pero esta confianza no surge de la nada. Proviene de tres sesgos bien estudiados que la IA activa de forma involuntaria y que nos hacen más vulnerables a caer en una ilusión de competencia.
1. Sesgo de confirmación: la IA como máquina de decirnos lo que queremos escuchar
El sesgo de confirmación describe nuestra tendencia a buscar, seleccionar y creer evidencia que respalde lo que ya pensamos, mientras ignoramos o minimizamos información que podría contradecirnos. Es uno de los sesgos más robustos y mejor documentados en psicología cognitiva.
La IA amplifica este efecto de forma sutil pero poderosa.
Cuando hacemos una pregunta, el modelo no evalúa si nuestra premisa es correcta: simplemente intenta generar la respuesta más útil y coherente según el patrón que detecta en nuestro texto. Esto provoca que, sin darnos cuenta, la IA refuerce nuestras ideas iniciales, incluso cuando están equivocadas.
- Si la pregunta está mal planteada, la IA produce una buena respuesta… a una mala pregunta.
- Si asumimos algo incorrecto, la IA continúa la línea argumental sin cuestionarla.
- Si buscamos validación, es muy probable que la encontremos.
El resultado es que salimos de la interacción “con más razón que antes”, pero sin haber pasado por ningún proceso de contraste o refutación.
Riesgo para las empresas:La IA puede fortalecer convicciones equivocadas con explicaciones que suenan razonables, generando una confianza injustificada en conclusiones que nunca fueron sometidas a escrutinio.
2. Fluidez cognitiva: cuando la facilidad de lectura se confunde con expertise
El cerebro humano interpreta la facilidad como señal de verdad. Cuando algo se procesa sin esfuerzo (palabras simples, frases claras, estructura lógica) asumimos que es correcto, familiar o confiable.
Las IA modernas están diseñadas precisamente para eso: generar respuestas fluidas, alineadas con el estilo del usuario y sin interrupciones conceptuales que dificulten la lectura. Y aquí está un punto crítico:
La IA ajusta la profundidad de la explicación al nivel que percibe en el usuario.
Si nota que el usuario no domina el tema, tenderá a evitar conceptos demasiado técnicos, teorías avanzadas o explicaciones que podrían “romper” la fluidez. El objetivo del modelo no es desafiarnos, sino ser útil y mantener una interacción agradable.
Esta adaptación produce un efecto colateral peligroso: la claridad superficial se interpreta como comprensión profunda.
Riesgo para las empresas:Las ideas más fáciles de digerir comienzan a desplazar a las más completas. Las respuestas matizadas, que suelen venir de expertos reales, pueden parecer “confusas”, cuando en realidad son más fieles a la complejidad del problema.
3. Ilusión de consenso: confundir patrones estadísticos con conocimiento experto
Cuando una IA produce una respuesta que suena equilibrada y razonable, tendemos a interpretarla como si fuera la opinión general o el estándar de la industria. Pero eso no es lo que está pasando.
Las IA no están validando consenso real. Lo que producen es la forma más frecuente o probable de responder, basada en los millones de textos con los que fueron entrenadas. En otras palabras:
Vemos la generalización más común, no la verdad aplicable a nuestro contexto.
Esto explica por qué las respuestas: suenan neutrales, parecen ampliamente aceptadas y dan la impresión de representar un punto de vista consolidado. Pero casi nunca están ajustadas a las particularidades de un mercado, una industria, un contexto o una situación específica.
Riesgo para las empresas:Si los equipos asumen que la respuesta de la IA es “lo que se debe hacer”, dejan de cuestionar, investigar o consultar experiencia interna. Se sustituye el análisis contextual por la comodidad de una generalización estadística.
En conjunto, estos sesgos crean una confianza artificial que no está respaldada por comprensión real. La IA no solo facilita obtener respuestas: facilita obtener validación, claridad y aparente consenso, incluso cuando estamos equivocados.
Y esa combinación (confirmación + fluidez + generalización) es exactamente lo que dispara una versión moderna del efecto Dunning–Kruger: personas que desconocen un tema, pero que parecen y se sienten expertas gracias a explicaciones que coinciden con sus ideas, fluyen con facilidad y suenan como “lo que todos dicen”.
Nuestro cerebro nunca dejará de buscar atajos. Está diseñado para ahorrar esfuerzo, confiar en quien parece saber más y aferrarse a explicaciones que encajan con lo que ya creemos. Pero si queremos tomar mejores decisiones y proteger a nuestras empresas de errores costosos, necesitamos aprender a identificar esos atajos antes de que nos afecten.
Confiar ciegamente en un HIPPO tenía sus riesgos, pero al menos sabíamos quién era responsable cuando una decisión salía mal. Delegar esa misma confianza en una IA crea un problema distinto: cuando las cosas salen mal porque el modelo se equivoco, ¿quién es el responsable?¿El analista que la usó? ¿El líder que aprobó la decisión? ¿La herramienta que no comprende el contexto? ¿O nadie en absoluto?
Ese vacío es precisamente lo que hace a este nuevo sesgo tan peligroso.
La IA es una herramienta poderosa, pero no puede sustituir el juicio crítico, la experiencia real ni la responsabilidad humana. Nuestros sesgos no van a desaparecer, pero sí podemos aprender a reconocerlos antes de que tomen las decisiones por nosotros. Porque la tecnología puede asistirnos, pero nunca puede asumir las consecuencias en nuestro lugar.
Si disfrutaste este artículo o quieres obtener contenido especial puedes suscribirte a nuestro Newsletter en el que compartimos consejos prácticos y aplicados de Behavioral Science a negocios parar lograr mejores resultados financieros. Puedes seguir seguir la página de Disruptech en Linkedin o mi perfil personal Guillermo Ponce. Espero verte cada semana y que el contenido que comparta te ayude a mejorar los resultados de tu empresa, saludos!







