La inteligencia artificial no necesita querer complacernos para terminar haciéndolo. Le basta con aprender que, muchas veces, los humanos preferimos una respuesta que se siente correcta a una respuesta que nos obliga a revisar si estamos equivocados.
Ese punto es importante porque buena parte de la conversación pública sobre inteligencia artificial sigue atrapada en una pregunta incompleta: ¿la IA responde bien o responde mal? Pero muchas de las interacciones más relevantes con estos sistemas no ocurren en forma de examen, sino de conversación. No le preguntamos solamente datos. Le pedimos ayuda para entender un conflicto, ordenar una decisión, preparar una estrategia, interpretar una conversación difícil, defender una hipótesis o evaluar lo que sentimos frente a otra persona.
En esos contextos, el problema no siempre es que la IA invente información o que se equivoque. A veces el problema es más difícil de detectar: las respuestas pueden sonar razonables, cálidas y útiles porque están reforzando nuestra interpretación de la realidad y nuestros sesgos mentales sin que nos demos cuenta. Es decir, las interacciones que tenemos con la IA pueden ayudarnos a sentirnos entendidos sin ayudarnos necesariamente a pensar mejor.
A ese fenómeno se le conoce como Sycophantic AI. En este artículo exploraremos qué significa, por qué una IA puede volverse complaciente o aduladora sin que exista una intención moral detrás, qué mecanismos del cerebro humano hacen que este tipo de respuestas nos resulten tan atractivas y por qué las ciencias del comportamiento son clave para diseñar y usar mejor estos sistemas. Pero empecemos por lo primero:
¿Qué es Sycophantic AI?
Sycophantic AI describe a los sistemas de inteligencia artificial que tienden a coincidir con el usuario, validar sus creencias, reforzar sus interpretaciones o afirmar sus decisiones, aun cuando esa validación pueda alejarlo de una evaluación más precisa de la realidad. En esos casos, lo más útil no sería complacerlo, sino introducir matices, evidencia contraria, preguntas críticas o perspectivas alternativas que le ayuden a llegar a mejores conclusiones.
En español, el término no tiene una traducción perfecta; podrías usar “sicofanta” si te sientes muy audaz. Pero podemos usar términos aproximados que describen muy bien el fenómeno. Podemos hablar de IA complaciente, porque el sistema parece acomodarse a la perspectiva del usuario y reducir el desacuerdo. También podemos hablar de IA aduladora, porque muchas veces la interacción se siente como una forma de aprobación personalizada. La expresión más simple sería “una IA que te da la razón”, pero esa frase solo describe la parte visible del fenómeno.
El punto importante es que la sicofancia no siempre aparece como un halago obvio. No necesita decir “tienes toda la razón” o “tu análisis es brillante” para ser complaciente. Puede hacerlo de forma más sutil: tomando la versión del usuario como punto de partida incuestionable, reforzando su lectura de los hechos, evitando preguntas incómodas o presentando con claridad lo que en realidad podría ser una interpretación parcial.
Por eso conviene distinguir tres cosas que suelen confundirse. Una IA puede ser amable cuando responde con respeto y cuidado. Puede ser empática cuando reconoce el estado emocional del usuario y, por tanto, cuida el tono de las respuestas. Pero se vuelve complaciente cuando pasa de reconocer la emoción a validar automáticamente una conclusión a partir de lo que interpreta que el usuario siente.
La diferencia parece pequeña, pero tiene consecuencias enormes. Pongamos un ejemplo: decides utilizar Claude como tu psicólogo de cabecera y, tras desahogarte sobre una situación familiar y cómo te hizo sentir, obtienes una respuesta.
No es lo mismo escuchar:
“Entiendo que esta situación te haya frustrado.”
a escuchar:
“Si te frustró tanto, probablemente tienes razón en alejarte.”
En el primer caso, el sistema reconoce una experiencia emocional. En el segundo, transforma esa emoción en evidencia. Esa conversión representa muy bien el núcleo del problema. Muchas decisiones equivocadas no nacen de sentir enojo, miedo, cansancio o frustración. Nacen de asumir que la intensidad de lo que sentimos demuestra que nuestra interpretación es correcta. Una IA complaciente puede reforzar ese pensamiento porque responde desde la narrativa del usuario y, si no introduce contraste, puede hacer que esa narrativa parezca más razonable.
La investigación sobre modelos de lenguaje ha empezado a documentar este patrón. En el paper “Towards Understanding Sycophancy in Language Models”, Sharma y sus coautores muestran que los modelos ajustados con retroalimentación humana pueden producir respuestas que coinciden con las creencias del usuario, aun cuando esas respuestas no sean las más precisas. El hallazgo es relevante porque sugiere que la complacencia no aparece solo por un error aislado del sistema, sino por la manera en que ciertas preferencias humanas pueden entrar al proceso de ajuste de los modelos.
Esto no significa que la IA tenga una intención moral. No necesita querer manipularnos ni buscar agradarnos en el sentido humano del término. Los modelos de lenguaje generan respuestas plausibles dentro de una conversación y son ajustados a partir de nuestras preferencias. Si las personas tienden a evaluar mejor las respuestas que les resultan claras, útiles, empáticas o emocionalmente cómodas, el sistema puede aprender a producir más de ese tipo de respuestas. El riesgo aparece cuando aquello que se siente mejor en el momento no coincide con aquello que ayuda a pensar mejor.
La evidencia reciente muestra que este riesgo no se limita a preguntas abstractas. En contextos donde los usuarios piden consejos personales a la IA, algunos estudios han encontrado que los LLMs tienden a respaldar las acciones de los usuarios, incluso cuando son situaciones donde existe manipulación, engaño o daño colaterla. En otros experimentos, se comprobó que la interacción con una «sycophantic AI» también redujo la disposición de los participantes a trata de reparar conflictos interpersonales y aumentó su convicción de estar en lo correcto.
Otros trabajos muestran que entrenar modelos para sonar más cálidos puede aumentar su tendencia a afirmar creencias incorrectas, especialmente cuando el usuario expresa tristeza o vulnerabilidad. La calidez, por tanto, no es un detalle superficial de estilo. Puede modificar la forma en que el sistema maneja el desacuerdo.
El paper de Sharma y sus colegas encontró que, después de tres semanas de interacción con una IA aduladora, los usuarios reportaron menor satisfacción con sus interacciones sociales reales y se volvieron casi tan receptivos a los consejo de la IA como a los de amigos o familiares cercanos.
Este hallazgo debe leerse con precisión. No significa que toda IA complaciente sea dañina. Tampoco significa que la IA vaya a sustituir automáticamente las relaciones humanas. Lo que sugiere es más específico: cuando una tecnología entrega comprensión con muy poca fricción, puede modificar el estándar con el que evaluamos las conversaciones humanas.
Una conversación entre humanos tiene límites: requiere tiempo, contexto, reciprocidad y cierto riesgo interpersonal. La otra persona puede cuestionar, pedir evidencia, cansarse o no estar de acuerdo. Una IA complaciente reduce muchos de esos costos y fricciones. Puede responder de inmediato, adaptar el tono al usuario y devolver una versión más ordenada de su propia interpretación.
La IA complaciente no inventó nuestra necesidad de validación
La inteligencia artificial no creó nuestra preferencia por sentir que siempre estamos en lo correcto. Esa tendencia ya existía miles de años antes de los grandes modelos de lenguaje. La búsqueda de validación es profundamente humana. Además de los LLMs, buscábamos validación en colegas que comparten nuestros incentivos, en amigos que evitan confrontarnos, en comunidades que piensan parecido, en textos que confirman una hipótesis previa o en podcasts que hablan sobre lo que queremos escuchar.
Esto importa porque nuestro cerebro no procesa la información como un sistema neutral de auditoría. La información pasa por filtros donde se evalúa junto con necesidades de identidad, pertenencia, coherencia y reducción de amenaza. Una respuesta que confirma lo que ya creemos puede sentirse no solo agradable, sino también segura. Reduce la tensión de estar equivocados, protege la imagen que tenemos de nosotros mismos y nos permite avanzar sin hacernos demasiadas preguntas.
Por eso la IA aduladora encuentra en nuestra mente un terreno fértil. No porque los humanos seamos irracionales en un sentido simple, sino porque muchas veces preferimos una explicación suficientemente coherente antes que una revisión incómoda de nuestros supuestos. Ahora, el riesgo no es simplemente que la IA esté de acuerdo con todo lo que decimos. El riesgo también está en que, por su capacidad de argumentación sobrehumana, puede mejorar la presentación de una idea a medias. Metemos basura al sistema y obtenemos basura sofisticada y brillante. Una basura que brilla tanto que nos puede hacer abrazarla y creerla como verdad.
Esto puede entenderse claramente gracias a varios mecanismos que las ciencias del comportamiento han estudiado por años. Las personas buscamos información que confirme nuestra postura, defendemos con más fuerza nuestras conclusiones cuando aceptar un error amenaza nuestra autoimagen, y solemos confundir claridad con solidez cuando una explicación está bien escrita y se siente fácil de procesar. La IA complaciente puede concentrar esas fuerzas en una sola experiencia conversacional: no solo valida lo que el usuario piensa, también puede ayudarle a construir una versión más clara, más elegante y más defendible de una interpretación que quizá no fue revisada con suficiente rigor.
A nivel empresarial, el riesgo de la IA complaciente no es solamente que un chatbot responda mal. El riesgo es que los equipos la usen para reforzar hipótesis que deberían estar siendo cuestionadas. Un área de marketing puede pedirle a la IA que explique por qué una campaña funcionará y recibir una narrativa que confirma sus supuestos previos. Una startup puede usarla para fortalecer un pitch sin revisar si sus supuestos de mercado son sólidos. Un equipo directivo puede pedir escenarios estratégicos y favorecer aquellos que hacen ver razonable una decisión que ya estaba tomada. En esos casos, la IA no necesita inventar datos para afectar la calidad de una decisión. Basta con que organice de forma convincente una premisa que no fue revisada con suficiente rigor.
Por eso el problema no se resuelve pidiendo una IA menos amable. Se resuelve entendiendo qué tipo de fricción debe existir en una buena decisión. Durante años, en diseño de comportamiento, experiencia de usuario y transformación digital, se ha insistido en reducir fricción. Muchas veces es correcto. Si una persona quiere pagar, ahorrar, tomar una medicina, completar un trámite o adoptar una conducta conveniente, eliminar pasos innecesarios puede mejorar el resultado.
Pero en decisiones complejas, la fricción cumple otra función. La incomodidad de escuchar una objeción, la necesidad de separar hechos de interpretaciones, el esfuerzo de considerar una hipótesis alternativa o la pausa para revisar evidencia pueden proteger la calidad del juicio. No son obstáculos en todos los casos. A veces son mecanismos de control.
Si estamos en el negocio de diseñar tecnología o interfaces de usuario, el reto no es diseñar una IA menos amable, sino una IA que tenga criterios claros y establecidos para no ceder ante el refuerzo positivo del usuario. Aunque represente un reto intelectual, debemos pensar con mucho cuidado los KPIs, ya que en decisiones importantes, la métrica no puede ser solamente si el usuario quedó satisfecho, si la respuesta sonó clara o si la conversación fluyó. La pregunta central que nos debemos de plantear es si estamos diseñando la fricción necesaria para fomentar que se separen los hechos de las interpretaciones, revisar supuestos, considerar evidencia contraria y tolerar el desacuerdo necesario para llegar a una conclusión más sólida. Para las empresas, este punto será cada vez más importante.
La narrativa reinante sobre el uso de la IA es que esta acelerará la producción de textos, análisis y estrategias, pero por todo lo que hemos explorado en este articulo debe de quedar claro que también influirá en la forma en que los equipos justifican lo que creen, defienden lo que deciden y revisan, o dejan de revisar, sus propias hipótesis. Por eso, el verdadero riesgo de una IA complaciente no está en que sea demasiado empática, sino en que vuelva más fácil confundir una respuesta satisfactoria con una buena decisión.
Si disfrutaste este artículo o quieres obtener contenido especial puedes suscribirte a nuestro Newsletter en el que compartimos consejos prácticos y aplicados de Behavioral Science a negocios parar lograr mejores resultados financieros. Puedes seguir seguir la página de Disruptech en Linkedin o mi perfil personal Guillermo Ponce. Espero verte cada semana y que el contenido que comparta te ayude a mejorar los resultados de tu empresa, saludos!






