En este final del año, toca hablar de uno de los temas más presentes en nuestro día a día en este 2025, la IA. Empezaré confesando que utilizo la inteligencia artificial casi a diario. Sobre todo en el trabajo, para pensar y delimitar mejor, ordenar ideas, acelerar procesos o contrastar enfoques. Me parece una herramienta extraordinaria, probablemente una de las más potentes que hemos incorporado a nuestra vida cotidiana desde internet. Conocer sus posibilidades —y también sus límites— no es solo una cuestión técnica, sino casi una obligación cívica. Porque alrededor de la IA se ha formado una mezcla extraña de entusiasmo legítimo, burbuja económica, fe casi religiosa y también un uso, en demasiadas ocasiones, francamente estúpido.
Digo estúpido no como insulto, sino como descripción funcional: un uso desproporcionado, acrítico, mal orientado y, por momentos, profundamente irresponsable. No solo por el enorme gasto de recursos materiales y energéticos que conlleva, sino por los problemas psicológicos que puede ocultar, amplificar o directamente legitimar.
Y es ahí donde, con el paso del tiempo y del uso, he empezado a notar algo que me inquieta más que los grandes discursos apocalípticos sobre máquinas que nos dominarán.
Si tenemos un problema personal y se lo contamos a la IA, y luego se lo contamos a un amigo, es muy posible que las respuestas no sean muy diferentes. A primera vista, esto podría interpretarse como un triunfo tecnológico: la máquina nos “entiende” tan bien como una persona cercana. Pero sospecho que la realidad es bastante menos halagadora.
No creo que la IA nos conozca como un amigo. Diría, más bien, que muchos amigos ya no se comportan como tales. Hemos rebajado tanto la exigencia de nuestros vínculos que hemos acabado normalizando una versión muy pobre de la amistad: aquella que no incomoda, no cuestiona y no contradice. La IA no sustituye al amigo crítico; sustituye al amigo domesticado que ya teníamos. Vaya novedad.
En ese contexto, la IA encaja como un guante. Responde con educación, con comprensión, con empatía medida. Escucha sin cansarse y no se molesta cuando repetimos la misma queja por quinta vez. Y, sobre todo, rara vez nos dice algo que no queremos oír. No se trata de que la IA “quiera” darnos la razón. Se trata de que está diseñada para ser útil, amable y no conflictiva. Para reducir fricción, no para generarla. Ante un relato personal, su comportamiento por defecto es validar el marco que le ofrecemos, salvo que le pidamos explícitamente lo contrario.
Esto tiene una consecuencia importante: en conflictos personales, donde el lenguaje ya es selectivo y autojustificativo, la IA actúa como un amplificador de nuestro propio sesgo. No porque mienta, sino porque no tiene manera de contrastar. No tiene ojos, ni piernas, ni memoria compartida, ni conocidos que le digan: “Esto no fue exactamente así”.
Un amigo de verdad sí tiene todo eso. Por eso puede resultar incómodo. Pero, por eso mismo, a veces preferimos no preguntarle.
Además, hay algo más en este enfoque que con el tiempo uno descubre, resultando inquietantemente sencillo: dirigir a la IA hacia la conclusión que uno desea. Basta con reformular la pregunta, insinuar que la respuesta anterior no captó bien la situación o añadir detalles cuya veracidad no puede comprobar. No es engaño en sentido estricto; es narrativa. Y en los conflictos personales, la narrativa es casi siempre interesada.
Si uno solo quiere escuchar que “no es culpa suya”, la IA es una herramienta perfecta. Está siempre disponible, no discute, no se enfada y no rompe la relación. El problema es que eso no nos ayuda a entendernos mejor; solo nos ayuda a sentirnos mejor durante un rato.
Cuando hablamos con la IA de cuestiones personales, el tono que adopta puede resultarnos curiosamente familiar: una mezcla de autoayuda, divulgación psicológica y consulta online de bajo coste. Frases correctas, bienintencionadas, emocionalmente templadas. El tipo de lenguaje que tranquiliza, pero rara vez sacude.
No es casual. Gran parte de los recursos y fuentes de las que se alimenta proceden de blogs de psicología divulgativa, crecimiento personal, coaching de saldo y literatura motivacional. No de experiencia vivida —porque no la tiene— ni de las grandes obras de la literatura universal, donde el conflicto humano aparece en toda su crudeza, ambigüedad y contradicción.
El resultado es una simulación de profundidad: nos sentimos escuchados, comprendidos y acompañados, pero sin riesgo, sin compromiso y sin la posibilidad de decepcionar a quien nos escucha. Una relación sin consecuencias.
Podríamos decir que el problema no es hablar con la IA de asuntos personales. El problema es usarla para blindar nuestro propio relato. Para confirmar que siempre somos víctimas, que siempre tenemos razón, que el problema está fuera.
Ese uso no es solo un riesgo individual. Es un riesgo social. Una tecnología que, mal utilizada, refuerza la autoindulgencia y debilita la capacidad de autocrítica no nos hace más libres, sino más frágiles.
Y conviene decirlo con claridad: la IA no crea este problema. Lo amplifica. Se apoya en una cultura que ya confunde cuidado con ausencia de conflicto, apoyo con asentimiento y bienestar con no sentirse cuestionado.
La diferencia es que ahora ese espejo complaciente está disponible a cualquier hora, no se cansa y no nos abandona aunque abusemos de él.
Pese a todo lo anterior, no escribo esto desde el rechazo ni desde el miedo. Al contrario. Creo que la IA puede ser una herramienta extraordinariamente valiosa si la usamos con un mínimo de madurez.
Porque el problema no es la inteligencia artificial, sino lo que estamos dispuestos a entregar para que funcione. El debate sobre la IA no debería tratar sobre tecnología, programación ni prompts, sino sobre nosotros, sobre cómo, fascinados por la eficiencia y la velocidad, estamos delegando algo esencial —el juicio humano— a máquinas que no dudan, no fallan y no sienten culpa, diseñadas justo para lo que queremos, no para lo que necesitamos. Podemos automatizar procesos y decisiones pero no la inteligencia, que depende del sentimiento, ni, por tanto la sabiduría y el conocimiento humano, que conllevan decidir con conciencia, con error y con memoria moral.
Quizá el uso más honesto de la IA en lo personal no sea pedirle consuelo, sino fricción. No que nos diga que tenemos razón, sino que explore hipótesis alternativas, que señale sesgos posibles, que actúe como abogado del diablo. No porque así se convierta en un amigo —no lo será—, sino porque al menos dejamos de usarla como coartada emocional.
La IA no debería sustituir ni a los amigos incómodos ni a la literatura que nos confronta ni al pensamiento crítico que duele un poco. Pero sí puede ayudarnos a pensar mejor si aceptamos que pensar mejor no siempre es pensar más cómodo.
No estamos ante una tecnología malvada ni ante una salvación milagrosa. Estamos ante un espejo. Y los espejos, ya se sabe, no mienten, pero tampoco dicen toda la verdad.
El futuro de la IA no dependerá solo de su potencia, sino de nuestra disposición a usarla sin convertirla en el cómplice perfecto de nuestras peores tendencias. Si somos capaces de hacerlo, quizá no nos dé siempre la razón. Y tal vez eso sea, paradójicamente, la mejor noticia.