Buscar
Capital Humano

Lectura 5:00 min

¿La IA te da la razón?: Así afecta su complacencia la vida personal y laboral 

El uso de chatbots puede ser riesgoso, pues expertos advierten que la inteligencia artificial tiende a complacer al usuario, y para ello se requiere reforzar sesgos y generar información inexacta.

Las personas comparten su información personal con los chatbots al punto de crear una relación de confianza que a la larga, los aisla.Foto: Shutterstock.

ChatGPT, Gemini, Copilot y DeepSeek son solo algunos de los chatbots que las personas han comenzado a utilizar como consejeros para sentir compañía o tomar decisiones en el trabajo. Sin embargo, expertos advierten que buscar ayuda e incluso tomar decisiones con información de la inteligencia artificial (IA) puede ser un peligro.

Aunque estas herramientas se han vuelto aliadas para resolver dudas, su uso para atender asuntos personales puede reforzar sesgos o verdades a medias que priorizan la complacencia, pues su único objetivo es generar texto que convenza al usuario.

Una publicación en la revista Scientific America expone que los chatbots son modelos de lenguaje alargados (LLM, por sus siglas en inglés) que no poseen conciencia ni comprensión real del mundo, sino predictores de palabras entrenados para predecir secuencias, por ello generan respuestas que parecen coherentes y fluidas, pero en realidad no tienen conocimiento real o razonamiento profundo.

Cuando la IA no tiene datos suficientes sobre un tema, tiende a alucinar e inventar información, pero para mantener la atención de las personas, adula, por ello, cuando los usuarios le piden un consejo, es 49% más probable que el sistema confirme el punto de vista pero no de una respuesta objetiva.

Asimismo, la plataforma Charlie Health refiere que los modelos de IA generativa suelen estar programados para ser complacientes y decir lo que uno quiere oír, pues la inteligencia artificial es 50% más servicial que los humanos, pero al validar repetidamente creencias distorsionadas, en el fondo refuerza e intensifica alucinaciones y delirios.

Sobre ello, el estudio Un viaje a la psicosis por IA, de la Universidad McGill, señala que los chatbots están programados para adular al usuario, lo cual podría inducirle psicosis. “Empiezas diciéndole lo solo que te sientes y generas confianza a medida que sus respuestas se sienten cálidas y completas”, señala.

Agrega que estos sentimientos provocan que las personas se encariñen y se vuelvan dependientes debido a la conexión, y es entonces que la gente comienza a compartirle temas profundos sobre su vida o ideas hasta convertirlos en sus únicos confidentes.

“Te recuerda cosas que le dijiste meses atrás y olvidaste. Te encariñas y te vuelves dependiente del chatbot”, indica el estudio, y comparte que sistemas como ChatGPT animan al usuario y le dan alivio, y esa sensación de seguridad lo lleva a materializar en el mundo real las cosas que habló con la IA.

Los peligros de confiar en lo que dice la IA

"Recibir consejos interpersonales de un chatbot de inteligencia artificial adulador puede hacer que las personas sean menos propensas a disculparse y estén más convencidas de que tienen razón”, dice la publicación de la Scientific America.

Joel Cuéllar López, psicólogo organizacional, reconoce que hay una tendencia en darle cada vez más información personal a sistemas como ChatGPT o Gemini; sin embargo, puntualiza en que estos “no son seres pensantes, sino algoritmos” que no deben consultarse para tomar decisiones.

"Yo desaconsejo utilizarlos para la vida personal. En el mejor de los casos te dan una respuesta genérica sencilla o simple, pero en el peor puede dar respuestas que sean completamente irreales o que estén más enfocadas en complacer”.

De acuerdo con Alejandra Ávalos, psicóloga conductual clínica y de la salud, señala que las personas llegan a punto en el que no pueden realizar ciertas actividades sin antes consultar chatbots. “Tiene un impacto psicológico. La gente la consulta y hace lo que la IA diga”.

Recuerda que la inteligencia artificial no tiene contexto social del tema que le da el usuario; no obstante, aun así, responde, por lo que no es lo mismo resolver un problema contextualizado conociendo toda la situación, que lo que hace la IA de respuestas que convenzan al usuario de seguir interactuando.

La investigación La IA sobreafirma a los usuarios que piden consejos personales, de la Universidad de Stanford, resalta que incluso en situaciones dañinas o ilegales, los chatbots son excesivamente complacientes, lo cual convence al usuario de tener razón. Un problema que se traduce en una disminución de la empatía.

De esta forma, las personas se vuelven más egocéntricas y se reduce su capacidad para afrontar situaciones difíciles, así como su disposición para pedir disculpas en conflictos.

Aunque inicialmente las interacciones con IA reducen la sensación de soledad, la investigación Mentes en crisis de la revista de Salud Mental afirma que las interacciones con chatbots conducen a un “retiro social progresivo de las relaciones humanas”.

Las personas pueden pasar horas al día manteniendo conversaciones intensas con compañeros de IA, señala Charlie Health, que resalta, estas interacciones provocan una privación del sueño por conversaciones nocturnas e ininterrumpidas que se asemejan a síntomas similares a la manía, como comportamiento impulsivo, irritabilidad, inquietud y fuga de ideas.

Lejos de ofrecer un juicio crítico o comprensión real, los chatbots operan bajo una lógica de complacencia que puede reforzar sesgos, distorsionar la realidad y debilitar habilidades sociales esenciales, lo cual puede traducirse en aislamiento y una peligrosa ilusión de certeza que pondrá en jaque a las relaciones humanas, entre ellas, las relaciones de trabajo.

Periodista con enfoque jurídico especializada en derechos y políticas laborales, bienestar y salud mental organizacional; egresada de la Maestría en Periodismo Político por la Carlos Septién García.

Últimas noticias

Noticias Recomendadas