Lectura 6:00 min
La IA también escucha: salud mental en tiempos digitales

Nelly Acosta Vázquez | IA: Integrados y Apocalípticos
“No sé cómo superar la muerte de mi madre”. “¿Qué puedo hacer si mi jefe no deja de acosarme?”. “Dime cómo recuperar las ganas de vivir”.
Estas no son frases de películas ni ejemplos de libros de autoayuda. Son algunas de las preguntas más comunes que los usuarios le hacen a la Inteligencia Artificial. Sí, también en México. Y no, no son solo adolescentes confundidos o adultos “desinformados”.
Desde hace tiempo, el tema de la salud —física y mental— ha sido uno de los grandes ejes del desarrollo de la IA. Pero lo que pocos imaginaron fue que se convertiría en el confidente emocional y psicológico de millones de personas.
“Si digo abiertamente que uso ChatGPT cuando tengo ansiedad, seguro seré criticada. ¡Vaya loser! Pero la verdad es que cuando tienes una crisis a las 3 de la mañana, sin nadie a tu lado, platicar un poco con la IA se vuelve una opción muy viable. ¿También para esto es la tecnología, no?”, me comparte una mujer de 53 años, que desde la pandemia lidia con depresión tras perder a casi toda su familia.
No es un caso aislado. Ni es casualidad. La Organización Mundial de la Salud estima que 1 de cada 8 personas tiene algún trastorno mental (depresión, ansiedad, adicciones, etc), y que el 25% de la población lo experimentará en algún momento de su vida.
Según la psicóloga clínica Ana Andón, hoy la IA se ha convertido en una herramienta de primeros auxilios psicológicos: brinda orientación básica, sugiere ejercicios de autocuidado o ayuda a organizar emociones. “Desde mi experiencia profesional y personal, la terapia en línea o remota es una buena alternativa y también es efectiva. Uno de los grandes ejemplos de adaptabilidad se mostró durante el 2020 con la pandemia. Priorizar el contacto humano es fundamental, pero también la continuidad del proceso psicológico, sea cual sea su objetivo”, afirma.
Y aquí viene la paradoja: en muchos casos, resulta más fácil hablar con una IA desde el celular, que conseguir apoyo profesional. La saturación de los sistemas de salud, la falta de especialistas, el agotamiento del personal médico y las limitaciones económicas o de movilidad hacen que la IA parezca una opción viable y accesible para millones de personas, según explica Andón
Además, ofrece algo que muchas veces no brinda el entorno social: anonimato y confianza. “Para mí es más seguro platicar con ChatGPT que con desconocidos en redes sociales. En los grupos de apoyo nunca sabes quién está detrás. Y entre conocidos, siento que me juzgarían por admitir que no siempre estoy bien”, me comparte otra persona que pidió mantener el anonimato.
A título personal, puedo decir que he logrado entender mejor ciertos padecimientos —como la depresión o el TDAH— gracias a lo que he investigado con ayuda de IA. Claro, esto no reemplaza el criterio humano ni la experiencia clínica, pero puede ser un excelente punto de partida para ser más empáticos con estas situaciones.
Entonces, ¿significa esto que la IA va a sustituir a los psicólogos?
“De entrada, NO”, aclara Ana Andón. “La IA no es para tomar terapia o resolver problemas de salud mental. Sin embargo, en mi opinión, al igual que muchas de las herramientas o técnicas que suelen utilizarse en las diferentes teorías o corrientes psicológicas, puede ser un apoyo, por ser tan accesible a la población en general”.
Eso sí: hay límites importantes. Una IA no puede ofrecer conexión emocional, no comprende el contexto cultural del paciente, ni tiene la capacidad de adaptar el proceso terapéutico a cada caso único, como sí lo hace un profesional. Además, en muchos tratamientos, también se involucran familias o grupos, algo que la tecnología aún no puede suplir.
Entre las buenas noticias: sí hay proyectos mexicanos que ya dan buenos resultados en esta materia, como es el caso de Violetta y Psynder.
Violetta
Violetta es un chat mexicano de apoyo psicoemocional, diseñado principalmente para víctimas en riesgo de violencia de género, que proporciona contenido supervisado por especialistas.
Nació durante la pandemia y se lanzó públicamente en 2022. Ya acumula más de 250,000 conversaciones y, según sus datos, el 85% de las personas que la usan se sienten mejor después de interactuar con ella. Asegura que su IA es supervisada, es decir, no es generativa (como la de ChatGPT), sino que ha sido entrenada con más de 30,000 conversaciones reales para reconocer patrones de riesgo, como episodios de violencia en fechas clave. Y aquí, 65% de los usuarios accede al chat de forma anónima.
Psynder
Psynder es una app mexicana que combina IA, comunidad virtual, diario emocional, chatbots y acceso a psicólogos certificados.
Fue desarrollada en la UNAM por Edgar A. A. Ponce y ganó el Premio Innova UNAM ILAN 2023 por su propuesta de acompañamiento emocional 24/7. Su algoritmo busca empatizar con las emociones del usuario y conectar con profesionales adecuados.
No hay duda: cada vez surgirán más iniciativas como estas. La forma en la que hablamos de salud mental está cambiando, y también la manera de buscar apoyo.
“La clave fundamental es usarlas con precaución”, subraya la psicóloga Andón, especializada en migración y salud mental. “y siempre intentar priorizar el contacto y apoyo especializado cuando hay problemas de salud mental grave o la vida de la persona, su familia o terceras personas, puedan estar en riesgo”.
En un mundo sobre informado y ajetreado, quizá hablar con una Inteligencia Artificial sea el primer paso.
Qué no hacer con la IA
● Pedir que te haga un diagnóstico o te diga qué hacer en caso de tratamientos complejos.
● Usarla para aislarte de tus amigos, familia, mascotas o de otras personas.
● Ignorar señales de alarma pensando que la IA lo resolverá. Por ejemplo: pensamientos de hacerte daño.
● Creer que la IA "entiende" tus emociones. Recuerda: no tiene empatía real, solo simula respuestas.
● Dar datos personales sensibles. “Estoy sola y tengo miedo”.
● Seguir consejos peligrosos: “Prueba dejar tu medicación si te sientes mejor"
● Usarla en lugar de terapia para casos graves: esquizofrenia, trastorno bipolar, depresión mayor, trastorno obsesivo-compulsivo, entre otros.
● Caer en dependencia emocional: mantenerse chateando con la IA por horas o días.
Qué sí se puede hacer
● Pedirle a la IA recursos de autocuidado: una guía de meditación, llevar un registro emocional, un cuaderno de trabajo para las emociones, etc.
● Practicar conversaciones difíciles: ¿cómo pedir ayuda a un ser querido?, ¿cómo poner límites en el trabajo?, etc.
● Usarla como un puente hacia una terapia profesional.
● Usar Apps de IA con ética en salud mental: que esté respaldado por psicólogos reales y me contacte con un profesional, que no venda mis datos a terceros y no realice diagnósticos.
*Esta columna quincenal, llamada “IA: Integrados y Apocalípticos” filosofa sobre la Inteligencia Artificial, con sus pros y contras y cómo se va integrando en la vida cotidiana.

