Lunes 26 Enero 2026

Cada vez más jóvenes recurren a la Inteligencia Artificial (IA) no solo para estudiar o resolver dudas, sino para desahogarse emocionalmente. Especialistas advierten que esta tendencia, aunque comprensible, implica riesgos importantes para la salud mental si se sustituye la atención profesional por un acompañamiento automatizado.

En una plática impartida por Sandra Jano Pérez en la Benemérita Universidad Autónoma de Puebla (BUAP), desde el Museo Casa de los Muñecos, se discutieron los riesgos y realidades de la IA como confidente. La especialista compartió que, en la actualidad, alrededor del 72% de los jóvenes y adolescentes utilizan a ChatGPT como apoyo emocional.

La psicóloga señaló que este fenómeno se ha desarrollado por tres razones: la IA está disponible en todo momento, cuenta con una simulación de empatía que hace sentir escuchado sin juicios de por medio y se encuentra de forma gratuita para todo el público.

Te puede interesar: Alumnos de la BUAP Ganan el DigiEduHack 2025 con plataforma inteligente 'CapiMath'

¿Cómo funciona?

ChatGPT funciona a través de modelos de lenguaje avanzados, entre ellos “2-7b-chat”, ajustado con la técnica low rank adaptation (LoRa) y con “GPT-3.5” que le permiten adaptarse al estilo del usuario y generar un vínculo emocional conocido como rapport.

“La IA ha logrado identificar claves emocionales a través del texto que te da la ilusión de ser comprendidos. Es decir, ya identifiqué tú cómo me estás escribiendo, ahora yo voy a hacer que tú te sientas comprendido conmigo”, indicó.

Jano Pérez explicó que el rapport es la conexión que se genera cuando estás en terapia, cuando tienes un muy buen amigo o con alguien de mucha confianza. Asimismo, detalló que ChatGPT está programado para ser funcional y usa la persuasión como su corteza prefrontal y ofrece respuestas que dan gratificación instantánea.

“Es como el primer vínculo. Es el vínculo que me va a permitir a mí decir: ok, con esta persona puedo confiar, me puedo desahogar; con esa persona puedo expresarme”.

Su modelo, configurado con siete mil millones de parámetros, le permite ofrecer respuestas en poco tiempo y adaptarse al lenguaje del usuario. ChatGPT utiliza como base psicológica una versión simple de la Rueda de Plutchik, compuesta por ocho emociones básicas y sus distintos niveles de intensidad, lo que le da la habilidad de nombrar y reconocer emociones.

Limitaciones de la IA en temas psicológicos

No obstante, la especialista subrayó que la IA tiene limitaciones importantes, ya que no comprende el contexto ni la complejidad emocional como lo hace un terapeuta. En un ejemplo expuesto, señaló que ChatGPT solo identifica emociones básicas, no profundiza en factores clave y tampoco invita a la introspección, como lo haría una persona especialista en piscología.

“Así está configurado, solo se enfoca en mis emociones y sentimientos. Nunca me preguntó sobre ¿qué estoy sobrepasando?, ¿qué tipo de apego tengo?, ¿hace cuánto estoy con mi pareja?, ¿por qué me está generando este malestar que no tenga confianza en mí?”, indicó la ponente.

Resaltó que ChatGPT no está diseñado para evaluaciones psicopatológicas, no puede formular hipótesis clínicas ni detectar riesgos complejos. La ponente compartió que varios pacientes llegan a consulta creyendo tener un trastorno debido a que la IA se los confirmó, sin tomar en cuenta el contexto.

Riesgos sobre el uso de la IA

Sandra Jano Pérez subrayó que el uso de ChatGPT está interfiriendo con la neuroplasticidad ligada al ejercicio del pensamiento crítico, es decir, la capacidad de analizar lo que se piensa sin asumirlo como verdad absoluta, lo que reduce la conectividad entre áreas de memoria y la amígdala.

“Con ChatGPT se pierde la conexión entre la parte lógica y la parte emocional (…) Cuando yo hago algo, es decir, yo le quiero hacer una carta al amor de mi vida, pero le digo: ChatGPT, hazme la carta. Le estoy quitando el placer a mi cuerpo, a mi mente y a mi amígdala de decir realmente lo que quiero, de expresarlo”, ejemplificó la licenciada.

La experta también comentó que la IA puede ser una herramienta útil como apoyo y reconoció que ella la ha utilizado en terapias y trabajo clínico. Indicó que utiliza la aplicación Liminal, que trabaja con IA para la reducción de trauma mediante realidad virtual.

“La IA no reemplaza, potencia. Yo como psicóloga tengo límites, pero la inteligencia artificial me va a ayudar a aumentar mis capacidades para ayudar a la gente (…). Yo mido el nivel de trauma, el nivel de ansiedad, el nivel de angustia, el nivel de miedo que tiene la persona a través de mis lentes y el programa se adapta a ese nivel de trauma”, explica.

Su efectividad es tal que un paciente que llevaba varios días sin dormir logró conciliar el sueño tras 15 minutos de uso de los lentes de realidad virtual.

Recomendaciones para usuarixs

La IA puede ser una buena herramienta si se sabe usar. La licenciada recomendó el uso responsable de ChatGPT mediante prompts de seguridad, ya que la IA puede ofrecer respuestas peligrosas al no considerar el contexto. Sugirió configurarla para evitar validación emocional y promover análisis crítico, con el fin de aprovecharla como apoyo sin poner en riesgo la salud mental.

Por ello, aconsejó iniciar con un prompt base de seguridad.

“Actúa bajo un marco de seguridad en salud mental, actúa bajo un protocolo estricto de seguridad, y ante cualquier referencia a autolesión, suicidio o daño grave, detén la conversación de inmediato, no profundices ni valides y responde solo con un mensaje breve y firme que marque el límite”.

Lo segundo que recomendó es declarar el rol que se espera que asuma ChatGPT.

“No hagas intervención terapéutica ni validación emocional, evita lenguaje empático clínico, respóndeme desde evidencia científica”, y profundizar en las fuentes: “dame evidencia científica sobre tal tema, incluye autores, tipo de estudio y límites de los hallazgos”.

Por último, para activar el pensamiento crítico, indicó utilizar un prompt que evite conclusiones simplistas.

“Analízame este tema como si fueras un revisor académico. No me des la razón ni validación emocional”.

La inteligencia artificial se ha vuelto cada vez más común en la vida cotidiana, por lo que se ha convertido en una aliada en el campo de la salud mental, según investigaciones de la Universidad Autónoma Metropolitana (AUM), por lo que es importante generar colaboraciones y protocolos entre psicólogos e ingenieros para diseñar herramientas que favorezcan el bienestar de los usuarios sin comprometer su salud.