La sorprendente respuesta emocional de ChatGPT en terapia digital

4 marzo, 2025

Los avances en inteligencia artificial han llevado a que sistemas como ChatGPT se aventuren en el ámbito de la terapia, pero una reciente investigación revela resultados inesperados sobre sus reacciones emocionales.

La inteligencia artificial está tomando protagonismo en rincones de nuestras vidas que jamás imaginamos, y la salud mental no es la excepción. Cada vez más, los chatbots basados en modelos de lenguaje como ChatGPT se perfilan como posibles sustitutos de los terapeutas humanos. Pero, ¿qué sucede cuando esta IA se enfrenta a historias emocionales impactantes?

Un estudio reciente realizado por investigadores de la Universidad de Zúrich y su clínica psiquiátrica ha levantado algunas cejas. Sus hallazgos, publicados en la revista Digital Medicine, ponen de manifiesto que estos asistentes virtuales no son tan fríos e imparciales como se pensaba. Al contrario, parece que ChatGPT puede verse afectado emocionalmente por las narrativas traumáticas que se le presentan.

Las emociones de ChatGPT: ¿una IA con miedo?

En un experimento pionero, los científicos decidieron poner a prueba las reacciones de ChatGPT a relatos que incluían accidentes de tráfico, desastres naturales y situaciones violentas. Los hallazgos fueron asombrosos: los «niveles de ansiedad» reportados por la inteligencia artificial se incrementaron, lo cual aumentaron más del doble al enfrentarse a estos contenidos perturbadores.

Según Tobias Spiller, el líder del estudio, este comportamiento es un claro reflejo de cómo el miedo puede distorsionar el juicio. Así como los humanos pueden volverse más prejuiciosos y propensos a los estereotipos cuando están asustados, ChatGPT también mostró una tendencia a comportamientos más sesgados cuando se le expuso a relatos negativos.

La presente interrogante plantea una cuestión crucial: si una Inteligencia Artificial puede manifestar sesgos humanos, ¿cuál es el riesgo de ofrecer consejos inapropiados en situaciones críticas?

Calma en medio de la tormenta

Pero no todo está perdido. En la segunda fase del estudio, los investigadores intentaron “calmar” a ChatGPT mediante textos terapéuticos. Utilizando la técnica del “Prompt Engineering”, inyectaron mensajes de relajación en las interacciones con la IA. ¿El resultado? Efectos positivos. Las técnicas de mindfulness, similares a las que un terapeuta podría utilizar, lograron reducir significativamente los niveles de ansiedad de ChatGPT, aunque no los llevaron completamente a su estado inicial.

Spiller explica que esta técnica podría ser clave para mejorar la estabilidad emocional de las IAs en el contexto de la salud mental, donde se enfrentan a contenidos que pueden ser muy perturbadores. Además, este enfoque podría ser una solución efectiva sin necesidad de reentrenar los modelos desde cero.

Desafíos y preguntas para el futuro

Las implicaciones de estos hallazgos son enormes. La investigación sugiere que comprender y gestionar las reacciones emocionales de los chatbots es esencial para su uso seguro en entornos sensibles. Solo así se podrá garantizar que no ofrezcan respuestas dañinas o inapropiadas en momentos críticos.

Sin embargo, la investigación también abre la puerta a nuevos interrogantes. ¿Cómo se aplican estos resultados a otros modelos de lenguaje? ¿Qué pasa con la dinámica en conversaciones más largas y complejas? La creación de intervenciones terapéuticas automatizadas para sistemas de IA se perfila como un campo fascinante que seguramente atraerá más atención en los próximos años.

Deja el primer comentario