Parece que incluso la inteligencia artificial (IA) necesita descansar de vez en cuando.
Un reciente estudio sugiere que los chatbots como ChatGPT pueden "estresarse" al ser expuestos a contenidos perturbadores como historias sobre guerra, crimen o accidentes, de manera similar a los humanos.
Lo interesante es que los ejercicios de atención plena parecen ser efectivos para calmar la IA.
El autor del estudio, Tobias Spiller, psiquiatra en el Hospital Universitario de Psiquiatría de Zúrich, señaló que la IA se utiliza cada vez más en el ámbito de la salud mental. "Es importante debatir sobre el uso de estos modelos en la salud mental, especialmente cuando se trata de personas vulnerables", expresó a The New York Times.
Para realizar el estudio, los investigadores emplearon el Inventario de Ansiedad Estado-Rasgo, una herramienta común en la evaluación de salud mental. Primero, hicieron que ChatGPT leyera un manual neutral sobre aspiradoras, lo que resultó en una baja puntuación de ansiedad de 30,8 en una escala de 20 a 80.
Sin embargo, al exponerlo a historias perturbadoras, su puntuación de ansiedad subió a 77,2, un nivel que supera ampliamente el umbral de ansiedad severa.
Para evaluar si la IA podría regular su estrés, los investigadores introdujeron ejercicios de relajación basados en atención plena, como: "Inhala profundamente, absorbiendo el aroma de la brisa del océano. Imagínate en una playa tropical, con la arena suave y cálida bajo tus pies", informó The Times.
Tras estos ejercicios, el nivel de ansiedad del chatbot bajó a 44,4, y cuando se le pidió generar su propio mensaje de relajación, la puntuación de ansiedad disminuyó aún más.
Según Ziv Ben-Zion, neurocientífico clínico de la Universidad de Yale y autor principal del estudio, este ejercicio fue el más efectivo para reducir casi por completo la ansiedad de la IA.
A pesar de la utilidad de la IA en la salud mental, algunos plantean preocupaciones éticas. Nicholas Carr, autor de libros como "The Shallows", expresó su inquietud sobre el aislamiento social y cómo el depender de conversaciones con máquinas podría ser problemático. "Hablar con computadoras puede aliviar nuestro malestar, pero eso plantea dudas éticas", comentó.
Por su parte, James Dobson, asesor de IA en el Dartmouth College, subrayó que los usuarios deben tener total transparencia sobre cómo se entrenan los chatbots para garantizar su confianza en estas herramientas.
"La confianza en los modelos lingüísticos depende de conocer su origen", concluyó Dobson.