EH4045 TAMPS 15ENE2026 WA

16/BIENESTAR

el horizonte

Jueves 15 de enero de 2026

BIENESTAR

PSICOTERAPIA EN PERSONA VS. ASESORAMIENTO EN LÍNEA La profesora Newby explica que, aunque una conversación con un sistema de IA puede ser inmediata, barata o incluso gratuita, y en algunos casos puede ser conveniente, esto no significa que la IA pueda reemplazar a los psicoterapeutas humanos, ni que sus consejos puedan sustituir a los de un terapeuta cualificado, según apunta. Esta investigadora afirma que el asesoramiento que brindan los chatbots se basa en la terapia cognitivo conductual (TCC), un tratamiento que aporta a las personas herramientas para ayudar a gestionar sus pensamientos, emociones y comportamientos. “Una de las limitaciones de la terapia con IA es que no todas las personas se benefician de la TCC”, según Newby. Los sistemas de chat con IA no siempre ofrecen consejos sensatos y seguros; la investigadora comparte el caso de un hombre belga que se quitó la vida en 2023, tras mantener largas conversaciones con un chatbot de IA, cuyas respuestas podrían haber reforzado la ideación suicida del fallecido, según Newby. El riesgo que la IA brinde un asesoramiento equivocado o incluso peligroso “se agrava porque estos sistemas pueden ser engañados para que brinden consejos sobre comportamientos poco éticos cuando se les pide que consideren hipotéticamente un determinado escenario”, de acuerdo con la profesora de la UNSW. RIESGOS LATENTES ENTÉRATE Newby sostiene que la conexión humana es fundamental para muchas personas, y los profesionales de la salud mental con la formación adecuada pueden establecerla, generando empatía. Además, un psicoterapeuta “de carne y hueso” puede ayudar a una persona mediante un sistema de preguntas que permita llegar a la raíz de sus preocupaciones, en lugar de aplicar una lista de estrategias como suelen hacer los modelos de IA”, afirma. Gemini, el asesoramiento psicológico pro- porcionado por sistemas basados en IA se parece sorprendentemente a las estrate- gias que cabría esperar de los terapeutas presenciales”, comenta Newby. (Con infor- mación de Agencias)

CUANDO EL PSICÓLOGO ES UN CHATBOT ¿La inteligencia artificial podría reemplazar a un psicoterapeuta humano? Descubre los pros y contras que han detectado los investigadores sobre este tema LA IA COMO HERRAMIENTA DE SALUD MENTAL

si fueran seres humanos, son una de las utilidades más populares de la IA, y están ganando terreno en el ámbito del aseso- ramiento psicológico. Pero, ¿podría un chatbot de IA llegar a reemplazar a un terapeuta humano como un psicólogo o psiquiatra? Estos sistemas tienen sus ventajas, pero tam- bién sus puntos flacos, según los investi- gadores de la Universidad de Nueva Ga- les del Sur (UNSW, por sus siglas en inglés) en Sydney, Australia. “El uso de la IA como herramienta psi- coterapéutica se remonta a la década de 1960, cuando el programa ELIZA ofrecía

respuestas predefinidas a los usuarios que describían sus estados emocionales”, se- ñala la psicóloga clínica Jill Newby, profe- sora de Psicología en la UNSW. Pero la IA ha avanzado mucho desde entonces, y aplicaciones para teléfonos in- teligentes como Woebot, Wysa y Replika mantienen conversaciones sofisticadas y bidireccionales con sus usuarios, les ofre- cen apoyo emocional, seguimiento de su estado de ánimo y ejercicios terapéuticos como llevar un diario o tomar consciencia de sus procesos mentales, según explica. “Con la llegada de asistentes de IA ge- nerativa en línea como ChatGPT, CoPilot y

REDACCIÓN El Horizonte

Los algoritmos informáticos, conjun- tos de instrucciones definidas, ordena- das y acotadas que permiten a un cere- bro electrónico resolver un problema, realizar un cálculo o desarrollar una tarea siguiendo una secuencia de pasos defi- nidos, están en el corazón de la inteligen- cia artificial (IA). Los chatbots, programas o aplicacio- nes informáticas que conversan con las personas y responden a sus preguntas y consultas mediante voz o texto, como

Made with FlippingBook Ebook Creator