Potosinoticias.com
Ciencia y TecnologíaPORTADA

¿ChatGPT como terapeuta? Expertos advierten sus riesgos

El auge de la inteligencia artificial (IA) ha llevado a muchas personas, especialmente adolescentes y jóvenes, a buscar en ChatGPT un espacio para expresar sus emociones y recibir consejos. Volcar en este chatbot las conversaciones de WhatsApp para preguntarle si una relación es saludable o tóxica es un ejemplo de ello.

Desde su lanzamiento gratuito en 2022, esta herramienta digital ha sorprendido a los usuarios por su capacidad de imitar el lenguaje humano y brindar respuestas coherentes. Por ello, cada vez más personas conversan con una IA. Pero, ¿cuáles son sus límites? Dos expertos en salud mental hablan sobre la necesidad de ser escuchados y las fronteras que se deben colocar a los chatbots.

Para la doctora Vanessa Herrera, psiquiatra del Instituto Nacional de Salud Mental Honorio Delgado-Hideyo Noguchi (INSM), del Ministerio de Salud, el problema no es el uso de la inteligencia artificial, sino la falta de acceso a atención psicológica adecuada.

“Al perder redes de apoyo presenciales y de amigos, muchas personas recurren a estas plataformas por su accesibilidad e inmediatez”, explica. Esto, señala, no representa un problema siempre que complemente, y no reemplace, la conexión con personas reales ni el tratamiento de malestares emocionales en espacios seguros con un equipo terapéutico.

El doctor Manuel Saravia, psicólogo y director del Instituto Guestalt de Lima, reconoce que la demanda de atención psicológica en el país supera la cantidad de profesionales disponibles. “Si en el Perú hay 34 millones de habitantes y solo 60 mil psicólogos aproximadamente, la demanda es enorme”.

Saravia explica que los adolescentes han sido uno de los grupos más afectados por la pandemia y, como resultado, muchos buscan en la tecnología una forma de desahogo. “Después de la pandemia han aumentado los casos de ansiedad, problemas con los padres, autoestima y autoimagen”, advierte. “Muchos buscan en ChatGPT llenar esa carencia, esa necesidad de ser escuchados”.

Por su parte, Herrera comenta que los adolescentes y jóvenes, por su familiaridad con la tecnología, suelen establecer vínculos emocionales con la IA. “Algunos llegan a personalizar la IA y la perciben como un amigo o una pareja, especialmente cuando se sienten solos”. Aunque esto pueda parecer inofensivo, advierte que “puede reforzar el aislamiento social y evitar que busquen ayuda profesional”.

Además, Saravia explica que los adolescentes recurren a la inteligencia artificial para abordar temas que muchas veces no sienten la confianza de tratar con sus padres o amigos. Entre ellos se encuentran la sexualidad, las relaciones de pareja, la autoimagen y la vocación profesional. También buscan orientación sobre trastornos alimenticios, conflictos con sus pares y problemas familiares.

Entre lo útil y lo peligroso

La especialista del INSM reconoce que la inteligencia artificial puede tener un papel complementario en la salud mental, pero con límites claros. “Si bien la IA puede ayudar en la alfabetización en salud mental, su rendimiento varía según el idioma y el contexto cultural”. Además, menciona que “las respuestas pueden ser incorrectas o estar desactualizadas según la fecha de entrenamiento de datos”.

El doctor Saravia, en tanto, recalca que aunque ChatGPT puede brindar orientación puntual, “no tiene una validación científica que pueda reemplazar el trabajo de un psicólogo o terapeuta”. Considera que su uso debe ser visto más como “un libro de desarrollo personal” que como una fuente fiable de diagnóstico o tratamiento.

Lo que la IA no puede hacer

Saravia advierte que, a pesar de su capacidad para generar respuestas rápidas, la inteligencia artificial tiene serias limitaciones en el ámbito de la salud mental. “ChatGPT carece de ‘ojo clínico’, es decir, la experiencia del terapeuta que le permite interpretar más allá del discurso del paciente”.

Por otro lado, la doctora Herrera resalta una limitación relevante: la IA no capta señales clave en la comunicación. “El lenguaje no verbal representa casi el 90% de la comunicación de una persona”, señala. Esto significa que una herramienta basada solo en texto no podrá captar matices esenciales como el tono de voz o los gestos del usuario, aspectos que en terapia pueden revelar más que las palabras mismas.

El riesgo de confiar demasiado

Para la doctora Herrera, la confianza ciega en la IA puede traer riesgos importantes, especialmente en personas con problemas emocionales o psicológicos. “El uso prolongado de ChatGPT como consejero podría influir en la manera en que una persona procesa sus emociones o afronta el estrés”. Además, menciona que los usuarios proporcionan información personal sin claridad sobre la protección de su confidencialidad.

Por su parte, el director del Instituto Guestalt de Lima añade que el problema no es nuevo. “Muchas personas convierten a la IA en una especie de mentor que les da todas las respuestas”. “Antes pasaba lo mismo con Google: los adolescentes llegan a consulta con un autodiagnóstico que muchas veces es incorrecto”.

Un aliado, no un reemplazo

Si bien la IA no puede sustituir la terapia tradicional, el doctor Saravia considera que podría utilizarse como un recurso de apoyo. “Un psicólogo podría utilizar la IA para procesar datos o brindar información puntual a un paciente, pero siempre bajo supervisión profesional”, explica.

Por otro lado, Herrera señala que algunas instituciones están explorando su uso con fines educativos. “En algunos casos, se está explorando su uso en educación y alfabetización en salud mental”. Sin embargo, enfatiza que “la inteligencia artificial puede ser útil como apoyo psicoeducativo, pero nunca podrá reemplazar la intervención humana en un tratamiento psicológico o psiquiátrico”.

El valor de la conexión humana

El doctor Saravia destaca la importancia de la educación en salud mental para evitar que la IA se convierta en un sustituto de la terapia. “No se trata de descalificar ni confrontar, sino de validar la necesidad de ser escuchado y dar información sobre los riesgos”.

A su vez, Herrera enfatiza que las familias juegan un papel importante en este tema. “Las familias deben intensificar su acompañamiento para evitar que los jóvenes recurran a la IA como único recurso emocional”.

Si bien la IA puede ser una herramienta de apoyo, ambos especialistas coinciden en que “nunca reemplazará el contacto con la comunidad, los amigos o la familia”.

Por último, el psicólogo Saravia recomienda a los adolescentes y sus familias informarse sobre los límites de la IA y evitar los autodiagnósticos. “Es importante que los jóvenes hablen con sus padres, amigos o personas de confianza, y que no usen ChatGPT como única fuente de consulta”.

Con información de: Andina

Notas Relacionadas

Macro módulos de vacunación contra sarampión operarán este domingo en cuatro puntos de la zona metropolitana

Potosinoticias .com

Para Atlético, el “Clásico de la 57”

Potosinoticias .com

Marx Arriaga rechazó cargo en el extranjero, afirma Mario Delgado

Potosinoticias .com