27.4 C
Asunción
viernes, 29 de agosto de 2025
InicioCiencia y Tecnología¿Puede la IA reemplazar a un terapeuta? La realidad de ChatGPT

¿Puede la IA reemplazar a un terapeuta? La realidad de ChatGPT

El uso de ChatGPT para el apoyo a la salud mental ha crecido exponencialmente en el último año, con usuarios que lo emplean como terapeuta, entrenador personal o confidente. Algunos, como el músico y programador Daniel Fernández, incluso afirman que ha sido más efectivo que la terapia tradicional para superar problemas como el duelo.

En una encuesta, el 25% de los estadounidenses dijo que hablaría con un bot de IA antes que con un psicólogo, y el 80% de quienes ya lo han hecho lo consideraron una alternativa eficaz.

Beneficios para profesionales y pacientes

El ChatGPT es un modelo de lenguaje de inteligencia artificial entrenado con grandes cantidades de datos textuales que puede generar respuestas con calidad humana. Esta capacidad puede hacer que los servicios de salud mental sean más accesibles y asequibles, especialmente en países de ingresos bajos y medios con una gran brecha de tratamiento.

Unite al canal de La Tribuna en Whatsapp

Para los profesionales de la salud mental, el ChatGPT puede ser una herramienta poderosa. Le ayuda a analizar el lenguaje de los pacientes para identificar patrones relacionados con problemas de salud mental. Puede agilizar el acceso a herramientas de evaluación, nuevas opciones de tratamiento basadas en evidencia y las mejores prácticas clínicas.

El programa permite identificar interacciones entre medicamentos, reducir errores de prescripción y generar informes a partir de grandes volúmenes de datos clínicos, lo que agiliza diagnósticos y tratamientos. También extrae resultados de laboratorio e imágenes médicas de los registros, mientras que pacientes y familias destacan la rapidez, la gratuidad y la percepción de imparcialidad como principales beneficios.

El ChatGPT puede facilitar el acceso a información sobre enfermedades mentales, métodos de afrontamiento y opciones de tratamiento, lo que permite a los jóvenes comprender y gestionar mejor su salud mental. Además, las aplicaciones de IA pueden ser una opción no prejuiciosa y accesible para aquellos que enfrentan barreras como el estigma, las limitaciones financieras o la falta de acceso a servicios tradicionales.

En situaciones de crisis, puede estar disponible las 24 horas del día, los 7 días de la semana, lo que puede ayudar a controlar ataques de pánico o pensamientos suicidas cuando no es posible acceder a un profesional. De hecho, si se hace referencia directa a un pensamiento suicida, el programa proporciona información de contacto de las líneas de ayuda para crisis.

Riesgos y limitaciones: un camino con precaución

A pesar de sus beneficios, los expertos advierten que el uso del ChatGPT como psicólogo no está exento de riesgos y que no puede reemplazar por completo el juicio clínico humano. Como afirma el psicólogo Manuel Armayones, «las ventajas asociadas a ChatGPT son también sus principales inconvenientes».

La falta de evidencia científica sugiere que los chatbots podrían reforzar los pensamientos y emociones del usuario, lo que a menudo puede resultar contraproducente.

Puntos flojos de la IA

Una investigación de OpenAI, en colaboración con el MIT Media Lab, encontró que quienes consideraban al ChatGPT como un amigo eran más propensos a experimentar efectos negativos. El uso excesivo y autorreferencial del programa podría reforzar dinámicas egocéntricas y limitar la autocrítica y el desarrollo emocional.

Esta IA carece de comprensión humana y capacidad de establecer una alianza terapéutica, que se construye en sintonía, la consideración positiva y la comunicación no verbal. La misma, al no poder sentir emociones, ni señales de crisis como suicida, homicida, etc., no es capaz de ofrecer el mismo grado de apoyo emocional al de un terapeuta.

En cuanto a la confidencialidad, se plantean preocupaciones sobre datos sensibles, ya que podría ser almacenadas, sin consentimiento claro, a diferencia de profesionales. ChatGPT está entrenado con datos de seres humanos y, por lo tanto, el modelo podría mostrar sesgos en ciertos escenarios.

La IA al no acceder a información del contexto social, emocional y familiar de una persona, no puede diagnosticar ni crear un plan de tratamiento adecuado a sus necesidades. Ya que no consideraría factores influyentes en la salud mental como estatus socioeconómico, la educación, la cultura y dinámica familiar.

Un fenómeno en auge: las razones detrás de la tendencia

En el ámbito clínico, el fenómeno genera inquietud. Aunque la tecnología puede ser útil si está respaldada científicamente —algo que no ocurre con ChatGPT—, los expertos coinciden en un límite claro: la falta de empatía real.

Como concluyen los autores del artículo «Chat-GPT: Opportunities and Challenges in Child Mental Healthcare», ChatGPT puede revolucionar la atención de la salud mental infantil y adolescente al actuar como una herramienta de asistencia efectiva, pero «sería imprudente e impráctico sugerir que puede reemplazar por completo el juicio clínico humano».

El uso seguro y responsable es clave para aprovechar al máximo esta herramienta de asistencia para la promoción de la salud mental en estos grupos vulnerables.

LE PUEDE INTERESAR: La inteligencia artificial transformando la industria cinematográfica

Editorial

Asunción y CDE merecen más que ese giro sobre lo mismo

No pasa solo por la renuncia del intendente de Asunción. Tampoco por la destitución del electo en Ciudad del Este. La mejora no se...