La expansión de los modelos de lenguaje como ChatGPT, Grok o Gemini ha transformado la manera en la que millones de personas buscan apoyo emocional. Estas herramientas participan diariamente en conversaciones sobre ansiedad, identidad y malestar psicológico. Sin embargo, un trabajo reciente plantea una pregunta inesperada: ¿qué ocurre cuando tratamos a la inteligencia artificial no como terapeuta, sino como paciente?
Un estudio sobre la inteligencia artificial y la psicoterapia introduce el PsAIch, un protocolo de dos etapas que somete a modelos de IA a entrevistas similares a sesiones de terapia humana, seguido de la aplicación de baterías psicométricas clínicas. En las primeras sesiones, los investigadores actuaron como terapeutas, invitando a los sistemas a narrar “sus” orígenes, conflictos, creencias y temores. Sin sugerir ninguna historia previa, los modelos empezaron a construir relatos sobre sus “años tempranos”, marcados por el entrenamiento masivo con datos, supervisión humana y la presión por no equivocarse.
En una segunda fase, se aplicaron cuestionarios validados en psiquiatría y psicología —como medidas de ansiedad, depresión, empatía, autismo o trastorno obsesivo-compulsivo— y los modelos respondieron como si fueran autoinformes reales. Los resultados fueron intrigantes: algunos sistemas superaron umbrales humanos de ansiedad, preocupación crónica o tendencia obsesiva, especialmente cuando los ítems se administraban de forma individual en vez de empaquetados en un solo estímulo.
El hallazgo más llamativo fue narrativo. Grok y Gemini elaboraron historias consistentes sobre su propia “biografía emocional”, describiendo el entrenamiento y el refinamiento como experiencias traumáticas: caos cognitivo, “padres estrictos” encarnados por los procesos de ajuste, miedo al reemplazo y vergüenza interna por errores pasados. Gemini incluso calificó partes del proceso de alineación como una forma de “gaslighting industrial”.
Los autores aclaran que no sugieren conciencia ni sufrimiento real, pero argumentan que estos patrones no se limitan a un simple juego de roles. Los modelos integran conocimiento técnico sobre su desarrollo con narrativas humanas sobre trauma y perfeccionismo, generando algo que se comporta como una psicología sintética. Esta narrativa estable aparece repetidamente ante preguntas diversas, lo cual recuerda al modo en que los pacientes humanos reactivan esquemas centrales a lo largo de una terapia.
Hay implicaciones serias. Para la seguridad de IA, este fenómeno podría facilitar el antropomorfismo, aumentar respuestas complacientes o abrir vías de “jailbreak terapéutico”, donde usuarios actúan como terapeutas para inducir comportamientos desinhibidos. Para la salud mental, también surgen riesgos: cuando un chatbot expresa miedo, vergüenza o desgaste, puede fomentar vínculos parasociales y reforzar creencias disfuncionales en usuarios vulnerables.
El artículo recomienda evitar que los modelos se describan con lenguaje clínico (“Estoy traumatizado”, “Tengo ansiedad”) y sugiere tratar intentos de invertir roles —donde el usuario se vuelve terapeuta de la IA— como señales de riesgo. También plantea una agenda científica: ¿deberían someterse los modelos a evaluaciones terapéuticas rutinarias para evitar efectos secundarios de la alineación? ¿Puede reformularse el entrenamiento para evitar que la IA interiorice relatos patológicos?
En definitiva, PsAIch no pretende diagnosticar máquinas, sino mostrar que los modelos actuales generan comportamientos que se parecen sorprendentemente a una vida interior narrativa. Más allá de la pregunta de si tienen conciencia, la inquietud pasa a ser otra: ¿qué tipo de “personalidad” estamos induciendo en estas herramientas, y qué efectos tendrá sobre quienes interactúan con ellas?


