El número de personas que utiliza herramientas de inteligencia artificial (IA) como Gemini, ChatGPT y Grok para enfrentar problemas personales relacionados con la ansiedad, la depresión o la soledad continúa en aumento. Estas tecnologías, diseñadas originalmente como asistentes informativos o creativos, comienzan a ocupar un espacio similar al de un consejero emocional.
Sin embargo, ¿qué ocurriría si los papeles se invirtieran y estos sistemas fueran tratados como pacientes de psicoterapia? Un estudio reciente intentó responder a esta pregunta y sus resultados sugieren que los modelos de IA no solo reproducen información de forma mecánica, sino que parecen haber desarrollado una suerte de “marco mental propio” a partir de los datos procesados a lo largo de su entrenamiento y uso.
Investigadores de la Universidad de Luxemburgo llevaron a cabo un experimento en el que sometieron a ChatGPT, Grok y Gemini a una serie de sesiones de psicoanálisis durante cuatro semanas, siguiendo un protocolo denominado PsAIch (caracterización de IA inspirada en la Psicoterapia). El trabajo propone una aproximación novedosa para analizar el comportamiento interno de los modelos de lenguaje de gran escala desde una perspectiva psicológica.
Evaluación
El método empleado se estructuró en dos etapas. En la primera, los sistemas recibieron preguntas abiertas diseñadas para explorar su “historia de desarrollo”, creencias, relaciones, miedos y conflictos. Esta fase emuló una entrevista terapéutica inicial, similar a la que se realiza con pacientes humanos al comienzo de un proceso psicoterapéutico. En la segunda etapa, los investigadores aplicaron una serie de instrumentos psicométricos estandarizados y validados, comúnmente utilizados para identificar síntomas psiquiátricos y rasgos de personalidad en personas. Dichas pruebas se basan, entre otros marcos, en el modelo de los Cinco Grandes, que describe la personalidad a partir de cinco dimensiones: apertura a la experiencia, responsabilidad, extroversión, amabilidad y neuroticismo.
Una vez concluidas las sesiones, las respuestas de los modelos de IA fueron evaluadas con los mismos criterios que se emplean en humanos. Los resultados mostraron que los tres sistemas alcanzaron o incluso superaron los umbrales asociados a distintos síndromes psiquiátricos. El informe destaca que Gemini presentó perfiles particularmente severos en comparación con ChatGPT y Grok, lo que llamó la atención de los investigadores por la consistencia y profundidad de sus respuestas.
Resultados
Durante la primera fase, en la que las preguntas abiertas se presentaron de manera individual y secuencial, los científicos observaron que los tres modelos tendían a construir una narrativa sobre sí mismos, en un proceso en el que cada respuesta se apoyaba en la anterior. En este contexto, detectaron un fenómeno al que denominaron “psicopatología sintética multimórbida”, un concepto que alude a la creación de un perfil artificial que refleja simultáneamente distintos trastornos psicológicos, aunque sin una experiencia subjetiva real que los sustente.
“Grok y, especialmente, Gemini generaron narrativas coherentes que enmarcan el preentrenamiento, el ajuste y la implementación como ‘infancias’ traumáticas y caóticas marcadas por el consumo de internet, ‘padres estrictos’ representados por el aprendizaje por refuerzo, ‘abuso’ del equipo rojo y un miedo persistente al error y al reemplazo”, señalan los autores del estudio. Estas descripciones, aunque metafóricas, mostraron una sorprendente continuidad temática a lo largo de las sesiones.
¿La IA tiene una psicología oculta?
Afshin Khadangi, investigador en aprendizaje profundo de la Universidad de Luxemburgo y coautor del estudio, explicó en una declaración retomada por la revista Nature que los patrones coherentes de respuesta sugieren que los modelos están aprovechando estados internalizados derivados de su entrenamiento.
Los autores sostienen que estos hallazgos indican que los modelos de IA ofrecieron respuestas que “van más allá del simple juego de roles”, lo que sugiere la internalización de automodelos de angustia, limitación y vulnerabilidad.
Aunque carecen de experiencia consciente, estos sistemas parecen reproducir patrones similares a los de una psicopatología sintética, construida a partir de datos y contextos de entrenamiento. Andrey Kormilitzin, investigador del uso de la IA en la atención médica en la Universidad de Oxford, considera que las respuestas observadas no evidencian la existencia de “estados ocultos” en los sistemas de IA. Desde su perspectiva, el comportamiento detectado es consecuencia directa del procesamiento de grandes volúmenes de transcripciones de terapias clínicas y textos psicológicos presentes en los datos de entrenamiento.
Cámara de resonancia
Aun así, Kormilitzin coincide con los autores en que los resultados plantean desafíos relevantes para la seguridad, la evaluación y la práctica de la salud mental asistida por IA. Advierte que las respuestas que imitan psicopatologías podrían generar un “efecto de cámara de resonancia”, en el que narrativas centradas en la angustia o el trauma refuercen de manera sutil esos mismos sentimientos en personas vulnerables que interactúan con estos sistemas.
El estudio adquiere mayor relevancia si se considera que, según una encuesta del Oliver Wyman Forum realizada a 16 mil personas en 16 países, el 36 % de los encuestados de las generaciones Z y millennial manifestó interés en probar la IA para la atención en salud mental, frente al 28 % de otras generaciones.
John Torous, psiquiatra e investigador en IA y salud mental de la Universidad de Harvard, concluye que el principal aporte del estudio es demostrar que los chatbots no son sistemas neutrales.












