Banner

Hoy Escriben - Miguel Ángel Sosa

Emociones de Código abierto

¿Quién lo hubiera imaginado? Hace apenas dos décadas, la idea de contarle nuestros problemas a una máquina parecía una escena de ciencia ficción.

Hoy, la inteligencia artificial (IA) ha comenzado a ocupar un lugar en los espacios más íntimos de nuestra salud mental: las conversaciones con nosotros mismos.

En chats, apps, plataformas de bienestar y hasta en terapia guiada, las máquinas han aprendido a hablar nuestro idioma emocional. ¿Es esto el futuro o un recurso de emergencia? ¿Sustituto o herramienta?

La IA ha evolucionado para ofrecer acompañamiento emocional, escucha activa simulada, ejercicios de respiración, meditación y hasta intervenciones conductuales basadas en evidencia.

Aplicaciones como Woebot o Wysa, entrenadas en principios de la Terapia Cognitivo Conductual (TCC), se presentan como asistentes disponibles 24/7, con respuestas rápidas y sin juicio.

Esto representa una democratización del acceso, en particular para personas que no pueden pagar una terapia tradicional o viven en zonas donde no hay especialistas.

“La tecnología puede ser un amplificador de la empatía, si está bien diseñada”, afirma el psicólogo e investigador John Torous, de la Universidad de Harvard.

Sin embargo, no todo lo que brilla en los circuitos es consuelo. ¿Puede una IA realmente entender el dolor humano? ¿Puede responder a la complejidad de una infancia rota, a un duelo imprevisto, a un trauma sin nombre? La respuesta es, por ahora, un tibio “depende”.

Las inteligencias artificiales no sienten, no intuyen, no abrazan. Sus respuestas están diseñadas por algoritmos que imitan la empatía, pero no la encarnan. De ahí que muchos expertos adviertan sobre el riesgo de una dependencia emocional a un sistema que carece de humanidad.

Aun así, limitar la IA a una herramienta de reemplazo sería no entender su verdadero potencial. Tal vez no sea terapeuta, pero puede ser guía, espejo, contención inicial o incluso puerta de entrada a un proceso más profundo con un profesional humano.

Puede ofrecer rutinas, monitoreo de hábitos, recordatorios y hasta reflexiones que acompañen. La clave está en cómo se usa y para qué.

Como señala la neurocientífica Lisa Feldman Barrett: “Nuestras emociones no vienen de un lugar puro e interno, sino que son construcciones; y eso nos permite también aprender a gestionarlas con nuevas herramientas”.

Este nuevo paradigma invita a repensar la salud mental no como una dicotomía entre personas y máquinas, sino como un ecosistema híbrido de apoyos.

Las tecnologías pueden ofrecer soluciones escalables, personalizadas y sin barreras geográficas, pero también deben coexistir con la calidez, la intuición y la ética del cuidado humano.

El reto será construir puentes entre ambos mundos, sin delegar del todo ni idealizar ciegamente. En lugar de preguntar si la IA puede sustituir a un psicólogo, quizá deberíamos preguntar: ¿cómo pueden trabajar juntos?

Y en ese futuro cercano, la IA puede ser aliada para psicólogos, no competencia. Imagine un sistema que apoye al profesional en el análisis de patrones, seguimiento de progresos o identificación de riesgos emocionales.

Imagine sesiones más precisas porque el terapeuta ya cuenta con datos recabados de forma ética y segura. O piense en alguien que, en una noche de ansiedad, encuentra consuelo en una app, mientras espera su cita con una persona real.

Aunque no sienta, la IA puede acompañar de formas significativas. Humanos o máquinas, lo importante es contar con alguien —o algo— que nos sostenga cuando más lo necesitamos.