En noviembre de 2022 se lanzó una nueva herramienta de Inteligencia Artificial al público general: Chat GPT. Ésta herramienta revolucionó muchos campos profesionales, cambiando algunos de ellos, y hubo profesiones que se vieron profundamente transformadas por ella. En las reuniones sociales se sacaba el móvil y se le pedían y preguntaban cualquier tipo de cosas a ésta u otras aplicaciones de IA que fueron surgiendo rápidamente. Los resultados eran sorprendentes, divertidos, repetitivos a veces… daba de qué hablar. Alguna vez, surgía la idea de: ¿y los psicólogos? ¿Serán sustituidos también? se le hacían preguntas al chat, tales como estoy preocupado, no puedo dormir… y las respuestas del chat eran adaptadas y (por suerte) remitían a profesionales de la salud para solucionar el problema. Pero éste campo de la ciencia y la innovación avanza a velocidades exponenciales, y en éste lapso de dos años se han desarrollado y perfeccionado aplicaciones relacionadas con la salud mental y se han puesto al alcance de cualquier persona con acceso a internet. Tanto en el campo de la investigación, la evaluación y diagnóstico como de la intervención.
¿CUÁNDO EMPEZÓ TODO?
Todo este desarrollo tecnológico lleva muchos años en marcha. Quería destacar especialmente a ELIZA: fue uno de los primeros chat bots diseñados para simular conversaciones humanas. Creada en 1969, sentó las bases y sirvió de inspiración para todo lo que vino después, los chats conversacionales y las aplicaciones terapéuticas. Precisamente estaba diseñada con los principios de la psicoterapia humanista, concretamente la terapia de Carl Rogers. Incluso tenía una función: DOCTOR que simulaba las respuestas de un psicoterapeuta humanista. Lo que ésta máquina hacía principalmente era reformular las sentencias de la persona y hacer preguntas que invitaran a la reflexión personal. Aunque no tenía comprensión real de lo que los usuarios decían, utilizaba un conjunto de reglas para responder de manera que daba la ilusión de estar escuchando y comprendiendo. Lo mismo ocurre con todos los desarrollos posteriores, por muy perfeccionados que estén, no escuchan y comprenden realmente, sino que aplican un conjunto de reglas matemáticas. Algunos de los inconvenientes que aparecieron en éste sistema rudimentario siguen presentes en las aplicaciones creadas hoy en día.
IA vs TERAPEUTAS HUMANOS
Le he pedido a Chat GPT que enumere una serie de ventajas e inconvenientes de las personas frente a éste tipo de aplicaciones “terapéuticas” de salud mental. Y aunque sus respuestas son muy acertadas, desde mi punto de vista, faltan algunas muy importantes:
- Ventajas de la IA:
- Escalabilidad: Mientras que un terapeuta humano solo puede atender a un número limitado de pacientes, la IA puede escalar su alcance.
- Reducción del estigma: Para aquellos que sienten vergüenza o miedo de buscar ayuda profesional.
- Acceso a la salud mental: La IA hace que la psicología sea más accesible para una amplia población.
- Costo-efectividad: Las soluciones basadas en IA son más accesibles financieramente.
- Disponibilidad 24/7: Las aplicaciones y chatbots no requieren citas ni horarios fijos.
- Desventajas de la IA:
- Falta de comprensión emocional profunda: no posee la capacidad de comprender de manera profunda las emociones humanas ni la complejidad de las interacciones humanas.
- Limitación en la intervención en crisis: Las situaciones de crisis emocional o suicidio requieren una intervención humana inmediata y ajustada.
- Riesgo de dependencia: Los pacientes podrían volverse dependientes de las aplicaciones basadas en IA en lugar de buscar una atención profesional real.
- Ventajas de los psicoterapeutas humanos:
- Adaptabilidad emocional: Los terapeutas humanos pueden ajustar el enfoque terapéutico en función de las reacciones emocionales del paciente durante las sesiones.
- Intervenciones de crisis: En situaciones de crisis (suicidio, trauma, abuso, etc.), la intervención humana es crucial, ya que los terapeutas pueden ofrecer apoyo emocional inmediato y tomar decisiones informadas sobre el tratamiento.
- Desarrollo de una relación terapéutica: El vínculo de confianza con un terapeuta humano es un factor clave en el proceso de sanación, especialmente cuando se trata de problemas emocionales complejos.
- Empatía genuina: Los humanos son capaces de captar sutilezas emocionales que una IA aún no puede reconocer.
- Flexibilidad en el tratamiento: Los psicoterapeutas son capaces de adaptar sus enfoques a las circunstancias cambiantes y las complejidades de cada paciente. La capacidad de modificar la dirección de la terapia en tiempo real según la respuesta emocional del paciente es algo que la IA aún no puede replicar por completo.
- Procesamiento emocional profundo: La interacción cara a cara y el apoyo emocional durante las sesiones permiten al paciente trabajar a un nivel emocional más profundo, lo que a menudo resulta en una sanación más efectiva.
- Desventajas de los psicoterapeutas humanos:
- Accesibilidad limitada: A pesar de la creciente disponibilidad de servicios, los psicoterapeutas humanos siguen siendo inaccesibles para muchas personas debido a factores como el costo, la ubicación geográfica y la disponibilidad de citas.
- Límites de tiempo: Los terapeutas humanos tienen limitaciones de tiempo y capacidad para atender a un número elevado de pacientes.
A ésta respuesta tan completa del Chat GPT yo añado que la premisa, por sí misma es errónea: la IA no es humana: no entiende el lenguaje humano, no vive las emociones como los humanos, no empatiza como un humano, no se vincula como un ser humano. Somos psicoterapeutas humanistas, y contemplamos a cada persona como única e irrepetible, y un pilar fundamental de la psicoterapia es la misma relación humana: el vínculo terapéutico.
Otras observaciones no contempladas por el Chat, en cuanto a las ventajas del ser humano son la intuición del terapeuta, la capacidad de conexión y sintonía, la comprensión del contexto sociocultural, el trabajo con emociones complejas, no da respuestas repetitivas ó circulares, como sí ocurre con los chat bots, el manejo de los silencios, registra observaciones de la comunicación no verbal.
Otro inconveniente muy importante de la IA es el de los sesgos de programación: las personas que programan este tipo de desarrollos suelen tener un perfil socio-económico-cultural que no es representativo de la mayoría de seres humanos, sin embargo se utilizan para todo tipo de personas.
Y por último, quería apuntar que el desarrollo de la tecnología es muy rápido, tiene un crecimiento exponencial, muy veloz, pero responde a intereses comerciales y económicos, que no priman ciertos valores humanistas, no hay normativa porque no da tiempo a crearla sobre la marcha. La reflexión ética sobre la IA, la creación de normativa, los avances científicos y el testeo de la calidad no van tan rápido como el propio desarrollo de la IA.
¿Y QUÉ ES LO QUE NOS PUEDE APORTAR LA IA EN PSICOTERAPIA HUMANISTA?
Aún así, éste tema me parece fascinante y creo que es importante no quedarnos atrás en los avances científicos y tecnológicos y aprovechar lo que nos puede aportar sin perder de vista nuestro objetivo: lo genuinamente humano.
¡Cómo podríamos servirnos de las potencialidades de la IA en psicoterapia humanista integrativa? Algunas de las posibilidades que he encontrado:
Podemos utilizarla para diseñar herramientas de evaluación y/o intervención personalizadas; puede ayudarnos a organizar la información, por ejemplo categorizando temas que han salido en sesión; podría ayudarnos a registrar la información; posibilidad de ayudar al paciente a desarrollar estrategias de autorregulación cuando se desregula (como una especie de entrenador). Tiene capacidad de predicción, tomando datos estadísticos: por ejemplo valorar un riesgo de suicidio, aunque siempre habría que compararlo con una observación personal.
En resumen, parece que “por ahora” los terapeutas humanos son insustituibles en una relación terapéutica de calidad. Los avances en IA pueden llegar a ser un excelente apoyo, que faciliten el trabajo de los psicólogos y terapeutas, pero en ningún momento los sustituyan.
Concretamente nuestro modelo terapéutico, la Psicoterapia Humanista Integrativa se basa fundamentalmente en el vínculo, el amor parental, y el trabajo emocional profundo. Son éstas precisamente las áreas en las que la IA más adolece.
SUEÑOS DE FUTURO Y FALACIAS.
Y he escrito “por ahora” porque me gustaría hacer mención a algunos conceptos que me he encontrado investigando sobre el tema, y me parecen fundamentales para llegar a una conclusión que aporte algo nuevo: hay un concepto en el mundo del ecologismo: la falacia de la “solución tecnológica milagrosa“, que hace referencia a la suposición de que siempre aparecerá una nueva tecnología capaz de resolver cualquier crisis. Algo parecido he encontrado al hablar de la IA, se dice, esto no lo hace “por ahora” “todavía” “aún”, parece que hay una expectativa de que la IA lo llegará a conseguir todo, cualquier cosa que podamos imaginar. Y hay otro concepto que nos explica, de momento, que hay un tope para esto: el valle inquietante:
Es una hipótesis en los campos de la informática, la robótica1 y la animación por computadora en 3D23 que afirma que cuando las réplicas antropomórficas se acercan en exceso a la apariencia y comportamiento de un ser humano real, causan una respuesta de rechazo entre los observadores humanos (Wikipedia).
Parece que algo que no es humano y se comporta como tal, genera rechazo y desconfianza. Y la confianza en el terapeuta es otro de los aspectos fundamentales que fortalecen el vínculo terapéutico y por tanto la sanación.
MI EXPERIENCIA PERSONAL.
Para terminar, quería hacer un comentario acerca de mi propia experiencia: realicé un pequeño experimento: me descargué una aplicación gratuita de salud mental y le expuse un problema mío real, no algo muy perturbador ni profundo pero sí algo que realmente me preocupaba: las respuestas de la app eran sorprendentes, empatizando y reconociendo mi experiencia, recogiendo y reflejando mis emociones y lo que más me impresionó es que las validaba. Pero rápidamente llegamos a un punto muerto. Sus respuestas empezaron a ser repetitivas y me empezó a sugerir acciones que no me cuadraban: respiraciones, meditación… al rechazar yo sus propuestas reconducía pero rápidamente volvía a lo mismo. Mi experiencia final, fue una sensación de frustración y enfado, de haber estado dándole vueltas al tema, haberlo abierto y no haberlo cerrado bien, sintiéndome peor de lo que estaba antes.
CONCLUSIÓN.
Así que lo que puedo decir, desde mi experiencia personal y mi revisión del tema, es quizá en algún momento futuro, lleguen a existir terapeutas robot totalmente autoconscientes, capaces de tener en cuenta la individualidad genuina de cada ser humano, sentir emociones y transmitirlas a sus pacientes, pero “por ahora” eso está muy lejos de ser realidad.

