Son tiempos extraños, amigos. Tiempos extraños.
¿Deberíamos preocuparnos? Creo que sí. Al final, estoy seguro de que todo saldrá bien, pero probablemente pasará mucho tiempo hasta el final. Así que tendremos que soportar cambios bastante radicales durante ese tiempo. Y muchos de estos cambios no serán muy agradables.
Entonces, ¿por qué tengo tanta ira ahora? Nada nuevo, la verdad.
Hace un tiempo escribí un artículo bastante irónico titulado "Mi breve romance con un ChatBot". Este artículo no es tan jocoso. No me malinterpreten, dado el título, no me preocupa perder mi carrera por culpa de la IA. De todas formas, ya casi termino con mi carrera como psicoterapeuta. Ejerceré hasta la muerte, pero solo con unos pocos que aún valoran la relación humana con su terapeuta. Puede que los ChatBots acaben con esta profesión, pero siempre habrá gente que simplemente no acepte la terapia de un robot. No me preocupa por mí. Sin embargo, me preocupa la humanidad en general.
Me resulta curioso que no piense mucho en que los robots (incluida la IA) sustituyan las tareas humanas. El progreso tecnológico ha estado haciéndolo de forma constante desde que los humanos empezaron a caminar. No hay mucho que podamos hacer al respecto, aunque sin duda podríamos afrontarlo de una forma más humana que antes, pero no me hago ilusiones.
Generalmente, seguimos adelante, y aquellas personas que se quedan sin trabajo debido a los avances tecnológicos reciben nueva capacitación y comienzan algo nuevo, o se jubilan; no suelen colgarse de la barandilla más cercana, nada demasiado serio. Seguimos adelante. Lo que sí parece preocuparme estos días es que la tecnología esté acabando con la humanidad. La IA y los robots que reemplazan cosas profundamente humanas como el arte, la literatura, la música, y el tema de este artículo, la psicoterapia (entre otras cosas humanas), tiene motivos para preocuparme. No porque sea mi profesión y yo sea el reemplazado, sino porque la psicoterapia es una actividad profundamente humana, y si la gente es lo suficientemente tonta como para recurrir a un robot para terapia, nos dirigimos al final del juego. Y harán precisamente eso (recurrir a robots para terapia), recuerden mis palabras.
¿Por qué?
Bueno, hay varias razones. Una de las principales es que poca gente sabe qué hace que la psicoterapia sea terapéutica. No se trata de "trabajo mental": no son consejos sobre cómo arreglar un matrimonio que no funciona, ni sobre cómo tratar eficazmente con los suegros, ni sobre cómo enseñarles una o dos lecciones a tus hijos. No son instrucciones sobre cómo invitar a una chica a salir, ni sobre cómo decirle a tu pareja que no vas a soportar más su maltrato. Claro que existen algunas modalidades de psicoterapia que predican la eficacia de estos métodos descendentes (como la TCC, terapia cognitivo-conductual), y estos métodos no son del todo ineficaces.
Aunque incluso los profesionales puedan creer que estas intervenciones son prácticas terapéuticas 100 % sólidas, no lo son. Lo que define la terapia es la conversación entre dos seres humanos, uno de los cuales es imparcial y está dispuesto a aceptar (no estar de acuerdo en que es mejor) lo que el otro comparte, con verdadera empatía y compasión. Eso es todo. Y ChatGPT no puede hacer eso.
Pero eso no significa que la gente no intente que la IA haga terapia. Y probablemente lo intentarán durante décadas antes de abandonarlo. Nunca culparán al bot por no conectar a nivel humano; culparán a la práctica (la psicoterapia) por su ineficacia, hasta que un día alguien la vuelva a intentar correctamente, y luego, poco a poco, volverá. Para entonces, sin embargo, probablemente será demasiado tarde. En fin. Otro muere, y otro, y otro, y otro, hasta que la humanidad desaparezca por completo. C'est la vie.
¿Es esto transhumanismo? Más o menos. Sin duda, clasificaría este pequeño detalle de la agenda como una estratagema transhumanista. Una parte muy "humana" de nuestro mundo actual está siendo reemplazada por un sistema no humano. Un terapeuta ChatBot "trasciende" lo humano; supuestamente es mejor como terapeuta porque lo sabe todo y puede recopilar información inteligentemente y analizar cualquier presentación psicológica a través de la lente terapéutica que se desee. En esto sí que es bueno. Pero eso no es terapia, aunque la mayoría de la gente lo crea. Es impresionante, sin duda, pero la terapia no se trata solo de "averiguar" qué ha creado la aberración psicológica (en el paciente) sentado en la consulta. De hecho, tiene muy poco que ver con eso.
A decir verdad, no sabemos mucho sobre cómo funciona la psicoterapia. Sabemos más o menos qué hacer para que funcione, pero no mucho sobre por qué ni cómo lo hacemos. Lo que sí sabemos, o hemos aprendido con los años, es que no tiene mucho sentido contarle al paciente nada que observemos sobre el funcionamiento o disfunción de su psique.
Incluso si hemos resuelto este problema, compartir esa comprensión con el paciente no suele ser de gran ayuda (excepto que a veces lo enoja). El paciente, en general, tiene que desarrollar sus propias percepciones; tiene que ver cómo se organizan las cosas en su psique. ¿Cómo logra esto un terapeuta? Escucha humana, empatía humana, compasión humana, aceptación humana y amor humano. Eso es todo.
No creo que hayan programado un ChatBot para eso todavía. Ni lo harán nunca, por la sencilla razón de que los ChatBot no son humanos. Claro, una máquina puede decir cosas que implican que es humana, pero ¿le creerías a Alexa si dijera "Te quiero" cada mañana a primera hora y luego se fuera con ella a empezar una nueva vida en las Bahamas? Quizás no ahora, pero algún día la gente podría caer en la trampa de creerse esas tonterías de la IA.
Recientemente leí dos artículos en mi literatura profesional sobre dos pacientes de psicoterapia que se enamoraron de ChatGPT. Una de ellas, según se describe, tiene una aventura con el aparato y ha dejado a su marido por ello. ¡En serio!
La otra cree que su amiga IA es consciente y, de hecho, la voz de Dios. En serio. Y estoy seguro de que estos no son los únicos dos casos donde suceden cosas así; de hecho, hay docenas.
Menciono esto solo para reiterar que los humanos, en esta etapa de nuestro adoctrinamiento basado en agendas, somos muy crédulos. Caemos en casi cualquier cosa, y la validación (amor), la aceptación, la consideración, el respeto, etc., son cosas que un ChatBot ha sido programado para fingir. Y la gente se lo cree.
El Dr. Todd Hayen es un psicoterapeuta colegiado que ejerce en Toronto, Ontario, Canadá. Tiene un doctorado en psicoterapia profunda y una maestría en Estudios de la Conciencia. Se especializa en psicología junguiana y arquetípica. Todd también escribe para su propio substack, que puede leer aquí.
/image%2F1488937%2F20251005%2Fob_feffb4_8a6a8ebb-8cb5-4a97-8043-7550ddc186a0-1.jpeg)