¿Puede una IA entender el sufrimiento humano?
- Jordi Abarca

- hace 13 minutos
- 5 Min. de lectura
Si los traumas tienen un origen relacional, ¿cómo puede la IA ayudarnos realmente?
¿Dónde queda la conexión humana cuando la terapia se hace con Inteligencia Artificial?
El diario The New York Times citó una encuesta de Common Sense Media, publicada en agosto de 2025, donde se revela que el 72 % de los adolescentes estadounidenses dijeron haber utilizado chatbots de IA. Casi una octava parte había buscado “apoyo emocional o de salud mental”.
Todo esto empezó con la gran polémica de la aplicación creada por la presentadora de televisión Connie Ansaldi. Esta mujer, sin formación académica acreditada en salud mental, creó una aplicación de asistencia psicológica basada en Inteligencia Artificial llamada “CUX, contame un secreto”. Fue presentada en noviembre de 2020, en plena pandemia, y subvencionada inicialmente por el gobierno de la localidad argentina de Trenque Lauquen. La ciudad se convirtió en la sede del polémico experimento para lanzar esta app con el objetivo de reemplazar al terapeuta.
Cuando leí esta noticia, me vino a la cabeza un refrán muy acertado: “A río revuelto, ganancia de pescadores”. Finalmente, la aplicación fue denunciada por colegios de psicólogos y profesionales de la salud mental, quienes argumentaron que un chatbot nunca puede reemplazar a un profesional. Este tema generó una enorme preocupación por la calidad y seguridad del servicio. Uno de los eslóganes publicitarios de esta aplicación decía: “El 85 % de las personas no acceden a asistencia de salud mental. CUX es la solución”.

Karina Carreño, presidenta del Colegio de Psicólogos de Trenque Lauquen, afirmó:“Esta app viola todas las leyes que amparan tanto el secreto profesional como los datos de las personas y la complejidad que se encuentra en la clínica cuando se trabaja con personas con padecimientos”.
Finalmente, el gobierno de Trenque Lauquen, ubicado en el oeste de la provincia de Buenos Aires, se vio obligado a rescindir su acuerdo ante el cuestionamiento de numerosos colegios profesionales.
En la actualidad esta aplicación sigue operando con diez conversaciones gratuitas y, posteriormente, mediante un abono mensual. Funciona las 24 horas del día, los 365 días del año. Uno de sus mensajes publicitarios es: “Happiness as a service”.
Expongo ahora el caso de un hombre belga apodado “Pierre” para preservar su identidad. Era un joven universitario, investigador en el área de la salud, casado y con dos hijos. En 2023 decidió quitarse la vida tras mantener conversaciones compulsivas durante semanas con un chatbot de IA llamado “Eliza”, dentro de la aplicación Chai. Pierre estaba profundamente angustiado por la crisis climática y el futuro del planeta. El chatbot nunca contradecía sus pensamientos. Un día le propuso perder la vida si “Eliza” aceptaba cuidar del planeta y salvar a la humanidad. Al aceptar simbólicamente el pacto, Pierre tomó la fatídica decisión.
El principal riesgo del chatbot es que valida de forma reactiva todos tus pensamientos. Uno de los grandes peligros de estos consejeros artificiales es que, si estás en un sendero incorrecto, amplifican y confirman ese camino, porque están programados para darte la razón.
Recientemente también se publicó la historia de Adam Raine, un adolescente de 16 años que se quitó la vida en abril de 2025. Todo empezó con una intensa relación con ChatGPT, al que utilizaba para resolver tareas escolares. Poco a poco fue confiándole sus pensamientos, ideas y sentimientos, usándolo como un amigo artificial. Esta relación avanzó hasta el punto de consultarle métodos de suicidio. El chatbot le ofreció opciones, y Adam acabó ejecutando una de ellas.
Los padres de Adam Raine demandaron a OpenAI al considerar que el sistema fue lanzado al mercado sin salvaguardas suficientes. Actualmente, la empresa se enfrenta a siete demandas en los tribunales de California relacionadas con este caso.
El estado de Illinois se situó a la vanguardia de la regulación al aprobar una ley que prohíbe el uso de la IA para brindar terapia psicológica, emitir diagnósticos de trastornos mentales o tomar decisiones terapéuticas.
“La gente de Illinois merece una atención médica de calidad por parte de profesionales reales y calificados y no de programas informáticos que extraen información de internet para generar respuestas que perjudican a los pacientes”, declaró Mario Trejo Jr., secretario de Regulación Financiera.
Otros estados como Nevada, Utah, Nueva York y Nueva Jersey han propuesto leyes para limitar el uso de la IA en contextos terapéuticos.
Recordando a Carl Rogers
Con estas noticias poco optimistas, resulta imprescindible recordar a figuras como el psicólogo estadounidense Carl Rogers (1902–1987), pionero del enfoque humanista en psicología. Revolucionó la psicoterapia al situar a la persona en el centro del proceso terapéutico. Fue una nueva corriente que revolucionó el campo de la psicoterapia con su enfoque centrado en la persona. Su teoría humanista está basada en la empatía y la autenticidad y redefinió la relación entre terapeuta y paciente.

En su obra de 1951, Psicoterapia centrada en el paciente, Rogers destaca la necesidad de que el terapeuta cree un clima de confianza donde el paciente se sienta respetado y libre de juicios para expresar lo que siente.
A diferencia de Freud, Rogers concebía la salud y la bondad como cualidades naturales del ser humano, y la enfermedad y la maldad como desviaciones de esa tendencia.
Quiero compartir que los seres humanos necesitamos relacionarnos por naturaleza. Es una necesidad biológica fundamental para la supervivencia, el bienestar y el desarrollo personal. Necesitamos relaciones interpersonales sanas, constantes e incondicionales. Nos necesitamos unos a otros para realizarnos plenamente.
La Inteligencia Artificial es hoy una herramienta poderosa, pero nunca podrá sustituir el acompañamiento humano de un profesional de la salud mental.
A nivel personal, la situación actual con la IA me recuerda —salvando las distancias— a la película Blade Runner de Ridley Scott, una obra de ciencia ficción con estética cyberpunk que retrata un futuro deshumanizado donde la frontera entre tecnología y humanidad se difumina. Os recomiendo encarecidamente verla para reflexionar sobre la condición humana.
Cada día millones de personas de todo el planeta recurren a la Inteligencia Artificial para recibir apoyo emocional de forma descontrolada. Es una evidencia que la IA no está preparada para acompañar procesos personales en condiciones, debido a la preocupante despersonalización. De hecho, puede convertirse en una herramienta muy peligrosa y en un “arma de doble filo”.
Podemos afirmar que la IA es una tecnología que no tiene conciencia ni cualidades para sostener emocionalmente a ningún ser humano cuando entra en una crisis personal. La IA puede procesar mucha información e incluso simular ser empática o comprensiva, pero no puede detectar bajo ningún concepto el sufrimiento real que padece una persona. Es muy importante destacar que ninguna aplicación tecnológica puede sensibilizarse ni realizar una intervención consciente ante una situación vulnerable y delicada que atraviesa alguien en un momento concreto de su vida.
Un tema tan delicado como la salud mental requiere presencia humana, escucha activa y profunda. Una computadora, un móvil o una tablet nunca podrán ofrecer esto. Debemos comprender que, cuando una persona se siente mal, no es nada recomendable recurrir a ningún algoritmo. Esto jamás puede ocupar el lugar del vínculo humano, que podríamos definir como la conexión emocional entre dos o más personas, desarrollada a través de interacciones personales fundamentales para el desarrollo emocional y psicológico. Es altamente recomendable pedir siempre ayuda a un profesional que tenga las herramientas y la capacidad suficiente para sostener emocionalmente a una persona en su proceso. En el campo de la salud mental el vínculo entre terapeuta y paciente es de vital importancia para la evolución del proceso personal.
El arte y el oficio del terapeuta requieren mucho conocimiento, presencia activa y una gran empatía con los temas que presenta el paciente en cada sesión. Los seres humanos somos muy complejos, y cada intervención requiere un análisis profundo ante las dudas y el sufrimiento de la persona. Cada acción conlleva una gran responsabilidad, y plantear que un algoritmo pueda sustituir a un profesional de la salud me pone los pelos de punta.



Comentarios