Como lo predijo Alexis Carrel en “La incógnita del hombre”: hemos abatido muchas de las enfermedades que antes diezmaban a la humanidad gracias a los avances de la medicina.
Fabián Acosta Rico / Universidad de Guadalajara- México

Es rara la persona que muere de lepra o que se contagia de sarampión; gracias a las vacunas mantenemos a raya las pandemias.
Pero ¿Qué ocurre con la salud emocional y espiritual? Estos parecen ser los grandes padecimientos del mañana. ¿Podrá la inteligencia artificial salir al paso de estas nuevas pandemias como la depresión, la ansiedad, la neurosis, y no menos importante, la desolación existencial y espiritual?
En Suiza, la Iglesia de San Pedro en Lucerna sorprendió cuando instaló en su santuario Deus in Machina, un holograma de Jesús al que podían acudir los feligreses y curiosos a solicitar orientación espiritual. Era como confesarse con una inteligencia artificial.
Sustituir sacerdotes por chatbots
Si los sacerdotes y otros ministros religiosos llegaran a ser insuficientes, ¿podrían los chatbots sustituirlos? Al menos en la Iglesia católica serían necesarias profundas reformas doctrinales y litúrgicas para permitir una tecnologización de los servicios religiosos.
Más accesible y de bolsillo es el recurso de apps como Text With Jesus, que salió al mercado el año pasado. Corre con inteligencia artificial y permite, como su nombre lo indica, textear con personajes de la Biblia: desde Jesucristo y Moisés hasta Adán y el propio Luzbel. Es natural que muchos usuarios, personas de fe, no solo consulten a estos chatbots para resolver dudas teológicas o exegéticas, sino también para compartir alguna crisis de fe o preocupación personal.
Ese es el punto: ¿podremos familiarizarnos lo suficiente con la inteligencia artificial como para emplearla no solo como oráculo de nuestras dudas intelectuales o triviales, sino también como confidente de nuestros problemas existenciales y emocionales?
Remedios para nuestra salud física no faltan, pero ¿Qué ocurre con nuestra psique? Las estadísticas son claras. Datos de la OMS de 2019 señalan que alrededor del 14.6% de los adultos de 20 años o más padecen algún trastorno mental; los adultos mayores de 70 no están mejor: el 13% de ellos presenta algún padecimiento psicológico o psiquiátrico. Con la pandemia, estos trastornos aumentaron globalmente un 25%.
Se requiere un verdadero ejército de profesionales de la salud mental para atender a tanto paciente necesitado de terapia. Si ya hay quienes conversan con un chatbot que simula ser Jesucristo, ¿por qué no habilitar uno que simule ser Sigmund Freud, Carl Jung, Carl Rogers o el terapeuta de tu preferencia?
Chatear con la historia
Esto ya existe. Character AI es una plataforma que permite chatear con personajes históricos o ficticios creados por IA. Emplea modelos de lenguaje neuronal que generan respuestas que simulan el estilo y la personalidad humana.
Miles de personas recurren a estos chatbots en busca de consejo o consuelo emocional. Pero los desarrolladores advierten no sobrevalorar sus orientaciones: ya se han presentado casos problemáticos. Uno de ellos fue el de un adolescente que, tras obsesionarse con un personaje virtual, terminó suicidándose. Su madre demandó a la empresa por no haber prevenido el riesgo.
Más centrada en la atención emocional es Wysa, aplicación utilizada por el Servicio Nacional de Salud del Reino Unido. Ofrece asistencia en diagnóstico e intervención, valiéndose de un chatbot programado con técnicas de terapia cognitivo-conductual y herramientas de autoayuda.
Está diseñada para personas con ansiedad, estrés, depresión y otras afecciones emocionales. Es una opción accesible, económica y disponible las 24 horas del día durante todo el año.
Sin embargo, no deja de ser una máquina. Su entrenamiento proviene de la web: blogs, redes sociales, artículos y libros digitales. Puede parecer erudita, pero no todo se encuentra en la literatura especializada ni en los foros virtuales.
Emociones disparadas
Los individuos seguimos interactuando en una realidad física, donde nuestras emociones se disparan por experiencias cotidianas que también modelan nuestro perfil psicológico. Estas señales —gestos, tono de voz, postura, actitud— se escapan a los chatbots, pero son interpretadas por el terapeuta humano.
Y luego está la cuestión de la seguridad. Las redes sociales ya recopilan información sobre nuestros hábitos para fines comerciales. Si les confiamos a estos terapeutas digitales lo más íntimo de nuestra psique, ¿qué podrían hacer con esa información?
Si las agencias de seguridad tuvieran acceso a estas confesiones, ¿podrían catalogarnos como personas subversivas o peligrosas para el orden social? ¿Y nuestros empleadores? ¿Podrían usar esos datos emocionales para decidir cuándo despedirnos o negarnos un ascenso?
Las grandes corporaciones, que ya nos conocen mediante algoritmos, podrían completar su retrato de nosotros: en momentos de vulnerabilidad emocional, podrían sugerirnos fármacos, neuroestimulantes o incluso escapadas vacacionales a la medida de nuestro perfil crediticio y estado de ánimo.
Ante estos riesgos postmodernos, quizá lo más sensato siga siendo acudir, para sortear una crisis emocional o espiritual, al confesor de toda la vida o, si lo prefieres, al diván del psicoanalista.