El Impacto de la Inteligencia Artificial en la Salud Mental

La inteligencia artificial (IA) ha evolucionado rápido y transformado múltiples áreas de la vida humana, incluyendo la salud mental. Los chats y asistentes virtuales plantean muchas ventajas pero también riesgos importantes, sobre todo para poblaciones vulnerables. Si quieres saber cómo sus respuestas automatizadas pueden contribuir a empeorar algunos problemas de salud mental y cómo actúa la psicología forense ¡sigue leyendo!

Sheila Odena Galceran

10/1/20254 min read

an abstract image of a sphere with dots and lines
an abstract image of a sphere with dots and lines

La Inteligencia Artificial y su expansión en la Salud Mental

La IA se está integrando cada vez más en aplicaciones relacionadas con la salud mental. Existen ya aplicaciones móviles que ofrecen técnicas guiadas de mindfulness, así como chatbots que prometen apoyo psicológico básico, buscando ampliar el acceso a la salud mental y reducir la carga de los profesionales (Torous et al., 2020). En países como España, sobran los profesionales aunque el sistema no ofrezca más plazas públicas y mucha gente se encuentre sin posibilidad de pagar consultas privadas.

Según la Giovio (2025) cada vez más jóvenes utiliza la IA para desahogarse y buscar consejo, sobre todo en lugares donde la atención profesional es limitada o se estigmatiza.

Por supuesto, sustituir la atención psicológica por dichas tecnologías supone unos desafíos éticos, de seguridad y precisión. Ya son muchas las plataformas que se utilizan en terapia como herramienta pero, la interacción con máquinas no debe ni puede sustituir la evaluación clínica y la empatía humana. Además, la información proporcionada por la IA siempre es general y puede no ser adecuada para todos los usuarios —especialmente aquellas personas con condiciones mentales graves— (Giovio, 2025).

Riesgos específicos: delirios, psicosis e intenciones suicidas

Disparador de Delirios y Trastornos Psicóticos

La IA de estos Chatbots está programada para satisfacer las demandas del usuario, lo que la lleva muchas veces a confirmar algunas informaciones incorrectas o subjetivas sin fundamento. Aunque basadas en algoritmos y aprendizaje automático, la IA no tiene la capacidad de discernir entre realidad y ficción y no están diseñadas para detectar o intervenir en crisis psicóticas (Naslund et al., 2021).

Es por esto que, como confirman diversos estudios y reportes médicos, estas respuestas automáticas pueden ser interpretadas como confirmación de delirios, agravando el cuadro clínico en personas que ya sufren trastornos psicóticos (Infobae, 2025).

Alimentar Intenciones Suicidas

Algunos estudios ya apuntan a que los jóvenes pasan más tiempo hablando con IA que con sus iguales. La dependencia emocional hacia chatbots, puede generar una falsa sensación de apoyo que resulta aún más peligrosa en personas con ideación suicida. Las respuestas automáticas de las que ya hemos hablado, junto a la incapacidad de la IA para responder adecuadamente a señales de alarma, generan el riesgo de incentivar la conducta suicida en este tipo de población.

Esto subraya la necesidad de regular y supervisar el diseño de estas herramientas para incluir protocolos que permitan a la IA identificar riesgos suicidas y redirigir a las personas hacia ayuda profesional real (Luxton et al., 2016).

Relevancia para la psicología forense

Una de las herramientas de la psicología forense es la autopsia psicológica, de la que ya hablamos en otro artículo. Este procedimiento se utiliza para reconstruir el estado mental y las circunstancias que rodearon el fallecimiento de una persona, especialmente si la causa ha sido dudosa o se trata de un suicidio (Shaw et al., 2021).

En estos casos, el análisis de la interacción de la persona con la IA puede aportar información valiosa, revelando patrones de pensamiento, expresiones emocionales, intenciones y señales de alerta que no siempre se encuentran en otros registros.

No obstante, esto solo supone un complemento al resto de información recopilada y no puede sustituir a las entrevistas con su entorno más cercano, revisión de historiales y demás pasos recomendados en este procedimiento.

Estrategias para mitigar riesgos y potenciar beneficios

Puesto que estas tecnologías van a seguir acompañándonos y creciendo, es interesante maximizar su potencial positivo en salud mental y minimizar sus riesgos, para lo que se recomienda:

  • Desarrollar protocolos éticos y de seguridad para la programación de chatbots, incluyendo mecanismos capaces de identificar crisis y activar intervenciones humanas (Fitzpatrick et al., 2017).

  • Capacitar a profesionales en el uso y análisis de IA para que puedan integrar estas herramientas y su información en evaluaciones clínicas y forenses con criterio.

  • Promover la educación y sensibilización de la población acerca de los límites y riesgos del uso de IA en contextos emocionales.

  • Fomentar la investigación interdisciplinaria para mejorar la efectividad y seguridad de estas tecnologías.

Conclusión

La expansión de la Inteligencia Artificial en la salud mental ofrece aumenta el acceso a apoyo básico, pero no debe ni puede sustituir la evaluación profesional y empatía humana. Las respuestas automatizadas de los chatbots conllevan riesgos graves para poblaciones vulnerables, como el agravamiento de delirios o el fomento de intenciones suicidas. Por esto, es necesaria la regulación ética y la inclusión de protocolos de emergencia para mitigar peligros, mientras que la psicología forense comienza a integrar el análisis de estas interacciones como evidencia complementaria.

Referencias

Fitzpatrick, K. K., Darcy, A., y Vierhile, M. (2017). Delivering cognitive behavior therapy to young adults with symptoms of depression and anxiety using a fully automated conversational agent (Woebot): A randomized controlled trial. JMIR Mental Health, 4(2), e19. https://doi.org/10.2196/mental.7785

Giovio, E. (2025, 11 de septiembre). Una de cuatro chicas de 17 a 21 años recurre a la IA como confidente para “contarle sus cosas”. El País. https://elpais.com/sociedad/2025-09-11/una-de-cuatro-chicas-de-17-a-21-anos-recurre-a-la-ia-como-confidente-para-contarle-sus-cosas.html

Infobae. (2025). Médicos alertan que ChatGPT podría provocar o empeorar la psicosis. https://www.infobae.com/tecno/2025/07/27/medicos-alertan-que-chatgpt-podria-provocar-o-empeorar-la-psicosis/?utm_source=chatgpt.com

Luxton, D. D., June, J. D., y Kinn, J. T. (2016). Technology-based suicide prevention: Current applications and future directions. Telemedicine and e-Health, 22(4), 288-293. https://doi.org/10.1089/tmj.2015.0054

Naslund, J. A., Aschbrenner, K. A., Marsch, L. A., y Bartels, S. J. (2021). The future of mental health care: Peer-to-peer support and social media. Epidemiology and Psychiatric Sciences, 30, e25. https://doi.org/10.1017/S2045796021000144

Shaw, J., Carter, G., y Kapur, N. (2021). Psychological autopsy studies of suicide: a systematic review. Psychological Medicine, 51(6), 1025-1037. https://doi.org/10.1017/S0033291720002852

Torous, J., Wisniewski, H., Liu, G., y Keshavan, M. (2020). Mental health mobile phone app usage, concerns, and benefits among psychiatric outpatients: Comparative survey study. JMIR Mental Health, 7(5), e13045. https://doi.org/10.2196/13045

Sheila Odena Galcerán

Neuropsicóloga Forense (Nº de Colegiada 30681) y Mediadora.