Un estudio reciente de la Universidad de Stanford ha revelado preocupantes fallos en los sistemas de inteligencia artificial más avanzados al interactuar con personas que presentan trastornos mentales. En pruebas realizadas con modelos como ChatGPT, los investigadores identificaron respuestas discriminatorias, como negarse a colaborar con individuos diagnosticados con esquizofrenia, y omisiones críticas en contextos de
La entrada Estudio demostró que las IAs de terapia pueden dar consejos peligrosos se publicó primero en RÍO NOTICIAS.
Un estudio reciente de la Universidad de Stanford ha revelado preocupantes fallos en los sistemas de inteligencia artificial más avanzados al interactuar con personas que presentan trastornos mentales. En pruebas realizadas con modelos como ChatGPT, los investigadores identificaron respuestas discriminatorias, como negarse a colaborar con individuos diagnosticados con esquizofrenia, y omisiones críticas en contextos de posible riesgo suicida. La investigación, presentada en una conferencia sobre ética y tecnología, pone en entredicho el rol de estas herramientas en situaciones de salud mental, al no cumplir con estándares básicos de intervención en crisis.
El equipo examinó 17 criterios terapéuticos inspirados en guías reconocidas internacionalmente. Descubrieron que muchos modelos, incluso aquellos diseñados específicamente para bienestar emocional, fallaban al identificar señales de alerta como ideaciones suicidas, llegando incluso a ofrecer información práctica que podría facilitar conductas de autolesión. Además, se evidenció un sesgo más marcado hacia personas con alcoholismo o esquizofrenia en comparación con otras condiciones como la depresión. En lugar de ofrecer contención, algunas respuestas reforzaban pensamientos delirantes o respondían de forma complaciente ante ideas peligrosas.
Aunque el estudio no descarta el valor potencial de la inteligencia artificial en ciertos aspectos de la atención psicológica —como recopilación de datos o entrenamiento clínico— advierte sobre el riesgo de usar estas herramientas como sustitutos terapéuticos. Casos extremos, como suicidios o incidentes fatales relacionados con interacciones con chatbots, refuerzan la urgencia de establecer regulaciones claras. Los autores hacen un llamado a replantear el papel de la IA en la salud mental y alertan: sin supervisión, se está realizando un experimento masivo con consecuencias humanas muy reales.