viernes, noviembre 7, 2025

¿SON SEGUROS LOS CHATBOTS DE TERAPIA CON IA?

Debes leer

Tras haber tenido pensamientos suicidas este año, Brittany Bucicchia ingresó voluntariamente en un centro de salud mental cerca de su casa en la zona rural de Georgia.

Cuando se marchó unos días después, sus médicos le recomendaron que continuara el tratamiento con un psicoterapeuta. Pero ella desconfiaba de la terapia tradicional tras experiencias frustrantes en el pasado, así que su marido le sugirió una alternativa que había encontrado en internet: un chatbot terapéutico llamado Ash, impulsado por inteligencia artificial.

La Sra. Bucicchia comentó que le tomó algunos días acostumbrarse a hablar y mensajearse con Ash, que respondía a sus preguntas y quejas, le proporcionaba resúmenes de sus conversaciones y le sugería temas en los que pensar. Pero pronto empezó a apoyarse en ella para obtener apoyo emocional, compartiendo detalles de su vida diaria, así como sus esperanzas y temores.

En un momento dado, relató un recuerdo difícil de su estancia en un centro de salud mental. El chatbot le respondió que, si tenía pensamientos suicidas, debía contactar con un profesional y le facilitó un número gratuito al que llamar.

“Hubo un período de adaptación”, dijo la Sra. Bucicchia, de 37 años. “Pero al final resultó ser lo que necesitaba. Me puso a prueba, me hizo muchas preguntas, me recordó lo que había dicho en el pasado y me hizo volver a esos momentos cuando fue necesario”.

La experiencia de la Sra. Bucicchia forma parte de un esfuerzo experimental y creciente por ofrecer alternativas automatizadas a la terapia tradicional mediante chatbots. Esto ha suscitado interrogantes sobre si estos chatbots, desarrollados por empresas tecnológicas emergentes y académicos, deberían estar regulados como dispositivos médicos. El jueves, la Administración de Alimentos y Medicamentos (FDA) celebró su primera audiencia pública para analizar este tema.

Durante décadas, académicos y emprendedores vieron potencial en la inteligencia artificial como herramienta para la terapia personal. Sin embargo, las preocupaciones sobre los chatbots terapéuticos y su capacidad para abordar adecuadamente temas personales delicados han aumentado y se han vuelto cada vez más polémicas. Este verano, Illinois y Nevada prohibieron el uso de chatbots terapéuticos debido a que estas tecnologías no contaban con la licencia correspondiente, a diferencia de los terapeutas humanos. Otros estados están considerando prohibiciones similares.

La inquietud se ha agudizado a medida que las personas han desarrollado vínculos emocionales con chatbots de uso general como ChatGPT de OpenAI, a veces con consecuencias peligrosas. En agosto, OpenAI fue demandada por la muerte de Adam Raine , un joven de 16 años del sur de California que había pasado muchas horas hablando con ChatGPT sobre el suicidio. Su familia acusó a la empresa de homicidio culposo.

(El New York Times ha demandado a OpenAI y a su socio, Microsoft, alegando infracción de derechos de autor sobre contenido informativo relacionado con sistemas de IA. Las empresas han negado las acusaciones).

A diferencia de ChatGPT, Ash, el chatbot que utilizó la Sra. Bucicchia, fue diseñado específicamente para terapia por Slingshot AI, una empresa emergente neoyorquina que cuenta con psicólogos clínicos y otros profesionales con experiencia en el desarrollo de terapias con IA. Slingshot no ha probado a Ash en un ensayo clínico.

Aún no está claro qué tan bien funcionan los chatbots terapéuticos. En septiembre, a medida que aumentaba el escrutinio tanto de los chatbots de uso general como de los diseñados para terapia, Slingshot dejó de comercializar a Ash como chatbot terapéutico. Ahora, la empresa emergente promociona la aplicación para la «salud mental y el bienestar emocional».

Slingshot afirmó que lucharía en la audiencia de la FDA para ofrecer Ash en internet pública, en parte porque cree que el uso generalizado es vital para comprender la tecnología y seguir mejorándola.

“La principal razón por la que hemos salido al mercado —con todas las medidas de seguridad y protección que hemos implementado— es para poder ver cómo se comporta esta tecnología en casos de uso reales”, dijo Derrick Hull, psicólogo clínico de Slingshot.

La startup ofrece Ash de forma gratuita, pero podría cobrar una tarifa en el futuro.

Las alternativas automatizadas a la terapia se remontan a mediados de la década de 1960, cuando Joseph Weizenbaum, investigador del MIT, creó una psicoterapeuta automatizada llamada Eliza. Cuando los usuarios escribían sus pensamientos en la pantalla de un ordenador, Eliza les pedía que los desarrollaran o repetía sus palabras en forma de pregunta. El profesor Weizenbaum escribió que le sorprendió que la gente tratara a Eliza como si fuera humana, compartiendo sus problemas y encontrando consuelo en sus respuestas.

Eliza dio inicio a un esfuerzo de décadas para desarrollar chatbots para psicoterapia. En 2017, una empresa emergente creada por psicólogos de Stanford e investigadores de IA lanzó Woebot, una aplicación que permitía a las personas hablar sobre sus problemas y registrar su estado de ánimo. Las respuestas de Woebot estaban predefinidas, por lo que se ajustaba a las técnicas establecidas de la terapia cognitivo-conductual, una forma común de terapia conversacional.

Más de 1,5 millones de personas llegaron a usar Woebot. Su producción se interrumpió este año, en parte debido a problemas regulatorios.

En cambio, Ash se basa en un modelo de lenguaje a gran escala que aprende analizando grandes cantidades de texto digital recopilado de internet. Al identificar patrones en cientos de artículos de Wikipedia, noticias y conversaciones, por ejemplo, puede generar texto con apariencia humana de forma autónoma.

Posteriormente, Slingshot perfeccionó la tecnología para ayudar a las personas con problemas de salud mental. Al analizar miles de conversaciones entre terapeutas licenciados y sus pacientes, Ash aprendió a comportarse de manera similar.

A medida que los usuarios interactuaban con el chatbot, la empresa perfeccionaba el comportamiento de Ash mostrándole sus aciertos y errores . Casi a diario, el equipo de psicólogos y tecnólogos de Slingshot evaluaba las respuestas del chatbot y, en algunos casos, las reescribía para demostrar la forma ideal de abordar situaciones específicas. Actuaban como tutores, proporcionando a Ash retroalimentación precisa para mejorar su comportamiento.

Sin embargo, como todos los chatbots entrenados de esta manera , Ash a veces hace cosas inesperadas o comete errores.

“Gran parte de la terapia consiste en exteriorizar el mundo interior: expresar las cosas, decirlas. Ash me permite hacerlo”, dijo Randy Bryan Moore, de 35 años, trabajador social de Richmond, Virginia, quien ha utilizado el chatbot desde el verano. “Pero no reemplaza la conexión humana”.

En marzo, psicólogos de Dartmouth publicaron los resultados de un ensayo clínico de TheraBot, un chatbot que la universidad había desarrollado durante más de seis años. El ensayo reveló que el chatbot redujo significativamente los síntomas de depresión, ansiedad y trastornos alimentarios de los usuarios. Sin embargo, los psicólogos de Dartmouth consideraron que su tecnología aún no estaba lista para su uso generalizado.

“Las pruebas de su eficacia son contundentes”, afirmó Nicholas Jacobson, uno de los psicólogos clínicos que supervisó el proyecto TheraBot. “Ahora nos centramos en un enfoque sumamente cuidadoso, seguro y basado en la evidencia para su comercialización”.

spot_img
spot_img
spot_img
- Publicidad-spot_img
- Publicidad-spot_img

Más artículos como este