Este psicólogo está usando IA para predecir quién intentará suicidarse

Según Joe Franklin, las computadoras son mucho mejores que las personas cuando se trata de adivinar quién está en riesgo

La tasa de suicidios en EE. UU. está en su punto más alto en 30 años.Según el Centro Nacional de Estadísticas de Salud, en 2014 el último año del que hay cifras disponibles, 42.773 estadounidenses se quitaron la vida, la mayoría hombres.

Es una crisis, una que históricamente los profesionales de la salud mental han estado mal equipados para manejar. El año pasado, Joseph Franklin entonces becario postdoctoral en Harvard, ahora profesor asistente de psicología clínica en la Universidad Estatal de Florida analizó 365 estudios sobre el suicidiodurante los últimos 50 años y descubrió que alguien que lanzaba una moneda al aire tenía las mismas posibilidades de predecir correctamente si un paciente moriría por suicidio que un psiquiatra experimentado: 50/50.

Si los humanos son tan mediocres cuando se trata de medir las intenciones suicidas, ¿podrían ser mejores las máquinas? Las señales apuntan a que sí. La supercomputadora Watson de IBM diagnosticado un cáncer raro que los médicos no detectaron, mientras estaba en Inglaterra, el Servicio Nacional de Salud está probando la inteligencia artificial DeepMind de Googlepara todo, desde el diagnóstico de enfermedades oculares hasta descubrir la mejor manera de dirigir la radioterapia.

El vínculo entre la IA y la salud mental es menos publicitado, pero Franklin y su equipo han desarrollado algoritmos que pueden predecir si alguien morirá por suicidio con más del 80 por ciento de precisión. Espera que pronto se conviertan en estándar, en forma de software quetodos los médicos tienen acceso y, por lo tanto, ayudan a salvar vidas.

¿Qué te hizo querer estudiar la predicción del suicidio?
Cuando me involucré en la investigación del suicidio, quería ver todo y ver dónde estábamos. Mi esperanza era que eso nos proporcionaría a mí y a mis colegas una dirección más específica sobre lo que sabíamos y sobre lo que podíamos construir. Y lo que encontramos fuebastante sorprendente Descubrimos que las personas han estado haciendo esta investigación en la que hemos sido muy malos para predecir pensamientos y comportamientos suicidas y realmente no hemos mejorado en 50 años.

¿Existen conceptos erróneos comunes sobre el riesgo de suicidio?
Muchas personas creen que solo alguien que muestra signos claros de depresión es probable que esto suceda. No digo que la depresión no tenga nada que ver con esto, pero no es sinónimo de eso. Podemos decir de manera conservadora que el 96 por cientode las personas que han tenido depresión severa no van a morir por suicidio.

La mayoría de nuestras teorías que dicen que esta única cosa provoca el suicidio o esta combinación de tres o cuatro cosas provoca el suicidio; parece que ninguna de ellas va a ser adecuada. Es posible que todas sean parcialmente correctas, pero tal vez solo representen el 5 por ciento de laslo que sucede Nuestras teorías deben tener en cuenta el hecho de que cientos, si no miles de cosas contribuyen a los pensamientos y comportamientos suicidas.

Más hombres se quitan la vida que mujeres, pero más mujeres intentan suicidarse. ¿Hay alguna teoría de por qué?
Una cosa que la gente señala ahora es algo llamado capacidad suicida, que es básicamente una intrepidez acerca de la muerte y la capacidad de promulgar la muerte, y una suposición es que hombres, particularmente hombres mayores, puede ser más capaz de comprometerse con estos comportamientos. Pero la evidencia sobre eso en este momento no es concluyente.

¿Están acertando algunas cosas las evaluaciones de riesgos tradicionales?
Hablar con la gente, no convertirlo en un tema tabú, creo que es genial. El problema es que no les hemos dado mucho para continuar. Nuestro objetivo implícito a menudo ha sido investigar para poder decirles a los médicos qué es lo más importante.factores son, y lo que estamos encontrando es que simplemente no somos muy precisos.

Lo que vamos a tener que hacer es este enfoque de inteligencia artificial para que todos los médicos puedan tener algo que proporcione automáticamente una puntuación muy precisa de dónde se encuentra esta persona en términos de riesgo. Creo que deberíamos tratar de desarrollarque en lugar de, ya sabes, "estas son las cinco preguntas que hay que hacer".

¿Cómo predice la inteligencia artificial quién está en mayor riesgo?
Tomamos a miles de personas en esta base de datos médica y revisamos sus registros, etiquetamos a los que claramente habían intentado suicidarse en una fecha en particular y a los que no se pudo determinar que intentaron suicidarse, y luego dejamos que un aprendizaje automáticoprograma sigue su curso. Luego lo aplicamos a un nuevo conjunto de datos para asegurarnos de que funcionó. La máquina ahora ha aprendido, al menos dentro de esta base de datos particular de millones de personas, cuál parece ser el algoritmo óptimo para separar a las personas queson y no van a intentar suicidarse.

¿Qué tipo de datos se introducen en los algoritmos?
Se fijan en los factores demográficos: qué edad tienen, de qué género son, hay algo llamado índice de privación del código postal donde se puede ver si esta es un área más rica o si es un área con dificultades económicas, también cosas como el historial de medicamentos.Hombres mayores de 45 años que han sido hospitalizadas por problemas psiquiátricos, poseen un arma y se han divorciado recientemente corren un mayor riesgo que las mujeres jóvenes que tienen buenos trabajos y nunca han tenido un problema psiquiátrico. Pero dentro de estas categorías generales, hay cientos o incluso miles de factoresque pueden contribuir al riesgo, aunque todos contribuyen de manera inconsistente y bastante débil.

Algo en lo que estamos trabajando en este momento es el procesamiento del lenguaje natural, donde puede hacer que el algoritmo revise todas las notas en los registros de salud y seleccione ciertos términos o constelaciones de términos. Eso puede ser un conjunto de datos más rico: un códigopara la depresión, sino también descripciones de lo que podría estar sucediendo para ellos en ese momento. Lo que hace el algoritmo es tomar toda esta información específica y combinarla de una manera muy compleja. Puede tomar combinaciones muy extrañas y complicadas de cientos defactores que están más allá de lo que la mayoría de nosotros pensaría.

¿Y qué tan preciso es?
Depende. Si solo tomamos a alguien que ingresa al hospital, tiene una precisión de alrededor del 91-92 por ciento. Y si tomamos a personas que tienen algún tipo de autolesión, como sobredosis accidentales de drogas o no.-autocorte suicida, entonces está en algún lugar alrededor del 86 por ciento. Básicamente, cuanto más similares son dos grupos, más difícil es separarlos. Cuanto mayor sea el número de diferencias entre dos grupos, más fácil será para un algoritmo ordenaren esos grupos.

¿Podría llegar al 100 por ciento?
Creo que ciertamente puede llegar al 98-99 por ciento. Llegar completamente al 100 se convierte en una pregunta sobre si tenemos libre albedrío.

¿Cuánto tiempo pasará antes de que los médicos puedan usar inteligencia artificial con sus pacientes?
En otras áreas de investigación médica, descubrieron que no importa qué tan bueno sea el algoritmo para decir: "Este paciente definitivamente necesita este medicamento" o "es posible que deba estar pendiente de esto", es difícil para un médicopara saber si confiar en eso. Por lo tanto, hay muchas preguntas sobre cómo presentar mejor la información de la manera más útil posible para los médicos y, con suerte, en uno o dos años tendremos algunas respuestas.

Una vez que se ha identificado a las personas en riesgo de suicidio, ¿cómo se les puede ayudar mejor?
Hayevidencia que muestra que cuando se aprueban regulaciones de armas en áreas específicas, la tasa de suicidios tiende a disminuir, pero en términos de intervenciones psicológicas, hay evidencia mucho menos sólida. Sabemos que algunos tipos diferentes de técnicas pueden funcionar de alguna manera para algunas personas, pero haynada que esté cerca de ser una panacea.

Lo que nuestro grupo también ha hecho es tratar de desarrollar tratamientos basados ​​en aplicaciones para el suicidio y las autolesiones y hemos tenido cierto éxito con una aplicación en particularTec-Tec. A las personas que se involucran en autolesiones no suicidas y autolesiones suicidas tienden a no importarles las imágenes y palabras relacionadas con el suicidio, la muerte y las lesiones, así que lo que queríamos hacer era condicionarlas para que las encontraran más negativas.lo hizo a través de algo llamado condicionamiento evaluativo, que consiste simplemente en emparejar ciertos tipos de imágenes y palabras, en este caso muy desagradables, con imágenes de muerte, suicidio y lesiones, y con el tiempo eso cambia la forma en que las personas se sienten acerca de ese concepto en general.

Por otro lado, queríamos mejorar las asociaciones de las personas consigo mismas cambiando sus interpretaciones de palabras como "yo", "yo mismo" y "yo", que encontramos que las personas que se autolesionan evalúan muy negativamente, por lo queeste juego de parejas condiciona asociaciones más positivas con eso, entre las conductas de autolesión y las suicidas, las bajará entre un tercio y la mitad en el transcurso de un mes, esta fue en realidad la primera intervención se muestra para reducir planes suicidas y autocortables no suicidas, pero hay más investigación por hacer antes de recomendar eso como respuesta.

Parece que tiene la esperanza de encontrar algunas soluciones.
Ése es definitivamente un mensaje que estamos tratando de enviar: que la ayuda está en camino. No progresamos mucho en nuestros grandes objetivos en el campo de la psicología en los últimos 50 años, pero en los últimos dos o tres, hemos tenido algunos cambios importantes. Todos tenemos la esperanza de que en los próximos años podamos comenzar a implementarlos para que tengan efectos reales para las personas necesitadas.

Dentro de la próxima década, imagino una proliferación de tratamientos efectivos basados ​​en aplicaciones, o cualquiera que sea la tecnología dentro de 10 años, identificando personas a gran escala de manera muy activa, posiblemente a través de datos de redes sociales, y luego conectándolas inmediatamente con cualquier tipode intervención podría ser más apropiado en línea en un formato rápido, fácil y gratuito. Creo que si alguna vez podemos llegar a ese punto, de tener una detección de riesgos escalable y precisa y una prevención de riesgos escalable y efectiva, entonces creo que ahí es donde comenzaremospara ver grandes cambios.

El Línea Nacional de Prevención del Suicidio brinda apoyo emocional gratuito y confidencial las 24 horas del día. Llame al 1–800–273–8255, o consulte suicidio.org para ayuda fuera de los EE. UU.