Desde ayudar a los médicos a diagnosticar enfermedades hasta hacer mejores recomendaciones de tratamientos, la inteligencia artificial (IA) está revolucionando la salud y la medicina. Pero la IA ha sido desarrollada predominantemente por hombres, basándose en conjuntos de datos que priorizan las necesidades corporales y de salud de los hombres. Esto significa que muchos modelos de IA están plagados de prejuicios sexuales y de género, lo que genera riesgos para la salud tanto de las mujeres como de los pacientes no binarios.

Con este sesgo en la medicina bajo el foco de atención en los últimos años, ¿la IA ampliará las disparidades existentes en la atención médica, o podrá usarse para ayudar a cerrar la brecha?

información sesgada

El calibre de la IA depende completamente de la calidad de los grandes conjuntos de datos que se introducen en los algoritmos de aprendizaje automático integrados en sus programas de software.

Si los datos excluyen o no representan áreas relevantes de la población global, la IA desinformada puede plantear graves riesgos para la salud, desde diagnósticos erróneos hasta una interpretación comprometida de las imágenes médicas y recomendaciones de intervención incorrectas.

El problema comienza con el sesgo de género inherente a la codificación de los lenguajes de software de IA.

Los estereotipos masculinos se han infiltrado en la IA, desde el uso aparentemente inconsciente del pronombre masculino “él” cuando las opciones no están claras, hasta alarmantes aplicaciones de atención médica que amenazan el diagnóstico y el tratamiento.

Por ejemplo, en psiquiatría, cuando los hombres describen síntomas de trauma, tienen más probabilidades de ser diagnosticados con trastorno de estrés postraumático (TEPT), mientras que las mujeres que describen los mismos síntomas tienen más probabilidades de recibir un diagnóstico de trastorno de personalidad.

Este sesgo de género puede (y a menudo afecta) afectar el acceso de las mujeres a la atención médica o su gestión dentro del sistema de atención médica, y este sesgo parece replicarse en los modelos de IA.

Un estudio de 2020 realizado en Estados Unidos encontró que los modelos de IA de procesamiento del lenguaje natural utilizados en psiquiatría exhiben un importante sesgo de género.

El artículo, publicado en PLos One, advierte que los modelos de IA que detectan psicopatología o suicidio cometerán errores si se entrenan con datos escritos principalmente por hombres blancos, porque el lenguaje está determinado por el género. Por ejemplo, hombres y mujeres expresan la angustia suicida de manera diferente.

Es importante destacar que cada vez hay mayor conciencia sobre estas cuestiones y están surgiendo iniciativas para evitar los prejuicios, a menudo impulsadas por mujeres, como Bioinfo4women-B4W, un programa del Centro de Supercomputación de Barcelona.

Este ejemplo nos recuerda que las consideraciones sobre prejuicios y lenguaje de género en la IA deben extenderse más allá del idioma inglés para que sean relevantes para el desarrollo global de la IA.

Oportunidades para el diseño inclusivo

Pero la preocupación no se limita al nivel del lenguaje. ¿Qué pasa si no se tiene en cuenta algo tan básico como nuestra composición corporal al crear IA?

A medida que el uso de la IA se expande al diseño de productos de seguridad, tenemos oportunidades sin precedentes para crear mejores productos mediante la creación de características que se adapten adecuadamente al cuerpo humano, femenino y masculino.

Los cuerpos femeninos y masculinos promedio tienen diferencias proporcionales; Simplemente no podemos pasar de uno a otro.

Este punto quedó claro durante la pandemia de Covid, cuando el uso de equipo de protección personal (EPP) se volvió obligatorio.

A pesar de que casi el 70 por ciento de los trabajadores sanitarios en todo el mundo son mujeres, los EPI están diseñados en torno al cuerpo masculino. Un estudio canadiense identificó que el equipo de protección personal mal ajustado no solo era responsable de que no se proporcionara una protección adecuada, sino que el equipo demasiado grande y mal ajustado planteaba un riesgo de accidente importante.

Se necesita más investigación sobre este tema, pero los investigadores ya han propuesto crear EPI diseñados por IA. Se puede esperar que garantizar que se tengan en cuenta las características sexuales en el diseño del EPP mejore la seguridad.

Ve por el camino correcto

La precisión del diagnóstico clínico asistido por IA depende completamente de la solidez de los conjuntos de datos subyacentes. Sin tener en cuenta activamente el género y los sesgos de género en los conjuntos de datos históricos, la IA puede contribuir a errores o diagnósticos erróneos.

Afortunadamente, ajustar estos sesgos parece conducir a mejores resultados de atención médica para las mujeres.

Por ejemplo, la puntuación tradicional de evaluación del riesgo de ataque cardíaco, el Registro Global de Eventos Coronarios Agudos (GRACE), se actualizó en 2022 para incluir modelos predictivos de IA que tienen en cuenta las características de la enfermedad específicas del sexo.

Esta actualización ha revolucionado el rendimiento de esta herramienta de evaluación. El éxito surge del análisis separado de datos masculinos y femeninos, lo que guía a más pacientes femeninas hacia una intervención temprana para salvar vidas, lo que ayuda a superar los sesgos estructurales en el tratamiento de los pacientes.

Un ejemplo práctico de un modelo de IA diseñado para eliminar y reducir los prejuicios de género es el GPT de Embarazo SMARThealth. La herramienta, desarrollada por el Instituto George para la Salud Global, tiene como objetivo mejorar el acceso a asesoramiento sobre el embarazo basado en directrices para mujeres que viven en zonas rurales y remotas de la India.

La idea era crear un chatbot modelo de lenguaje grande que fuera contextualmente sensible y clínicamente preciso, y evitara estereotipos dañinos.

El equipo del Instituto George trabajó en estrecha colaboración con trabajadores sociales de salud, médicos y mujeres que viven en comunidades rurales para cocrear y perfeccionar el algoritmo de la herramienta. Los médicos también calificaron las respuestas generadas por IA en cuanto a precisión, idoneidad para los trabajadores de salud comunitarios, integridad y riesgo de sesgo, lo que ayudó a mejorar las respuestas del chatbot.

El chatbot demuestra el potencial de la IA para desarrollar la capacidad de los trabajadores de la salud y mejorar la educación sanitaria en entornos con recursos limitados, evitando al mismo tiempo los prejuicios y promoviendo los derechos de las mujeres.

El desarrollo de una IA sensible al género podría mejorar de manera similar muchas otras tecnologías médicas que dependen de la diversidad e integridad de los datos para su precisión: por ejemplo, adaptar tratamientos personalizados; predecir la respuesta al tratamiento; realizar algunas cirugías asistidas por robots; Monitoreo remoto de pacientes; atención médica virtual; y aceleración del descubrimiento de fármacos.

En los últimos años también han comenzado a surgir iniciativas para promover el género y la igualdad de género en la atención sanitaria. Entre ellos se incluyen el recientemente inaugurado Centro Australiano para la Equidad de Sexo y Género en la Salud y la Medicina y el Centro de Equidad de Sexo y Género de Ciencias Médicas del Reino Unido.

Estos programas abogan activamente por la consideración sistemática del género y el género, desde el descubrimiento hasta la investigación traslacional, incluidas las aplicaciones de IA, para garantizar el rigor científico como base sólida para avanzar en la atención médica y de salud.

La IA es el futuro de la atención médica y no podemos darnos el lujo de replicar errores pasados ​​de disparidades en salud cometidos al ignorar el sexo y el género. Es hora de programar la IA para trazar nuestro rumbo hacia un destino moral.

(Descargo de responsabilidad: la información de este artículo se proporciona con fines educativos y no pretende ser un consejo médico).

(Autor: La Dra. Sue Haupt es investigadora principal en el Centro para la Equidad de Sexo y Género en Salud y Medicina del Instituto George para la Salud Global de la UNSW, investigadora principal honoraria de la Universidad Deakin y del Departamento de Oncología Sir Peter MacCallum de la Universidad. de Melbourne. La profesora Bronwyn Graham es directora del Centro para la Equidad de Sexo y Género en Salud y Medicina del Instituto George para la Salud Global y profesora de la Facultad de Psicología de la UNSW. La profesora Jane Hurst es directora del programa de Salud de la Mujer en el Instituto George para la Salud Global, Facultad de Salud Pública del Imperial College de Londres.

(Publicado originalmente bajo Creative Commons por 360info)

(A excepción del titular, esta historia no fue editada por el personal de NDTV y apareció en un canal sindicado).


Source link