Un programa de inteligencia artificial produjo interpretaciones de los resultados de los exámenes cardíacos que fueron en su mayoría precisas, relevantes y fáciles de entender para los pacientes, según encontró un nuevo estudio.

El estudio abordó el ecocardiograma (eco), que utiliza ondas sonoras para crear imágenes de la sangre que fluye a través de las cámaras y válvulas del corazón. Los informes de eco incluyen mediciones numéricas de la función realizada por la máquina, así como comentarios de cardiólogos que explican el tamaño del corazón, la presión en sus vasos y el grosor del tejido, que pueden indicar la presencia de una enfermedad. En la forma que suelen generar los médicos, los informes son difíciles de entender para los pacientes, lo que a menudo causa ansiedad innecesaria, dicen los autores del estudio.

Para abordar el problema, NYU Langone Health está probando la capacidad de una forma de inteligencia artificial (IA) para generar posibles alternativas para la siguiente palabra en cualquier oración basándose en cómo las personas usan las palabras en contexto en Internet. El resultado de esta predicción de la siguiente palabra es que estos “chatbots” de IA generativa pueden responder preguntas en un lenguaje sencillo. Sin embargo, los programas de IA, que operan basándose en probabilidades en lugar de “pensamiento” y pueden producir resúmenes inexactos, están destinados a ayudar, no a reemplazar, a los proveedores humanos.

En marzo de 2023, NYU Langone solicitó a OpenAI, la empresa que desarrolló el chatbot ChatGPT, acceso a la última herramienta de IA generativa de la empresa, GPT 4. NYU Langone Health obtuvo la licencia de la primera “instancia personal” de la herramienta, lo que permite a los médicos experimentar con IA utilizando datos reales de pacientes y respetando las reglas de privacidad.

Los resultados de ese esfuerzo se publicaron en línea el 31 de julio. Revista de imágenes cardiovasculares del Colegio Americano de Cardiología (JACC)El estudio actual analizó cien informes escritos por médicos sobre un tipo común de prueba de eco para ver si GPT4 puede producir de manera eficiente interpretaciones amigables para los humanos de los resultados de las pruebas. precisión, relevancia y comprensibilidad, y están de acuerdo o totalmente de acuerdo en que el 73% son apropiados para enviarlos a los pacientes sin modificaciones.

Todas las explicaciones de la IA fueron calificadas como “todas verdaderas” (84%) o mayoritariamente correctas (16%). En términos de relevancia, el 76% de las explicaciones contenían “toda la información importante”, el 15% “la mayoría”, el 7% “aproximadamente la mitad” y el 2% “menos de la mitad”. Ninguna de las explicaciones con datos faltantes fue calificada como “potencialmente peligrosa”, dijeron los autores.

“Nuestro estudio, por lo tanto el primero en evaluar GPT4, muestra que los modelos generativos de IA pueden ser útiles para ayudar a los médicos a interpretar los hallazgos del ecocardiograma a los pacientes”, afirmó Leor Jankelson, MD, PhD, profesor asociado de medicina en NYU Grossman. Líder de la Facultad de Medicina e Inteligencia Artificial para Cardiología de NYU Langone. “La interpretación rápida y precisa puede reducir la ansiedad del paciente y reducir el volumen, a veces abrumador, de mensajes de los pacientes a los médicos”.

Un mandato federal aprobado en 2016 por la Ley de Curas del Siglo XXI para revelar inmediatamente los resultados de las pruebas a los pacientes se ha relacionado con un aumento dramático en el número de consultas de los médicos, dijeron los autores del estudio. Los pacientes reciben resultados brutos de las pruebas, no los entienden y se vuelven ansiosos mientras esperan que los médicos les den explicaciones, dijeron los investigadores.

Idealmente, los médicos avisarían a los pacientes sobre su alta con los resultados de su ecocardiograma, pero esto se retrasa ya que los proveedores luchan por ingresar manualmente grandes cantidades de información relacionada en los registros médicos electrónicos.

“Si son lo suficientemente confiables, las herramientas de inteligencia artificial pueden ayudar a los médicos a interpretar los resultados en el momento de la publicación”, dijo el primer autor del estudio, Jacob Martin, MD, becario de cardiología en NYU Langone. “Nuestro plan de ahora en adelante es medir el impacto de las explicaciones redactadas por la IA y refinadas por los médicos sobre la ansiedad del paciente, la satisfacción y la carga de trabajo del médico”.

El nuevo estudio también encontró que el 16% de las explicaciones de la IA contienen información incorrecta. En un error, el ecocardiograma de IA informa que hay “una pequeña cantidad de líquido en el espacio alrededor del pulmón derecho, conocido como derrame pleural”. La herramienta concluyó incorrectamente que la descarga era pequeña, un error conocido en la industria como “alucinación” de la IA. Los investigadores enfatizaron que la supervisión humana es importante para perfeccionar los borradores de la IA, incluida la corrección de cualquier imprecisión antes de que lleguen a los pacientes.

El equipo de investigación encuestó a participantes sin experiencia clínica que fueron reclutados para conocer las opiniones de los profanos sobre la claridad de las explicaciones de la IA. En resumen, fueron bien recibidos, afirmó el autor. El 97% de los participantes no clínicos encontraron que las reescrituras generadas por IA eran más comprensibles que el informe original, lo que redujo la ansiedad en muchos casos.

“Este análisis adicional subraya el potencial de la IA para mejorar la comprensión del paciente y reducir la ansiedad”, añadió Martin. “Nuestro siguiente paso es integrar estas herramientas refinadas en la práctica clínica para mejorar la atención al paciente y reducir la carga de trabajo del médico”.

Junto con Martin y Jankelson, los autores del estudio Langone de la Universidad de Nueva York fueron Muhammad Sarik, Alan Venrib, Daniel Bamira, Samuel Barnard, Richard Rowe, Theodore Hill y Larry Chinitz en el Departamento de Cardiología Leon H. Charney; Jonathan Austrian e Indalon Afinianaphongs en Tecnología de la Información del Centro Médico (MCIT); Hao Zhang y Vidya Kosmahargiou en el Centro de Innovación y Ciencias de la Prestación de Atención Médica del Departamento de Salud de la Población y Matthew Williams en el Departamento de Cirugía Cardiotorácica.

Source link