La inteligencia artificial puede ser una herramienta útil para los profesionales sanitarios y los investigadores a la hora de interpretar imágenes de diagnóstico. Mientras que un radiólogo puede detectar fracturas y otras anomalías a partir de rayos X, los modelos de IA pueden ver patrones que los humanos no pueden ver, lo que ofrece oportunidades para ampliar la funcionalidad de las imágenes médicas.

Pero en un estudio Informe científico Destaca un desafío oculto del uso de la IA en la investigación de imágenes médicas: el fenómeno de resultados altamente precisos pero potencialmente engañosos conocido como “aprendizaje abreviado”.

Los investigadores analizaron más de 25.000 radiografías de rodilla de la Iniciativa de Osteoartritis financiada por los Institutos Nacionales de Salud y descubrieron que los modelos de IA podían “predecir” características impredecibles y no relacionadas, como si los pacientes evitan los frijoles refritos o la cerveza. Aunque estas predicciones no tienen base médica, los modelos han logrado niveles sorprendentes de precisión al explotar patrones sutiles e inesperados en los datos.

“Si bien la IA tiene el potencial de transformar las imágenes médicas, debemos ser cautelosos”, afirmó el autor principal del estudio, el Dr. Peter Schilling, cirujano ortopédico del Centro Médico Dartmouth Hitchcock en Dartmouth Health y profesor asistente de ortopedia en la Escuela de Medicina Geisel de Dartmouth. Medicamento. .

“Estos modelos pueden ver patrones que los humanos no pueden, pero no todos los patrones que identifican son significativos o confiables”, dijo Schilling. “Reconocer estos riesgos es crucial para evitar conclusiones engañosas y garantizar la integridad científica”.

Los investigadores examinaron cómo los algoritmos de IA a menudo se basan en variables de confusión, como diferencias entre equipos de rayos X o marcadores de sitios clínicos, para hacer predicciones en lugar de características médicamente significativas. Los intentos de eliminar estos sesgos tuvieron sólo un éxito marginal: los modelos de IA sólo “aprenderían” otros patrones de datos ocultos.

“Va más allá del sesgo basado en raza o género”, dijo Brandon Hill, coautor del estudio y científico de aprendizaje automático en Dartmouth Hitchcock. “Descubrimos que el algoritmo puede incluso aprender a predecir el año en que se tomaron los rayos X. Esto es perjudicial: cuando se le impide aprender uno de estos elementos, aprenderá otro que se ignoró previamente. Este peligro puede conducir a algo realmente estúpido, y los investigadores deben ser conscientes de la facilidad con la que esto ocurre cuando se utiliza esta técnica”.

Los hallazgos enfatizan la necesidad de estándares de evaluación rigurosos en la investigación médica basada en IA. La dependencia excesiva de algoritmos estándar sin pruebas exhaustivas puede conducir a conocimientos clínicos y vías de tratamiento incorrectos.

“El uso de modelos para descubrir nuevos patrones en medicina aumenta la carga de la prueba”, dice Hill. “Parte del problema son nuestros propios prejuicios. Es increíblemente fácil caer en la trampa de suponer que el modelo ‘ve’ lo mismo que nosotros. Al final, no es así”.

“La IA es casi como tratar con una inteligencia extraterrestre”, continúa Hill. “Se podría decir que el modelo ‘hace trampa’, pero antropomorfiza la tecnología. Aprende una forma de resolver la tarea que se le asigna, pero no necesariamente como lo haría una persona. No tiene lógica ni razonamiento como normalmente lo entendemos “.

Schilling, Hill y la coautora del estudio Frances Koback, estudiante de medicina de tercer año en la Escuela Geisel de Dartmouth, realizaron la investigación en colaboración con el Centro Médico de Asuntos de Veteranos en White River Junction, VT.

Source link

Deja un comentario

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *