Los investigadores en química, biología y medicina están recurriendo a los modelos de IA para desarrollar nuevos supuestos. Sin embargo, a menudo es oscuro sobre cualquier base que los algoritmos lleguen a sus conclusiones y cuánto se pueden generalizar. Una publicación de Forest University ahora ha advertido sobre malentendidos en la gestión de la inteligencia artificial. Al mismo tiempo, destaca las condiciones bajo las cuales los investigadores probablemente puedan confiar en los modelos. La investigación ha sido publicada en la revista Cell informa ciencia física.
Los algoritmos de aprendizaje automático adaptados son increíblemente fuertes. Sin embargo, tienen una desventaja: los modelos de aprendizaje automático a menudo no están claros desde el exterior cómo llegan a sus predicciones.
Supongamos que alimenta la inteligencia artificial con unos pocos miles de autos. Si lo presenta con una nueva figura ahora, generalmente puede detectar si la imagen muestra un automóvil. ¿Pero por qué? ¿Realmente está aprendiendo que un automóvil contiene cuatro ruedas, un parabrisas y un drenaje? ¿O su decisión se basa en un criterio que en realidad es irrelevante, como la antena en el techo? Si este es el caso, se puede clasificar como una radio como automóvil.
Los modelos AI son cajas negras
“Los modelos AI son una caja negra”, destacando al profesor Dr. Jargen Bazorath. “Como resultado, sus resultados no deben creirse ciegamente y no deben decidirse a partir de ellos”. Computational Chemistry Expert es el jefe de AI en el Departamento de Ciencias de la Vida del Instituto Lammer para el aprendizaje automático e inteligencia artificial. También está a cargo del Programa de Informática de Ciencias de la Vida del Centro Internacional de Tecnología de la Información de Forest-Echine (B-IT) del Centro Internacional de Tecnología de la Información (B-IT) del Cambio Forestal (B-IT). En la publicación actual, investigó la pregunta cuando podía confiar en el algoritmo. Y contraste: cuando no.
El concepto de “explicación” juega un papel importante en este contexto. Para ser metafóricamente, se refiere a un intento de perforar una PFOL en la caja negra en la investigación de IA. El algoritmo debe revelar los criterios que lo usan como la base: cuatro ruedas o antena. “Abrir la caja negra actualmente es un tema central en la investigación de IA”, dice Bazorath. “Algunos modelos de IA se hicieron exclusivamente para hacer que los resultados de otro más comprensible”.
Sin embargo, la explicación es solo un aspecto: la cuestión de qué decisión se puede decidir a partir de los criterios de los criterios de toma de decisiones elegidos por un modelo es igualmente importante. Si el algoritmo indica que ha tomado su decisión sobre la antena, un hombre sabe inmediatamente que esta característica es muy adecuada para la detección de automóviles. A pesar de esto, los modelos adaptados se usan comúnmente para identificar relaciones mutuas en grandes conjuntos de datos que las personas ni siquiera pueden notar. Luego nos gustan los extraterrestres que no saben lo que hacen los autos: una antena alienígena no podrá decir si es un buen criterio.
Los modelos de lenguaje químico sugieren nuevos compuestos
“Hay una pregunta más que siempre tenemos que hacernos a nosotros mismos al usar los métodos de ciencia de IA,” Bajorath que enfatizó el Área de Investigación de Investigación Transductor (TRA) “Modelado”: “¿Cuán explicativos son los resultados?” Los idiomas químicos son actualmente un tema calentado de química e investigación farmacéutica. Por ejemplo, es posible alimentarlos con muchas moléculas que tienen una actividad biológica específica. Según estos datos de entrada, el modelo aprende e idealmente sugiere una nueva molécula que tiene esta actividad pero tiene una nueva estructura. También se conoce como modelado de generador. Sin embargo, el modelo generalmente no puede explicar por qué se trata de esta solución. A menudo es necesario aplicar el método de IA interpretable más adelante.
Sin embargo, Bajorath advierte contra la explicación de estas explicaciones, es decir, las características de IA se consideran una característica que se considera la causa de la actividad deseada. “Los modelos actuales de IA básicamente no entienden nada sobre la química”, dijo. “Son estadísticos auténticos y están relacionados con la naturaleza y prestan atención a cualquier característica distinta, independientemente de si estas características pueden ser química o biológicamente relevantes”. Sin embargo, incluso pueden tener razón en su evaluación, por lo que la molécula propuesta tiene el poder deseado. Sin embargo, las razones pueden ser completamente diferentes de lo que esperamos sobre la base del conocimiento químico o la intuición. Las características generalmente son necesarias para evaluar la efectividad potencial de la conducción y los resultados de los procesos naturales relevantes, las pruebas generalmente son necesarias: los investigadores deben acumular y examinar moléculas, así como otras moléculas, incluidos motivos estructurales que se consideran importantes.
Los controles de plazibilidad son importantes
Estas pruebas nacionales son de tiempo y costosas. Bazorath advierte así contra explicar la IA a la adición de una efectividad científicamente encomiable en busca de una búsqueda. En su opinión, un cheque encomiable basado en una lógica científica de palabras es importante: ¿puede la característica sugerida por la IA explicada realmente responsable de la propiedad química o biológica deseada? ¿Es como seguir el consejo de AI? ¿O es probablemente algún arte, relaciones mutuas identificadas al azar, como la antena de automóviles, que no es relevante para la función real?
El científico enfatizó que el uso de algoritmos adaptados era principalmente que avanzara la investigación en muchos campos de la ciencia. Sin embargo, por supuesto, el poder de este método, y especialmente debe ser consciente de su debilidad.