A medida que la inteligencia artificial impregna cada vez más todos los aspectos de nuestras vidas, los expertos están cada vez más preocupados por sus peligros. En algunos casos, los riesgos son apremiantes, mientras que en otros no surgirán hasta dentro de meses o incluso años. Los científicos señalan en el Journal of the Royal Society que aún es difícil encontrar un enfoque coherente para comprender estas amenazas. Piden una perspectiva de sistemas complejos para evaluar y mitigar mejor estos riesgos, especialmente a la luz de las incertidumbres a largo plazo y las interacciones complejas entre la IA y la sociedad.

“Comprender los riesgos de la IA requiere reconocer la compleja interacción entre la tecnología y la sociedad. Se trata de navegar por los sistemas complejos y coevolucionantes que dan forma a nuestras decisiones y comportamiento”, dijo Fariba Karimi, coautora del artículo. Karimi dirige el grupo de investigación sobre equidad algorítmica en Complexity Science Hub (CSH) y es profesora de ciencia de datos sociales en TU Graz.

“Deberíamos discutir no sólo qué tecnologías implementar y cómo, sino también cómo adaptar el contexto social para capitalizar las posibilidades positivas. Por ejemplo, la política económica El debate sobre la IA debería tener en cuenta las posibilidades y los riesgos de la IA”, añade el científico del CSH Daniel Condor, primer autor del estudio.

Riesgo generalizado y a largo plazo

Los marcos actuales de evaluación de riesgos a menudo se centran en daños inmediatos y específicos, como el sesgo y las preocupaciones de seguridad, según los autores del artículo. Transacciones filosóficas A. “Estos marcos a menudo ignoran los riesgos sistémicos más grandes y de largo plazo que pueden surgir del despliegue generalizado de tecnologías de IA y su interacción con el contexto social en el que se utilizan”, dijo Condor.

“En este artículo, intentamos equilibrar las visiones a corto plazo de los algoritmos con las visiones a largo plazo de cómo estas tecnologías afectan a la sociedad. Se trata de comprender las consecuencias tanto inmediatas como sistémicas de la IA”, añadió Condor.

¿Qué pasa en la vida real?

Como estudio de caso para ilustrar los riesgos potenciales de la tecnología de inteligencia artificial, los científicos analizan cómo se utilizó un algoritmo predictivo para las pruebas escolares en el Reino Unido durante la pandemia de Covid-19. Según el estudio, se “supuso que la nueva solución era más objetiva y, por tanto, más justa (que los profesores que predicen el rendimiento de sus alumnos), basándose en el análisis estadístico del rendimiento de los estudiantes en años anteriores”.

Sin embargo, cuando se puso en práctica el algoritmo surgieron varios problemas. “Una vez que se aplicó el algoritmo de calificación, las disparidades se hicieron evidentes”, observó Valerie Hafez, investigadora independiente y coautora del estudio. “Los estudiantes de comunidades desfavorecidas son los más afectados por los intentos inútiles de combatir la inflación de calificaciones, pero incluso en general, el 40% de los estudiantes obtuvieron calificaciones inferiores a las razonablemente esperadas”.

Hafez informó que muchas de las respuestas al informe de consulta indicaron que el riesgo percibido por los profesores como significativo (el impacto a largo plazo de una calificación inferior a la merecida) era diferente del riesgo percibido por los diseñadores del algoritmo. Estos últimos estaban preocupados por la inflación de las calificaciones, la presión resultante sobre la educación superior y la falta de confianza en las verdaderas habilidades de los estudiantes.

Escala y alcance

Los científicos destacan que este caso muestra varias cuestiones importantes que surgen al implementar soluciones algorítmicas a gran escala. “Creemos que una cosa a la que hay que prestar atención es la escala -y el alcance- porque los algoritmos escalan: viajan bien de un contexto a otro, aunque estos contextos puedan ser muy diferentes. El contexto original de la creación no sólo desaparece, sino que se superpone a todos estos otros contextos”, explica Hafez.

“Los riesgos a largo plazo no son combinaciones lineales de riesgos a corto plazo. Pueden crecer exponencialmente con el tiempo. Sin embargo, con modelos computacionales y simulaciones, podemos proporcionar información práctica para evaluar mejor estos riesgos dinámicos”, añade Karimi.

Modelos computacionales y participación pública

Esta es una de las pautas recomendadas por los científicos para comprender y evaluar los riesgos asociados a las tecnologías de IA, tanto a corto como a largo plazo. “Los modelos computacionales, como los que evalúan el impacto de la IA en la representación de las minorías en las redes sociales, pueden demostrar cómo los sesgos en los sistemas de IA conducen a ciclos de retroalimentación que refuerzan la desigualdad social”, explica Condor. Estos modelos se pueden utilizar para simular riesgos potenciales, proporcionando conocimientos que son difíciles de obtener de los métodos de evaluación tradicionales.

Además, los autores del estudio enfatizan la importancia de involucrar a legos y expertos de diferentes campos en el proceso de evaluación de riesgos. Los grupos de expertos (grupos pequeños y heterogéneos que reúnen diferentes perspectivas) pueden ser una herramienta clave para fomentar la participación democrática y garantizar que las evaluaciones de riesgos estén informadas por los más afectados por las tecnologías de IA.

“Una cuestión más general es promover la resiliencia social, lo que ayudaría a que los debates y la toma de decisiones relacionados con la IA funcionen mejor y eviten obstáculos. Como resultado, la resiliencia social puede depender de muchas cuestiones no relacionadas (o al menos no directamente relacionadas) con la inteligencia artificial. . ”, reflexiona el cóndor. El aumento de las formas participativas de toma de decisiones puede ser un elemento importante para mejorar la resiliencia.

“Creo que una vez que se empieza a considerar los sistemas de IA como sociotécnicos, no se puede separar a las personas afectadas por el sistema de IA del lado ‘técnico’. Separarlos del sistema de IA elimina la posibilidad de formar la Se les impone una infraestructura jerárquica que niega a las personas desfavorecidas la posibilidad de participar en la creación de un mundo que no satisfaga sus necesidades”, afirmó Hafez, responsable de políticas de IA en la Cancillería Federal de Austria.

Sobre el estudio

La investigación de Daniel Condor, Valerie Hafez, Sudhang Shankar, Rania Wazir y Fariba Karimi “Una perspectiva de sistemas complejos sobre la evaluación de riesgos en IA” se publicó en Transacciones filosóficas A y disponible en línea.

Source link