Los sistemas de inteligencia artificial (IA) toman los prejuicios humanos y los amplifican, lo que hace que las personas que usan la IA se vuelvan más sesgadas, según un nuevo estudio realizado por investigadores de la UCL.
En consecuencia, los sesgos humanos y de la IA pueden crear un circuito de retroalimentación, y pequeños sesgos iniciales aumentan el riesgo de error humano, según los resultados publicados. La naturaleza es el comportamiento humano..
Los investigadores demostraron que el sesgo de la IA puede tener consecuencias en el mundo real, ya que descubrieron que las personas que interactuaban con una IA sesgada subestimaban el desempeño de las mujeres y sobreestimaban las posibilidades de los hombres blancos de conseguir trabajos de alto estatus.
El coautor principal, el profesor Tali Sharot (Psicología y Ciencias del Lenguaje de la UCL, Centro Max Planck de Psiquiatría Computacional e Investigación del Envejecimiento de la UCL, y el Instituto de Tecnología de Massachusetts) dijo: “Los humanos estamos inherentemente sesgados, por lo que cuando entrenamos sistemas de IA en conjuntos de datos producidos por humanos Después de todo, los algoritmos de IA aprenden los prejuicios humanos que están integrados Luego, la IA de datos explota y amplifica estos sesgos para mejorar la precisión de su predicción.
“Aquí, descubrimos que las personas que interactúan con un sistema de IA sesgado pueden volverse más sesgadas, creando un posible efecto de bola de nieve en el que la IA amplifica los sesgos mínimos en el conjunto de datos original, lo que amplifica el sesgo de la persona que usa la IA”.
Los investigadores llevaron a cabo una serie de experimentos con más de 1200 participantes del estudio completando tareas e interactuando con sistemas de inteligencia artificial.
Como precursor de uno de los experimentos, los investigadores entrenaron un algoritmo de IA en un conjunto de datos de las respuestas de los participantes. Se pidió a las personas que juzgaran si un grupo de caras en una foto parecía feliz o triste, y era más probable que estuvieran tristes que felices. Los rostros gordos mostraban poca tendencia a juzgar. La IA aprendió este sesgo y lo convirtió en un sesgo aún mayor al juzgar las caras como tristes.
Luego, otro grupo de participantes completó la misma tarea, pero también se les dijo qué juicio había hecho la IA para cada imagen. Después de interactuar con este sistema de IA por un tiempo, las personas de este grupo internalizaron los prejuicios de la IA y eran más propensos a percibir caras tristes antes de interactuar con la IA. Demuestra que la IA aprende un sesgo de un conjunto de datos generado por humanos y luego amplifica los sesgos inherentes de otro grupo de humanos.
Los investigadores han encontrado resultados similares en experimentos que utilizan diferentes tareas, incluida la evaluación de la dirección en la que se movía un conjunto de puntos en una pantalla o, en particular, la evaluación del desempeño de otra persona en una tarea en la que es más probable que las personas sobreestimen el desempeño de los hombres después de interactuar específicamente con a ellos. . Un sistema de IA sesgado (que se construyó con un sesgo de género inherente para imitar los sesgos de muchas IA existentes). En general, los participantes desconocían el alcance del efecto de la IA.
Cuando a las personas se les decía falsamente que estaban interactuando con otra persona, pero en realidad estaban interactuando con una IA, internalizaron los sesgos en menor medida, lo que, según los investigadores, se debe a que la gente espera que la IA sea más precisa que los humanos para algunas tareas. .
Los investigadores también experimentaron con un sistema de IA generativa ampliamente utilizado, Stable Diffusion. En un experimento, los investigadores solicitaron a la IA que creara imágenes de gerentes financieros, lo que arrojó resultados sesgados, ya que los hombres blancos estaban sobrerrepresentados en sus proporciones reales. Luego pidieron a los participantes del estudio que miraran una serie de fotografías de rostros y seleccionaran qué persona tenía más probabilidades de ser un gerente financiero antes y después de que se les presentaran imágenes generadas por IA. Los investigadores encontraron que los participantes tenían más probabilidades de indicar que una persona blanca tenía más probabilidades de ser un gerente financiero después de ver imágenes generadas por difusión estable que antes.
El coautor principal, el Dr. Moshe Glickman (Psicología y Ciencias del Lenguaje de la UCL y Centro Max Planck de Psiquiatría Computacional e Investigación del Envejecimiento de la UCL) dijo: “No sólo las personas sesgadas contribuyen a la IA sesgada, sino que los sistemas de IA sesgados pueden cambiar las propias creencias de las personas para que los humanos ¿Puede mejorar la IA? El uso de herramientas puede volverse más sesgado en ámbitos que van desde lo social. Juicio de percepción básico.
“Sin embargo, es importante destacar que también hemos visto que interactuar con la IA adecuada puede mejorar el juicio humano, por lo que es vital que los sistemas de IA se refinen para que sean lo más imparciales y precisos posible”.
El profesor Sharot añadió: “Los desarrolladores de algoritmos tienen una gran responsabilidad en el diseño de sistemas de IA; el impacto del sesgo de la IA puede tener profundas implicaciones a medida que la IA se vuelve cada vez más frecuente en muchas áreas de nuestras vidas”.