En un nuevo estudio, los participantes tendían a culpar más a las inteligencias artificiales (IA) por violaciones éticas en el mundo real cuando percibían que las IA tenían una mente más humana. Minju Ju de la Universidad de Mujeres Sukmyong en Seúl, Corea, presentó los hallazgos en la revista de acceso abierto. Más uno el 18 de diciembre de 2024.

Investigaciones anteriores han revelado una tendencia entre las personas a culpar a la IA por diversas violaciones éticas, como cuando un automóvil autónomo atropella a un peatón o decisiones que causan daños médicos o militares. Investigaciones adicionales sugieren que las personas tienden a atribuir más culpa a la IA percibida como capaz de tomar conciencia, pensar y planificar. Las personas pueden atribuir esas habilidades más a las IA que creen que tienen mentes humanas que pueden experimentar sentimientos conscientes.

Basándose en esa investigación anterior, Xu planteó la hipótesis de que las IA con mentes similares a las humanas podrían recibir una mayor parte de la culpa por una determinada violación ética.

Para probar esta idea, Xu llevó a cabo una serie de experimentos en los que a los participantes se les presentaron varios ejemplos del mundo real de violaciones éticas relacionadas con la IA, como el etiquetado automático racista de fotografías, y evaluaron sus percepciones sobre la IA involucrada. fue pedido. , así como cuánto culpan a la IA, a sus programadores, a las organizaciones detrás de ella o al gobierno. En algunos casos, la percepción de la mente de la IA se impulsó dándole a la IA un nombre, edad, altura y descripción de pasatiempos.

En todos los experimentos, los participantes tendieron a culpar significativamente más a la IA cuando percibieron que tenía una mente más humana. En este caso, cuando se pidió a los participantes que distribuyeran la culpa relativa, tendieron a asignar menos culpa a la empresa involucrada. Pero cuando se les pidió que calificaran el nivel de culpa de cada agente de forma independiente, no hubo reducción en el nivel de culpa asignado a la empresa.

Estos hallazgos sugieren que la percepción mental de la IA es un factor importante que contribuye a culpar a las transgresiones que involucran a la IA. Además, Xu expresó su preocupación por las consecuencias potencialmente dañinas del uso indebido de la IA como chivo expiatorio y pidió más investigaciones sobre la culpa de la IA.

Los autores agregaron: “¿Se puede responsabilizar a la IA por violaciones éticas? Este estudio muestra que tratar a la IA como un ser humano aumenta la culpa sobre la IA y reduce la culpa sobre las partes interesadas humanas, lo que sugiere que la IA se utiliza como chivo expiatorio moral. Genera preocupaciones sobre el asunto”.

Source link

Deja un comentario

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *