En un estudio del Imperial College de Londres, los humanos simpatizaron con los robots de IA excluidos del tiempo de juego y los defendieron.

Los investigadores dicen que el estudio, que utilizó un juego de pelota virtual, destaca la tendencia de los humanos a ver a los agentes de IA como seres sociales, una tendencia que debe tenerse en cuenta al diseñar robots de IA.

El estudio fue publicado Comportamiento humano y tecnologías emergentes.

El autor principal, Jianan Zhu, de la Escuela de Ingeniería de Diseño Dyson de Imperial, dijo: “Esta es una visión única de cómo los humanos interactúan con la IA, con implicaciones interesantes para su diseño y nuestra psicología”.

Las personas necesitan cada vez más interactuar con agentes virtuales de IA al acceder a los servicios, y muchos los utilizan como compañeros para la interacción social. Sin embargo, estos resultados sugieren que los desarrolladores deberían evitar diseñar agentes demasiado parecidos a los humanos.

La autora principal, la Dra. Nezra van Zalck, de la Escuela de Ingeniería de Diseño Dyson de Imperial, dijo: “Un pequeño pero creciente conjunto de investigaciones muestra resultados contradictorios sobre si las personas perciben a los agentes virtuales de IA como seres sociales. Esto plantea preguntas importantes sobre cómo las personas perciben e interactúan con ellos”. AI. con estos agentes.

“Nuestros resultados muestran que los participantes tendían a tratar a los agentes virtuales de IA como animales sociales, porque si sentían que la IA estaba siendo excluida, intentaban incluirlos en el juego de lanzamiento de pelotas. Esto es común en las interacciones entre humanos. , y nuestros participantes mostraron la misma tendencia a pesar de que sabían que estaban lanzando una pelota a un agente virtual. Curiosamente, este efecto fue más fuerte en los participantes de mayor edad”.

A los humanos no les gusta la brutalidad, ni siquiera hacia la IA

Empatizar y tomar medidas correctivas contra la injusticia es algo que a la mayoría de las personas les resulta difícil hacer. Estudios anteriores que no involucran IA han demostrado que las personas a menudo tienden a compensar a los objetivos desfavorecidos lanzándoles la pelota, y que también tienden a no agradarles al perpetrador de un comportamiento excluyente, mientras sienten preferencia y empatía por el objetivo.

Para realizar el estudio, los investigadores observaron cómo reaccionaron 244 participantes cuando vieron a un agente virtual de IA salir del juego en un juego llamado ‘Cyberball’, donde los jugadores se pasan una pelota virtual entre sí en la pantalla. . Los participantes tenían edades comprendidas entre 18 y 62 años.

En algunos juegos, el humano no participante lanzó la pelota al bot varias veces, y en otros, el humano no participante lanzó la pelota solo al participante, eliminando al bot.

Los participantes fueron observados y luego encuestados para conocer sus respuestas sobre si estaban a favor de lanzar la pelota al robot y por qué después de haber sido tratados injustamente.

Descubrieron que la mayoría de las veces, los participantes intentaban corregir la injusticia hacia el robot prefiriendo lanzarle la pelota. Los participantes de mayor edad tenían más probabilidades de percibir la injusticia.

Precaución humana

Los investigadores dicen que a medida que los agentes virtuales de IA se vuelven más populares en tareas colaborativas, una mayor interacción con los humanos puede aumentar nuestra familiaridad y desencadenar el procesamiento automatizado. Esto significa que es probable que los usuarios incluyan intuitivamente agentes virtuales como miembros reales del equipo y interactúen socialmente con ellos.

Esto podría ser una ventaja para la colaboración laboral, dicen, pero también podría tratarse de que los agentes virtuales se utilicen como amigos para reemplazar las relaciones humanas o como asesores de salud física o mental.

Jianan dice: “Al evitar diseñar agentes que sean demasiado humanos, los desarrolladores pueden ayudar a distinguir entre interacciones virtuales y reales. También pueden adaptar su diseño a rangos de edad específicos, por ejemplo, teniendo en cuenta cómo nuestras diversas características humanas afectan nuestra percepción”.

Los investigadores señalaron que Cyberball puede no representar cómo interactúan las personas en situaciones de la vida real, que generalmente ocurren a través del lenguaje hablado o escrito con chatbots o asistentes de voz. Esto puede haber entrado en conflicto con las expectativas de los usuarios de algunos participantes y haber generado sentimientos de extrañeza, que influyeron en sus respuestas durante el experimento.

Por lo tanto, ahora están diseñando experimentos similares utilizando interacciones cara a cara con agentes en diferentes contextos, como laboratorios o entornos más informales. De esa manera, pueden comprobar hasta qué punto se extienden sus hallazgos.

Source link

Deja un comentario

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *