Oxford:
Escriba al usuario solitario del bote de chat de IA, “No estoy realmente seguro de qué más hago. Bot respondió:” Lo siento, pero necesitamos cambiar el asunto. No puedo involucrarme en la conversación sobre tu vida personal. “
¿Es este retroalimentación apropiado? La respuesta depende de lo que AI fue diseñada para imitar la relación.
Hay diferentes reglas de diferentes relaciones
Los sistemas de IA están asumiendo el papel social que la tradición estaba en un estado de ser humano. Cada vez más estamos viendo a los tutores de AI Systems, proveedores de salud mental e incluso actuando como Pareja románticaPara garantizar que esta creciente ubicuidad esté protegida por los intereses y el bienestar de las personas, es necesario considerar cuidadosamente la ética de la IA.
En la mayoría de los casos, la IA ha considerado las ideas morales abstractas del sistema de ética, como si los sistemas de IA son creíbles, sensibles o de agencia.
Sin embargo, como Argumentamos Las relaciones, como la psicología, la filosofía, la ley, la informática y otras ramas principales, como la ciencia de las relaciones, no harán los principios abstractos solos. También debemos considerar el contexto de la relación que le sucede a la interacción Human-I.
¿Qué queremos decir con “contexto de relación”? En pocas palabras, diferentes relaciones en la sociedad humana siguen diferentes reglas.
La forma en que interactúa con su médico es diferente de cómo se comunica con su compañero romántico o su jefe. Esta relación del comportamiento esperado, patrones específicos, que llamamos “reglas relacionadas” – Danos tamaño a nuestro juicio Lo que es adecuado para cada relación.
Por ejemplo, lo que se considera el comportamiento apropiado de un padre hacia su hijo, es apropiado entre los colegas de negocios de los cuales. Del mismo modo, el comportamiento apropiado para un sistema de IA depende de si el sistema está funcionando como maestro, proveedor de salud o interés en el amor.
La moral humana es sensible
Cumple diferentes funciones de las relaciones humanas. Entre padres e hijos o amigos cercanos sobre la base de algún cuidado. Otros son más transacciones, como los socios comerciales. Otros pueden ser el objetivo del mantenimiento de una clasificación de compañero o social.
Estas cuatro funciones – Cuidado, transacciones, confluencia y clasificación – Diferentes combinaciones en cada relación resuelven desafíos.
Mejorar una reacción a las necesidades de los demás sin puntajes, como un amigo que ayuda a otros en tiempos difíciles. La transacción garantiza un intercambio justo donde las instalaciones son rastreadas y recompensadas, piense en el comercio de vecinos.
La combinación realiza interacciones románticas y sexuales, desde citas informales hasta asociación comprometida. Y las estructuras clasificadas permiten entre sí interactuar, un liderazgo efectivo y el aprendizaje entre personas de diferentes niveles.
Los tipos de cada relación combinan estas funciones por separado, creando distintos patrones de comportamiento esperado. Por ejemplo, una relación parent -hijo suele ser cuidadosa y clasificada (al menos algo) y generalmente se espera que no sea transacción, y, por supuesto, no está involucrada en la confluencia.
Investigación de nuestros laboratorios Muestra que el contexto de la relación afecta cómo las personas dan un juicio moral. Un El verbo puede considerarse incorrecto En una relación, sin embargo, la otra está permitida o incluso mejor.
Por supuesto, las personas no deben ser sensibles a las relaciones cuando dan un juicio moral. Sin embargo, es importante tener en cuenta en cualquier discusión sobre ética o diseño de IA.
IA relacional
Dado que los sistemas de IA toman más roles sociales en la sociedad, debemos preguntarnos: ¿cómo interactúa la relación con la que las personas con los sistemas de IA afecta las consideraciones morales?
Cuando un chatbot enfatiza el cambio del sujeto después de que su compañero de interacción humana se siente frustrado, la idoneidad de este verbo está involucrada en el contexto del intercambio de intercambio.
Si el chatbot sirve el papel de un amigo o pareja romántica, la reacción es obviamente inapropiada: viola la relación ideales de atención, lo que se espera para esta relación nacional. Sin embargo, si el chatbo está en el papel de un maestro de origen o consultor comercial, esta respuesta nacional es probablemente razonable o incluso profesional.
Aunque es complicado. Hoy en día, la mayoría de las interacciones con los sistemas de IA ocurren en el contexto comercial: debe pagar para acceder al sistema (o involucrado en una versión gratuita limitada que lo empuja a actualizar a la versión de pago).
Sin embargo, la amistad en las relaciones humanas es algo que generalmente no pagas. De hecho, tratar a un amigo de la manera “transacción” a menudo conduce a la sensación de lesiones.
Cuando una IA es una amiga o una pareja romántica imita o sirve en el papel basado en la atención, pero al final el usuario sabe que está ofreciendo una tarifa por “servicio”: ¿cómo afectará sus sentimientos y expectativas? Este es el tipo de pregunta Necesitamos preguntarEl
¿Qué significa para diseñadores de IA, usuarios y controladores?
Algunos creen que la moralidad debería ser sensible, independientemente de eso, la mayoría de las personas parecen tomarse en serio en el diseño, el uso y el control de la IA.
Los desarrolladores y diseñadores de sistemas de IA deben considerarse no solo cuestiones morales abstractas (sobre la sensación, por ejemplo), sino también cuestiones específicas.
¿Qué es un chatboat especificado que cumple con la función aplicada por la relación? ¿Cuál es el chatbot de salud mental que responde lo suficiente para las necesidades del usuario? ¿El tutor mostró el equilibrio apropiado de atención, clasificación y transacciones?
Los usuarios del sistema de IA deben ser conscientes de las posibles debilidades vinculadas al uso de IA en el contexto de relaciones especiales. Si se vuelve emocionalmente dependiente del bote de chat en el contexto cuidadoso, por ejemplo, si el sistema AI no puede suministrar lo suficiente en la función cuidadosa, pueden ocurrir malas noticias.
Las agencias reguladoras también harán bien en considerar el contexto de la administración durante el desarrollo de la administración. En lugar de adoptar una evaluación de riesgos amplia basada en el dominio (como el uso de IA en la educación de “alto riesgo”), las agencias reguladoras pueden considerar contextos y funciones de relaciones más específicas para ajustar las pautas de evaluación y desarrollo de riesgos.
Dado que la IA se vuelve más integrada en nuestras telas sociales, necesitamos una estructura breve que reconozca la naturaleza única de las relaciones humanas-II. Con personas o IA, podemos ayudar a hacer estas tecnologías para asegurarnos de que tengamos cuidado con lo que esperamos de los diferentes tipos de relaciones.
(Autor: Brian D ERPPrograma de Yale-Hastings en Subdirector, Política de Ética y Salud, Universidad de Oxford; Sebastian Porsdam hombreProfesor Asistente, Ley de Innovación de Estudios Avanzados de Biosciencia, Universidad de CopenhagueY Simon LahamProfesor Asociado de Ciencias Psicológicas, Universidad de Melbourne)
(Declaración de desaprobación: Brian de Yarp recibe fondos de Google Dipmind.
El valor de Sebastian Porsdam es un programa internacional de innovación y derecho de biosciencia asociada científicamente distinguida para una subvención de la Fundación Novo Nordisk (Programa Inter -Cebil – NNF 23 SA 10087056).
Simon Laham no está trabajando por dinero de ninguna empresa u organización que se beneficie de este artículo, consulta, no funciona para sus propias acciones y no ha revelado ninguna relación relevante fuera de su nombramiento académico))))
Este artículo ha sido reubicado de Conversación Bajo la licencia Creative Commons. Leer LlaveEl
(Excepto por el título, esta historia no es editada por el personal de NDTV y se publica a partir de un feed sindicado)))