Los modelos de lenguajes grandes (LLM) se han desarrollado rápidamente en los últimos años y se están convirtiendo en una parte integral de nuestra vida diaria a través de aplicaciones como ChatGPT. Un artículo publicado recientemente La naturaleza es el comportamiento humano. Explica las oportunidades y riesgos que surgen del uso de LLM para nuestra capacidad colectiva para deliberar, tomar decisiones y resolver problemas. Dirigido por investigadores de la Escuela de Negocios de Copenhague y el Instituto Max Planck para el Desarrollo Humano de Berlín, el equipo interdisciplinario de 28 científicos ofrece recomendaciones a investigadores y formuladores de políticas para garantizar que los LLM complementen, en lugar de restar valor, a la inteligencia colectiva humana.

¿Qué haces si no sabes una palabra como “LLM”? Probablemente lo busques rápidamente en Google o le preguntes a tu equipo. Utilizamos el conocimiento grupal, conocido como inteligencia colectiva, como algo natural en la vida cotidiana. Al combinar habilidades y conocimientos individuales, nuestra inteligencia colectiva puede lograr resultados que superan las capacidades de cualquier individuo, incluso los expertos, por sí solo. Esta inteligencia colectiva impulsa el éxito de todo tipo de grupos, desde pequeños equipos de trabajo hasta comunidades masivas en línea como Wikipedia e incluso la sociedad en general.

Los LLM son sistemas de inteligencia artificial (IA) que analizan y generan texto utilizando grandes conjuntos de datos y técnicas de aprendizaje profundo. El nuevo artículo explica cómo los LLM pueden mejorar la inteligencia colectiva y analiza su impacto potencial en los equipos y la sociedad. “A medida que los grandes modelos lingüísticos dan forma cada vez más al panorama de la información y la toma de decisiones, es crucial mantener un equilibrio entre explotar su potencial y protegerse contra los riesgos. Nuestro artículo detalla las formas y los diversos peligros de mejorar la inteligencia colectiva humana mediante un LL.M. También posible”, afirma Ralf Hartwig. , coautor del artículo y director del Instituto Max Planck para el Desarrollo Humano de Berlín.

Entre los beneficios potenciales identificados por los investigadores se encuentra que los LLM pueden aumentar significativamente la accesibilidad a los procesos colectivos. Derriban barreras mediante servicios de traducción y asistencia en redacción, por ejemplo, permitiendo que personas de diferentes orígenes participen por igual en los debates. Además, los LLM pueden facilitar los procesos de generación de ideas o formación de opiniones, por ejemplo, aportando información útil a las discusiones, resumiendo diferentes opiniones y encontrando consenso.

Sin embargo, el uso de LLM también conlleva riesgos importantes. Por ejemplo, pueden socavar la motivación de las personas para contribuir al conocimiento colectivo común como Wikipedia y Stack Overflow. Si los usuarios dependen cada vez más de modelos propietarios, la apertura y diversidad del panorama del conocimiento pueden estar en peligro. Otro problema es el riesgo de un consenso falso y una ignorancia pluralista, cuando existe la creencia errónea de que la mayoría acepta un ideal. “Debido a que los LLM aprenden de la información disponible en línea, existe el riesgo de que las perspectivas minoritarias no estén representadas en las respuestas generadas por los LLM. Esto puede crear una falsa sensación de acuerdo y marginar algunas perspectivas”, señaló Jason Burton, autor principal y coautor del estudio. . Profesor de la Copenhagen Business School e investigador científico asociado del MPIB.

El coautor Joshua Baker, profesor asistente, resumió: “El valor de este artículo es que demuestra por qué necesitamos pensar activamente en cómo los LLM están cambiando el entorno de información en línea y, como resultado, nuestra inteligencia colectiva, para bien y para peor”, University College London. Los autores piden una mayor transparencia en el desarrollo de LLM, incluida la divulgación de las fuentes de datos de capacitación, y sugieren que los desarrolladores de LLM deberían estar sujetos a auditoría y seguimiento externos. Esto permitirá comprender mejor cómo se desarrollan realmente los LLM y mitigar acontecimientos adversos.

Además, el artículo proporciona un cuadro de información compacto sobre temas relacionados con el LLM, incluido el papel de la inteligencia colectiva en la formación del LLM. Aquí, los autores reflexionan sobre el papel de los humanos en la creación de LLM, incluyendo cómo abordar objetivos como diferentes formas de representación. Dos recuadros de información describen la investigación centrándose en cómo se pueden utilizar los LLM para simular la inteligencia colectiva humana e identificar preguntas de investigación abiertas, como cómo evitar la homogeneización del conocimiento y cómo se debe compartir el crédito y la responsabilidad cuando se crean resultados conjuntos con los LLM. . .

Puntos clave:

  • Los LLM están cambiando la forma en que las personas buscan, usan y comunican información, lo que puede afectar la inteligencia colectiva de los equipos y la sociedad en general.
  • El LLM ofrece nuevas oportunidades para la inteligencia colectiva, como el apoyo a procesos deliberativos y de formación de opinión, pero también crea riesgos, como poner en peligro la diversidad del panorama de la información.
  • Para que los LLM apoyen, en lugar de socavar, la inteligencia colectiva, se deben divulgar los detalles técnicos de los modelos y se deben implementar procesos de monitoreo.

Instituciones participantes

  • Departamento de Digitalización, Escuela de Negocios de Copenhague, Frederiksberg, Dinamarca
  • Centro para la Racionalidad Adaptativa, Instituto Max Planck para el Desarrollo Humano, Berlín, DE
  • Centro para Humanos y Máquinas, Instituto Max Planck para el Desarrollo Humano, Berlín, DE
  • Universidad Humboldt de Berlín, Departamento de Psicología, Berlín, DE
  • Centro de Ciencias Cognitivas y de Decisión, Universidad de Basilea, Basilea, CH
  • Google DeepMind, Londres, Reino Unido
  • Escuela de Administración de la UCL, Londres, Reino Unido
  • Centro de Diseño de Inteligencia Colectiva, Nesta, Londres, Reino Unido
  • Centro Internacional Bonn-Aquisgrán de Tecnologías de la Información, Universidad de Bonn, Bonn, DE
  • Instituto Lamar de Aprendizaje Automático e Inteligencia Artificial, Bonn, DE
  • Proyecto Conjunto de Inteligencia, San Francisco, CA, EE.UU.
  • Centro de Políticas de Tecnología de la Información, Universidad de Princeton, Princeton, Nueva Jersey, EE. UU.
  • Departamento de Ciencias de la Computación, Universidad de Princeton, Princeton, Nueva Jersey, EE. UU.
  • Facultad de Sociología, University College Dublin, Dublin, IE
  • Instituto Geary de Políticas Públicas, University College Dublin, Dublín, IE
  • Sloan School of Management, Instituto Tecnológico de Massachusetts, Cambridge, MA, EE.UU.
  • Departamento de Ciencias Psicológicas, Birkbeck, Universidad de Londres, Londres, Reino Unido
  • Clúster de Excelencia en Ciencia de la Inteligencia, Universidad Técnica de Berlín, Berlín, DE
  • Escuela de Información y Comunicación, Centro de Investigación Insight SFI para Análisis de Datos, University College Dublin, Dublin, IE
  • Oxford Internet Institute, Universidad de Oxford, Oxford, Reino Unido
  • Laboratorio de Democracia Deliberativa, Universidad de Stanford, Stanford, CA, EE. UU.
  • Escuela de Negocios Tepper, Universidad Carnegie Mellon, Pittsburgh, PA, EE. UU.

Source link

Deja un comentario

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *