A medida que la inteligencia artificial se involucra más en el periodismo, los periodistas y editores se enfrentan no sólo a cómo utilizar la tecnología, sino también a cómo comunicar su uso a los lectores. Una nueva investigación de la Universidad de Kansas muestra que cuando los lectores piensan que la IA está de alguna manera involucrada en la producción de noticias, tienden a confiar menos en ella, incluso cuando no comprenden completamente en qué contribuyó.
Los resultados muestran que los lectores son conscientes del uso de la IA en la producción de noticias, incluso si lo ven de forma negativa. Pero comprender qué y cómo la tecnología ha contribuido a las noticias puede ser complicado, y cómo transmitir lo que entienden a los lectores es un problema que claramente debe abordarse, según los investigadores.
“La creciente concentración de IA en el periodismo es una cuestión de la que sabemos que hablan periodistas y académicos, pero estábamos interesados en cómo la perciben los lectores. Por eso queríamos aprender más sobre las percepciones de las firmas de los medios y su impacto, o lo que piensa la gente. William Noticias generadas por IA y coautora de dos estudios sobre el tema, dice Alyssa Appelman, profesora asociada de la Escuela Allen White de Periodismo y Comunicación de Masas.
Appelman y Steve Bien-Aim, profesores asistentes de la Escuela de Periodismo y Comunicación de Masas William Allen White, dirigieron un experimento en el que mostraron a los lectores una noticia sobre el edulcorante artificial aspartamo y su seguridad para el consumo humano. A los lectores se les asignó aleatoriamente una de cinco firmas: escritas por redactores, escritas por redactores con herramientas de inteligencia artificial, escritas por redactores con asistencia de inteligencia artificial, escritas por redactores con asistencia de inteligencia artificial y escritas por inteligencia artificial. Por lo demás, el artículo era coherente en todos los aspectos.
Los resultados se publicaron en dos artículos de investigación. Ambos fueron escritos por Appelman y Bien-Aime de KU, junto con Haiyan Jia de la Universidad de Lehigh y Mu Wu de la Universidad Estatal de California en Los Ángeles.
Un artículo de investigación centrado en cómo los lectores interpretan las firmas de IA Se encuestó a los lectores después de leer el artículo para ver qué significaba la firma específica que recibieron y si estaban de acuerdo con varias declaraciones destinadas a medir su alfabetización mediática y sus actitudes hacia la IA. Los hallazgos mostraron que, independientemente de la firma que recibieran, los participantes tenían una visión amplia de lo que hacía la tecnología. La mayoría informó que pensaba que los humanos eran los principales contribuyentes, mientras que algunos dijeron que pensaban que la IA podría usarse como ayuda para la investigación o para escribir un primer borrador editado por un humano.
Los resultados mostraron que los participantes entendieron lo que podía hacer la tecnología de inteligencia artificial y que estaba guiada por humanos con indicaciones. Sin embargo, los diversos términos de la firma dejaban mucho que las personas pudieran interpretar en qué medida podían contribuir específicamente al artículo que estaban leyendo. Cuando las contribuciones de AI se mencionaron en la firma, afectó negativamente las percepciones de los lectores sobre la fuente y la credibilidad del autor. Incluso con la firma “Escrito por el redactor”, los lectores lo interpretaron como escrito al menos parcialmente por una IA, ya que ningún ser humano estaba asociado con la historia.
Los lectores utilizan la búsqueda de sentido como estrategia para explicar la contribución de la IA, escriben los autores. Una estrategia es una forma de utilizar información que alguien ya ha aprendido para explicar una situación con la que quizás no esté familiarizado.
“La gente tiene muchas ideas diferentes sobre lo que podría significar la IA, y cuando no tenemos claro qué hace, la gente llenará los vacíos de lo que pensaban que sería”, dijo Appelman.
Los resultados mostraron que, independientemente de lo que pensaban que aportaba la IA a la historia, su opinión sobre la credibilidad de la noticia se veía afectada negativamente.
Los resultados fueron publicados en la revista. Informes de contacto.
Un segundo artículo de investigación exploró cómo las percepciones de humanidad median la relación entre las contribuciones percibidas de la IA y los juicios de credibilidad. Descubrió que reconocer la IA aumentaba la transparencia y que los lectores sentían que las contribuciones humanas a las noticias mejoraban la confiabilidad.
Los participantes informaron el porcentaje que pensaban que AI estaba involucrada en la creación del artículo, independientemente de la condición de firma que recibieron. Cuanto mayor era el porcentaje que daban, menores eran sus juicios de confiabilidad. Incluso aquellos que leyeron “escrito por un redactor” informaron que sentían que la IA estaba involucrada hasta cierto punto.
“No era la gran diferencia entre la IA y los humanos: era cuánto pensaban que hacían los humanos”, dijo Bien-Aime. “Esto demuestra que debemos ser claros. Creemos que los periodistas hacen muchas suposiciones que hacemos en nuestro campo y que los consumidores saben lo que hacemos. A menudo no lo saben”.
Los hallazgos sugieren que las personas dan mayor credibilidad a las contribuciones humanas en campos como el periodismo que tradicionalmente han sido realizados por humanos. Cuando se reemplaza por tecnología como la IA, puede afectar las percepciones de confiabilidad, lo que no sucedería con cosas que no son tradicionalmente humanas, como YouTube que sugiere videos para que una persona los vea en función de sus visualizaciones anteriores, dicen los autores.
Si bien esto puede interpretarse como un hecho positivo de que los lectores tienden a percibir las noticias escritas por humanos como más creíbles, los periodistas y académicos también deben comprender que deben ser claros al expresar cómo y si utilizan la IA. La transparencia es una buena práctica, como lo demostró un escándalo a principios de este año en el que Sports Illustrated supuestamente publicó artículos generados por IA y escritos por personas. Sin embargo, los investigadores argumentan que puede no ser lo suficientemente claro para que los humanos entiendan que se utilizó IA, y si perciben que contribuye más que un humano, esto puede afectar negativamente las percepciones de credibilidad.
Los hallazgos sobre la autoría percibida y la humanidad se publicaron en la revista Las computadoras en el comportamiento humano: humanos artificiales.
Ambos artículos de revistas indican que se deben realizar más investigaciones para explorar cómo los lectores perciben las contribuciones de la IA al periodismo, dijeron los autores, y también sugieren que el periodismo como campo podría beneficiarse de mejoras en la forma en que articula tales prácticas. Appelman y Bien-Aimé estudian la comprensión de los lectores sobre diversas prácticas periodísticas y descubren que los lectores a menudo no comprenden lo que significan ciertas divulgaciones, como correcciones, firmas, capacitación ética o el uso de IA, de manera consistente con las intenciones de los periodistas.
“Parte de nuestro marco de investigación siempre ha sido evaluar si los lectores saben lo que hacen los periodistas”, dijo Bien-Aime. “Y queremos entender mejor cómo la gente ve el trabajo de los periodistas”.