Los titulares de este ciclo electoral han estado dominados por acontecimientos sin precedentes, incluida la condena penal de Donald Trump, el atentado contra su vida, el desastroso desempeño en el debate de Joe Biden y su reemplazo en la lista demócrata por la vicepresidenta Kamala Harris. No sorprende que otros acontecimientos políticos importantes se hayan visto atrapados en un goteo constante de esfuerzos mejorados por inteligencia artificial para influir en los votantes.

Durante las primarias presidenciales, A. Llamada automática falsa de Biden New Hampshire instó a los votantes a esperar hasta noviembre para emitir su voto. Elon Musk en julio Se compartió un video que incluía una voz imitando a Kamala Harris Originalmente etiquetado como una parodia de What She Didn’t Say, el clip pasó fácilmente a una publicación sin etiqueta en X con más de 130 millones de visitas, destacando los desafíos que enfrentan los votantes.

Más recientemente, Trump utilizó falsamente las preocupaciones sobre la IA como arma Afirma que AI creó una foto del mitin de HarrisLa multitud sugerida no era real. Y una foto deepfake de un intento de asesinato del expresidente Los agentes del Servicio Secreto han cambiado de apariencia. Entonces se ríen, difundiendo la falsa teoría de que el tiroteo fue un montaje.

Obviamente, cuando se trata de manipulación de la IA, el público votante debe estar preparado para cualquier cosa.

Los votantes no estarían en esta situación si existieran políticas claras sobre el uso de la IA en las campañas de los candidatos. Las pautas escritas sobre cuándo y cómo las campañas pretenden utilizar la IA permiten a las personas comparar el uso de la tecnología por parte de los candidatos con sus políticas declaradas. Esto ayudará a los votantes a evaluar si los candidatos practican lo que predican. Si un político está presionando para que se coloque una marca de agua en la IA para que la gente pueda identificar cuándo se está utilizando, por ejemplo, debería usar dichas etiquetas en su propia IA en anuncios y otros materiales de campaña.

Las declaraciones de políticas de IA pueden ayudar a las personas a protegerse de los malos actores que intentan manipular sus votos. Y la falta de medios confiables para evaluar el uso de la IA disminuye el valor que la tecnología puede aportar a las elecciones si se implementa de manera precisa, justa y con total transparencia.

No es que los políticos no estén usando IA. De hecho, empresas como Google y Microsoft han admitido que están Entrenó decenas de campañas. y partidos políticos sobre el uso de herramientas de IA generativa.

Las principales empresas tecnológicas han publicado un conjunto de políticas Directrices para el uso de IA en las elecciones de principios de este año. Prometen desarrollar tecnología para identificar y etiquetar contenido realista creado con IA generativa y educar al público sobre su uso. Sin embargo, no hay manera de implementar esta promesa.

Los reguladores gubernamentales han respondido a las preocupaciones sobre el impacto de la IA en las elecciones. En febrero, tras la deshonesta llamada automática de New Hampshire, Comisión Federal de Comunicaciones movida Hacer que tales tácticas sean ilegales. El consultor que planeó la llamada fue multado con 6 millones de dólares, Y la empresa de telecomunicaciones que realizó las llamadas fue multada con 2 millones de dólares. Pero aunque la FCC quiere que se divulgue el uso de la IA en anuncios televisivos, el presidente de la Comisión Federal Electoral anunció el mes pasado que la agencia Poner fin a la consideración de la regulación de la IA en los anuncios políticos. Los funcionarios de la FEC dijeron que eso excedería su autoridad y que esperarían instrucciones del Congreso sobre el asunto.

California y otros estados exigen exenciones de responsabilidad al utilizar la tecnología, Pero sólo cuando se intenta hacer malicia. Michigan y Washington exigen la divulgación de cualquier uso de la IA. Y Minnesota, Georgia, Texas e Indiana han aprobado prohibiciones totales del uso de IA en anuncios políticos.

Probablemente sea demasiado tarde para esperar que las campañas comiencen a revelar sus prácticas de inteligencia artificial en este ciclo electoral. Por lo tanto, corresponde a los votantes desconfiar de la IA, de la misma manera que otras tecnologías, como el autopago en supermercados y otras tiendas, han trasladado la responsabilidad a los consumidores.

Los votantes no pueden confiar en que la información electoral que llegue a sus buzones de correo, bandejas de entrada y plataformas de redes sociales estén libres de manipulación tecnológica. Deben tener en cuenta quién financió la distribución de dicho contenido y buscar signos obvios de uso de IA en las imágenes, como dedos faltantes o aretes o aretes que no coinciden. Los votantes deben conocer las fuentes de información que utilizan, cómo se verifica y cómo se comparte. Todo esto contribuirá a una mayor alfabetización informacional que, junto con el pensamiento crítico, los votantes necesitarán para llenar sus boletas este otoño.

Ann G. Skeat Director Senior de Ética de Liderazgo y Juan P. Pelissero Director de Ética Gubernamental del Centro Markkula de Ética Aplicada de la Universidad de Santa Clara. Se encuentran entre los coautores de “Votar por la ética: una guía para los votantes estadounidenses”, del cual se adaptaron partes de esta pieza.

Source link