Días después de que la vicepresidenta Kamala Harris lanzara su candidatura presidencial, un vídeo, creado con la ayuda de inteligencia artificial, se volvió viral.
“Soy… su candidato demócrata a la presidencia porque Joe Biden finalmente reveló su envejecimiento en el debate”, dijo una voz que sonaba como Harris en la pista de audio falsa utilizada para alterar uno de sus anuncios de campaña. “Me eligieron porque soy la mejor contratación para la diversidad”.
El multimillonario Elon Musk, que respaldó al oponente republicano de Harris, el ex presidente Trump, compartió el video en X y luego aclaró, dos días después, que en realidad pretendía ser una parodia. Su tweet inicial tuvo 136 millones de visitas. El vídeo de seguimiento, llamado parodia, recibió 26 millones de visitas.
A los demócratas, co Gobernador de California, Gavin NewsomEl incidente no fue motivo de risa, con llamados a una mayor regulación para combatir los videos generados por IA con mensajes políticos y un debate renovado sobre el papel apropiado del gobierno para tratar de contener la tecnología emergente.
El viernes, los legisladores de California dieron su aprobación final a un proyecto de ley que prohibiría la distribución de anuncios de campaña engañosos o “comunicaciones electorales” dentro de los 120 días posteriores a una elección. Proyecto de ley 2839 de la Asamblea Se dirige a contenido manipulador que dañará la reputación o las perspectivas electorales de un candidato, así como la confianza en los resultados electorales. Su objetivo es abordar vídeos como la máscara compartida por Harris, aunque hay excepciones para parodias y sátiras.
“Estamos ante las primeras elecciones en California en un momento en el que la confusión impulsada por la IA generativa contaminará nuestro ecosistema de información como nunca antes, y millones de votantes no sabrán en qué imágenes, audio o vídeos pueden confiar”. dijo la asambleísta Gayle Pellerin (D-Santa Cruz). “Así que tenemos que hacer algo”.
Newsom tiene Indicó que firmaría el proyecto de ley.Lo cual entrará en vigor de inmediato, a tiempo para las elecciones de noviembre.
La legislación actualiza una ley de California que impide que las personas distribuyan medios visuales o de audio engañosos destinados a dañar la reputación de un candidato o engañar a un votante dentro de los 60 días posteriores a una elección. Los legisladores estatales dicen que la ley debe reforzarse durante un ciclo electoral en el que la gente ya está inundando las redes sociales con vídeos y fotografías alterados digitalmente conocidos como deepfakes.
El uso de deepfake para difundir información errónea ha preocupado a legisladores y reguladores durante ciclos electorales anteriores. Estos temores han aumentado desde el lanzamiento de nuevas herramientas impulsadas por inteligencia artificial, como los chatbots que pueden generar imágenes y videos rápidamente. Desde llamadas automáticas falsas hasta respaldos falsos de celebridades a candidatos, el contenido generado por IA está poniendo a prueba a las plataformas tecnológicas y a los legisladores.
Según AB 2839, un candidato, comité electoral o funcionario electoral puede solicitar una orden judicial para eliminar los deepfakes. Pueden demandar por daños y perjuicios a la persona que distribuye o vuelve a publicar el material fraudulento.
La ley también se aplica a los medios fraudulentos publicados 60 días después de una elección, incluido el contenido que muestra una máquina de votación, una boleta, un lugar de votación u otra propiedad relacionada con las elecciones de una manera que podría socavar la confianza en los resultados electorales.
No se aplica a las sátiras o parodias etiquetadas como tales, ni a las estaciones de transmisión que informen a los espectadores que lo que se muestra no representa fielmente un discurso o evento.
Los grupos de la industria tecnológica se oponen al AB 2839, junto con otros proyectos de ley que apuntan a las plataformas en línea por no regular adecuadamente el contenido electoral fraudulento o etiquetar el contenido generado por IA.
“Esto enfriará y bloqueará la libertad de expresión protegida constitucionalmente”, dijo Carl Szabo, vicepresidente y asesor general de NetChoice. Los miembros del grupo incluyen a Google, X y Snap, así como la empresa matriz de Facebook, Meta y otros gigantes tecnológicos.
Las plataformas en línea tienen sus propias reglas sobre los medios manipulados y la publicidad política, pero sus políticas pueden diferir.
A diferencia de Meta y X, TikTok no permite anuncios políticos y dice que incluso puede eliminar etiquetas Contenido generado por IA Si representa una figura pública como una celebridad “cuando se utiliza con fines de respaldo político o comercial”. Truth Social, una plataforma creada por Trump, no aborda los medios manipulados en sus reglas sobre lo que no está permitido en su plataforma.
Los reguladores federales y estatales ya están tomando medidas enérgicas contra el contenido generado por IA.
En mayo, la Comisión Federal de Comunicaciones propuso una multa de 6 millones de dólares contra Steve Cramer, un consultor político demócrata detrás de una llamada automática que utilizaba inteligencia artificial para hacerse pasar por la voz del presidente Biden. Las llamadas falsas desalentaron la participación en las primarias presidenciales demócratas de New Hampshire en enero. Kramer, quien dijo Noticias NBC Planeó la llamada para llamar la atención sobre los peligros de la IA en la política, y también enfrenta cargos penales por supresión de votantes y suplantación de fechorías de candidatos.
Szabo dijo que las leyes actuales son suficientes para abordar las preocupaciones sobre elecciones profundamente falsificadas. NetChoice ha demandado a varios estados para derogar ciertas leyes destinadas a proteger a los niños en las redes sociales, alegando que violan las protecciones de la libertad de expresión bajo la Primera Enmienda.
“El simple hecho de hacer una nueva ley no ayuda en nada a detener el mal comportamiento; en realidad hay que hacer cumplir la ley”, afirmó Szabo.
Más de dos docenas de estados, incluidos Washington, Arizona y Oregón, han aprobado, aprobado o están trabajando en leyes para regular los deepfakes, según la organización sin fines de lucro de defensa del consumidor. Ciudadano publico.
En 2019, California introdujo una ley destinada a combatir la manipulación de los medios después de que un vídeo que pretendía parecer como si la presidenta de la Cámara de Representantes, Nancy Pelosi, estuviera borracha, se volviera viral en las redes sociales. Hacer cumplir esa ley ha sido un desafío.
“Tuvimos que suavizarlo”, dijo el asambleísta Mark Berman (demócrata por Menlo Park), autor del informe. la factura. “Llamó mucho la atención sobre los riesgos potenciales de esta tecnología, pero me preocupaba que, al final del día, no sirviera de mucho”.
En lugar de emprender acciones legales, afirmó Daniel Citron, profesor de la Facultad de Derecho de la Universidad de Virginia, los candidatos políticos pueden desacreditar o incluso ignorar un deepfake para limitar su propagación. Para cuando pasen por el sistema judicial, es posible que el contenido ya se haya vuelto viral.
“Estas leyes son importantes por el mensaje que envían. Nos enseñan algo”, dijo, y agregó que están informando a quienes comparten deepfakes que hay costos.
Este año, los legisladores trabajaron con la Iniciativa de California para la Tecnología y la Democracia, un proyecto de la organización sin fines de lucro California Common Cause, en varios proyectos de ley para combatir los deepfakes políticos.
Algunas plataformas en línea de Target están protegidas por la ley federal de ser responsables del contenido publicado por los usuarios.
Berman presentó un proyecto de ley que requeriría que una plataforma en línea con al menos 1 millón de usuarios de California elimine o etiquete cierto contenido fraudulento relacionado con las elecciones dentro de los 120 días posteriores a las elecciones. Las plataformas deben actuar 72 horas después de que un usuario reporta una publicación. bajo AB 2655Que fue aprobada por la Legislatura el miércoles, también requerirá que las plataformas identifiquen, eliminen y etiqueten contenido falso. Tampoco aplica a parodias o sátiras o medios informativos que cumplan ciertos requisitos.
Otro proyecto de ley, del que es coautor la asambleísta Buffy Weeks (D-Oakland), requeriría que las plataformas en línea etiqueten el contenido generado por IA. Otros grupos industriales NetChoice y TechNet se oponen al proyecto de ley, pero el fabricante de ChatGPT, OpenAI, lo apoya. AB 3211, Reuters Informe
Sin embargo, los dos proyectos de ley no entrarán en vigor hasta después de las elecciones, lo que subraya los desafíos que implica aprobar nuevas leyes a medida que la tecnología avanza rápidamente.
“Parte de mi esperanza al presentar el proyecto de ley es la atención que genera y, con suerte, presiona a las plataformas de redes sociales para que actúen ahora”, dijo Berman.