El expresidente Trump Butler, Pensilvania. Unas semanas después de sobrevivir a un intento de asesinato El video se volvió viral en las redes sociales. En el que se ve a la vicepresidenta Kamala Harris diciendo en un mitin: “Donald Trump no puede morir con dignidad”.

El clip provocó indignación, pero fue un engaño: Harris nunca lo dijo. La línea fue leída por una voz generada por IA que sonaba asombrosamente como Harris, y luego se dividió entre el discurso que pronunció Harris.

Un gran porcentaje de votantes está observando este tipo de manipulación y existe una creciente preocupación por su impacto en las elecciones. Nueva encuesta Entre 2.000 adultos según la empresa de investigación de mercado 3Gem. La encuesta, realizada por la empresa de ciberseguridad McAfee, encontró que el 63% de las personas entrevistadas había visto un deepfake en los 60 días anteriores, y el 15% reveló 10 o más.

La exposición a diferentes tipos de deepfakes fue bastante uniforme en todos los países, según la encuesta, siendo los deepfakes políticos los más comunes. Pero los deepfakes de temática política prevalecieron especialmente en Michigan, Pensilvania, Carolina del Norte, Nevada y Wisconsin, estados indecisos cuyos votos podrían decidir la elección presidencial.

En la mayoría de los casos, dijeron los encuestados, los deepfakes eran parodias; Una minoría (40%) estaba diseñada para engañar. Pero incluso las parodias y los deepfakes no engañosos pueden influir demasiado en los espectadores al confirmar prejuicios o socavar su confianza en los medios, dijo Ryan Culkin, director de asesoramiento de ThriveWorks, un proveedor nacional de servicios de salud mental.

“Está añadiendo otra capa a un momento que ya es estresante”, dijo Culkin.

Una abrumadora mayoría de las personas encuestadas por McAfee (91%) dijeron que les preocupaba inmiscuirse en las elecciones, posiblemente cambiar la percepción pública de un candidato o influir en el resultado de una elección. Alrededor del 40% se describió a sí mismo como extremadamente ansioso. Tal vez debido a la época del año, las preocupaciones sobre la influencia de los deepfakes en las elecciones, engañando al público o socavando la confianza en los medios aumentaron drásticamente con respecto a una encuesta realizada en enero, mientras que las preocupaciones sobre el uso de los deepfakes para el ciberacoso, las estafas y la pornografía falsa disminuyeron, según la encuesta. encontró.

Otros dos hallazgos dignos de mención: siete de cada 10 encuestados dijeron que vieron material al menos una vez a la semana que les hizo preguntarse si era real o generado por IA. Seis de cada 10 dijeron que no estaban seguros de poder responder a esta pregunta.

En este momento, ninguna ley federal o de California bloquea específicamente los deepfakes en la publicidad. Gobernador. Gavin Newsom promulgó un proyecto de ley el mes pasado que habría prohibido los materiales de campaña fraudulentos y alterados digitalmente dentro de los 120 días posteriores a una elección, pero un juez federal lo bloqueó temporalmente por motivos de la Primera Enmienda.

La ley de California prohíbe los anuncios de campaña “materialmente engañosos” dentro de los 60 días posteriores a una elección, dijo Jeffrey Rosenthal, socio del bufete de abogados Blank Rome y experto en leyes de privacidad. Sin embargo, la represión ampliada del estado contra los deepfakes en los anuncios no comenzará hasta el próximo año, cuando una nueva ley requerirá que los anuncios políticos sean etiquetados si contienen contenido generado por IA, dijo.

¿Qué puedes hacer con los deepfakes?

McAfee ofrece una de varias empresas herramientas de software lo que ayuda a rastrear medios con contenido generado por IA. otros dos Hola Y Bitmenteque ofrece extensiones gratuitas para el navegador Google Chrome que señalan sospechosos de deepfakes

Patchen Noelke, vicepresidente de marketing de Hear en Seattle, dijo que la tecnología de su empresa analiza los datos de audio en busca de patrones que indiquen que fue producido por una computadora en lugar de un ser humano. Es un juego del gato y el ratón, dice Noel; Los estafadores idearán formas de evitar ser detectados y empresas como Hia se adaptarán para afrontarlas.

Ken John Miyachi, cofundador de BitMind en Austin, Texas, dijo que la tecnología de su compañía solo funciona con imágenes fijas por el momento, aunque tendrá actualizaciones para la detección de IA en archivos de video y audio en los próximos meses. Pero las herramientas para crear deepfakes están por delante de las herramientas para detectarlos en este momento, dijo, porque “hay mucha más inversión en el lado productivo”.

Es una de las razones que ayuda al director técnico de McAfee, Steve Grobman, a mantener un sano escepticismo sobre el contenido que se ve en línea.

“Todos podemos ser susceptibles” a un deepfake, dijo, “especialmente cuando confirma un sesgo natural que ya tenemos”.

Además, tenga en cuenta que las imágenes y los sonidos generados por la inteligencia artificial pueden integrarse en material que de otro modo sería auténtico. “Tomar un vídeo y manipular sólo cinco segundos realmente puede cambiar el tono, el mensaje”, dijo Grobman.

“No es necesario cambiar mucho. Una frase insertada en un discurso en el momento adecuado puede realmente cambiar el significado.”

El senador estatal Josh Baker (D-Menlo Park) señaló que hay al menos tres leyes estatales que entrarán en vigor el próximo año para exigir una mayor divulgación del contenido generado por IA, incluida una de su autoría. Ley de transparencia de la IA de California. Incluso con estas medidas, dijo, el estado aún necesita asumir un papel activo para encontrar y detener las distracciones de los residentes.

Dijo que las cuatro cosas principales que la gente puede hacer son cuestionar el contenido emotivo, verificar las fuentes de información, compartir información sólo de fuentes confiables e informar contenido cuestionable a los funcionarios electorales y a la plataforma en la que se comparte. “Si algo te afecta muy emocionalmente”, dijo Baker, “probablemente valga la pena dar un paso atrás y pensar: ¿de dónde viene?”.

En su sitio web, McAfee ofrece una conjunto de consejos Para identificar posibles deepfakes, evite estafas relacionadas con las elecciones y no difunda medios falsos. Estos incluyen:

  • En los textos busque repeticiones, razonamientos superficiales y falta de información. “La IA a menudo dice mucho sin decir mucho, escondiéndose detrás de un vocabulario pesado para parecer informada”, sugiere el sitio.
  • En imágenes y audio, amplíe para detectar inconsistencias de los hablantes y movimientos extraños, y escuche sonidos que no coincidan con lo que está viendo.
  • Intente respaldar el material con contenido de otros sitios bien establecidos.
  • No tomes nada al pie de la letra.
  • Verifique la fuente y, si el material es una cita, intente encontrar el medio original en contexto.

Para algo que no puedes ver con tus propios ojos o a través de una fuente 100% confiable, “imagina que podría haber sido retocado con Photoshop”, sugiere Grobman. También advirtió que es fácil para los estafadores clonar sitios electorales oficiales y luego cambiar ciertos detalles, como los lugares y horarios de votación.

Es por eso que debes confiar en los sitios relacionados con la votación si sus URL terminan en .gov, agregó, “si no sabes por dónde empezar, puedes empezar aquí. Votar.gov“El sitio proporciona información sobre elecciones y derechos de voto, así como enlaces al sitio electoral oficial de cada estado.

“Nuestra capacidad de acceder a gran parte de nuestro mundo digital ha erosionado la confianza en torno a posibles fraudes”, afirmó Grobman. Al mismo tiempo, dice: “Cuando hay pruebas legítimas de un delito, un delito o un acto inmoral, es muy fácil afirmar que es falso. … Nuestra capacidad de responsabilizar a las personas mientras existan pruebas también se ve socavada por la disponibilidad generalizada de falsificaciones digitales”.

Source link