WASHINGTON.- Los ingenieros informáticos y los politólogos con interés por la tecnología vienen advirtiendo desde hace años que el acceso a herramientas baratas y potentes de inteligencia artificial muy pronto permitiría que cualquiera genere imágenes, videos y audios falsos, pero lo suficientemente realistas como para engañar a los votantes y tal vez torcer una elección.
Las imágenes sintéticas que surgían por entonces eran burdas, poco convincentes y costosas de generar, especialmente cuando había al alcance de la mano otras herramientas de desinformación muy baratas y fáciles de propagar a través de las redes sociales. La amenaza de la IA y del deepfake y “ultrafalso” siempre parecía ser algo futuro.
Ya no.
#ULTIMAHORA Circulan en redes sociales fotos generadas con inteligencia artificial de Donald Trump siendo arrestado en Nueva York. pic.twitter.com/ZiTOP3Hekx
— Euro Noia C9 (@Euro_NoiaC9) March 21, 2023
Las sofisticadas herramientas de IA generativa ahora clonan voces humanas y crean imágenes, videos y audios en cuestión de segundos y por un costo mínimo. Y cuando se las monta sobre el poderoso algoritmo de las redes sociales, esos contenidos falsos creados digitalmente se viralizan en todas direcciones o hacia un blanco de audiencia sumamente específico, lo que podría llevar el concepto de “campaña sucia” a submundos aún desconocidos.
Las implicancias que esto tiene para las campañas políticas y las elecciones de 2024 en Estados Unidos son tan inmensas como preocupantes: la IA generativa no solo genera instantáneamente emails, mensajes o videos de campaña, sino que también podría conducir al error a los votantes, imitar candidatos y socavar el proceso electoral a una escala y velocidad nunca vistos.
“No estamos preparados para lo que se viene”, advierte A.J. Nash, vicepresidente de inteligencia la empresa de ciberseguridad ZeroFox. “Para mí, el verdadero salto hacia adelante es el surgimiento de nuevas capacidades de audio y video. Y cuando eso se puede fabricar a gran escala y distribuirse a través de las redes, el impacto se multiplica”.
Los tecnólogos enumeran rápidamente toda una serie de escenarios alarmantes en los que la IA generativa podría ser utilizada para crear de “medios sintético” —definidos como cualquier formato de contenido digital creado o modificado mediante algoritmos— con el fin de confundir a los votantes, ensuciar a un candidato o incluso incitar a la violencia.
Por ejemplo, bots de mensajes automáticos con la voz de un candidato que instruyen a sus supuestos seguidores a ir a votar en la fecha equivocada, grabaciones de audio con la voz de un candidato donde confiesa un delito o expresa opiniones racistas, imágenes de video que muestran a político dando un discurso o una entrevista que nunca dieron. También imágenes falsas diseñadas para parecerse a verdaderos informes periodísticos de medios locales, afirmando erróneamente que un candidato ha abandonado la carrera.
“¿Qué pasaría si Elon Musk te llama personalmente y te dice que votes por cierto candidato?” se pregunta Oren Etzioni, exCEO y fundador del Instituto Allen para la Inteligencia Artificial, que renunció el año pasado para lanzar la organización sin fines de lucro AI2. “Mucha gente le haría caso, pero no sería él”.
El expresidente Donald Trump, que se postula para la reelección en 2024, ha compartido varios contenidos generados por IA con sus seguidores de las redes sociales. El video manipulado que compartió el viernes a través de su plataforma Truth Social, que distorsiona la reacción del presentador Anderson Cooper durante la entrevista a Trump por CNN, fue creado con una herramienta de clonación de voz de IA.
Un anuncio de campaña distópico publicado el mes pasado por el Comité Nacional Republicano ofrece otro pantallazo de este futuro manipulado digitalmente. El anuncio fue posteado online después de que el presidente Joe Biden anunciara su apuesta por la reelección y comienza con una imagen extraña y ligeramente distorsionada de Biden, acompañada por el texto “¿Qué pasaría si es reelegido el presidente más débil que hayamos tenido?”.
A continuación, mostraba una serie de imágenes generadas por IA: Taiwán bajo ataque, Estados Unidos con vidrieras tapiadas mientras la economía se desmorona; soldados y vehículos militares blindados patrullando las calles locales mientras criminales tatuados y oleadas de inmigrantes generan el caos.
“Una visión generada por IA sobre el posible futuro de nuestro país si Joe Biden es reelegido en 2024″, dice la descripción del anuncio republicano.
El Comité Nacional Republicano reconoció el uso de IA, pero otras campañas políticas más nocivas y los enemigos extranjeros no lo harán, apunta Petko Stoyanov, director global de tecnología de Forcepoint, una empresa de seguridad cibernética con sede en Austin, Texas. Stoyanov anticipa que los grupos que buscan interferir con la democracia estadounidense emplearán la inteligencia artificial y los medios sintéticos como una forma de erosionar la confianza.
“¿Qué sucede si una agrupación internacional, un ciberdelincuente o un gobierno extranjero se hace pasar por alguien? ¿Cuál es el impacto? ¿Tenemos algún recurso contra eso?” cuestiona Stoyanov. “Va a circular mucha más información falsa de fuentes internacionales.”
Aunque las elecciones de 2024 todavía parecen lejanas, la desinformación política generada por IA ya se ha viralizado en las redes, desde un video manipulado de Biden donde parece dar un discurso atacando a las personas transgénero, hasta imágenes generadas por IA de niños que supuestamente aprenden satanismo en las bibliotecas.
Las imágenes de IA que parecen mostrar la foto de prontuario de Trump también engañaron a algunos usuarios de las redes sociales: cuando fue fichado y procesado en un tribunal penal de Manhattan, al expresidente no le sacaron foto. Otras imágenes generadas por IA mostraban a Trump resistiéndose al arresto, aunque su creador reconoció rápidamente su origen.
La representante Yvette Clarke, demócrata por el estado de Nueva York, presentó un proyecto de legislación que obligaría a los candidatos a etiquetar los anuncios de campaña creados con IA. Clarke también impulsó una legislación para que todas las imágenes sintéticas lleven una marca de agua que las identifique como tales.
Algunos estados tienen sus propias propuestas para abordar el problema del deefake.
Clarke dice que su mayor temor es que la IA generativa sea usada antes de las elecciones para crear un video o audio que incite a la violencia y genere enfrentamientos entre los ciudadanos.
“No hay que perderle el paso a la tecnología”, dice Clarke. “Tenemos que instalar algunas vallas de protección, porque alcanza una fracción de segundo engañar a la gente. Las personas están ocupadas con sus vidas y no tienen tiempo de verificar cada información que reciben. En temporada de elecciones, la IA usada como arma puede ser extremadamente disruptiva”.
Por David Klepper y Alison Swenson
Traducción de Jaime Arrambide