Fardos de billetes rodeando las imágenes de la senadora de Demócratas, Ximena Rincón, y del fundador de Amarillos, Cristián Warnken, forman parte de un video que circula en redes sociales para apoyar la opción “En Contra” de cara al plebiscito constitucional del 17 de diciembre. A simple vista, pareciera que estos políticos se hicieron un cambio de imagen: aparecen con otros peinados y, en el caso de Warnken, hasta bronceado. Pero nada de esto es real.
El trabajo audiovisual está hecho con inteligencia artificial (IA), y si bien en este caso parece quedar claro que la representación no es real, puede ser que en otras acciones propagandísticas la frontera entre lo falso y verdadero sea aún más tenue.
Este es solo un ejemplo de una larga lista de uso de IA en política en el último tiempo. Si antes ya se había usado para analizar datos, perfiles y para generar mensajes personalizados eficientes para campañas electorales, la IA generativa es la que ahora está impactando con fuerza en las campañas, y no necesariamente para mejor. Ya se vislumbra que su uso se está convirtiendo en un verdadero dolor de cabeza para las democracias: la IA se está utilizando en el mundo para desprestigiar a adversarios políticos e incluso socavar procesos electorales.
“La realidad de la ciencia de datos y la inteligencia artificial y lo que se podía hacer con estas herramientas para impactar las elecciones hasta el año pasado ya era mucho, sobre todo a través de analizar datos para entender a electores”, plantea la directora del Instituto Data Science de la UDD, Loreto Bravo. “Pero con la inteligencia artificial generativa para la aparición del chat GPT, en noviembre del año pasado, empiezan las aplicaciones que permiten, a través de una pequeña descripción de palabras, generar imágenes, mientras que otras, a partir de pequeñas muestras de audios pueden replicar la voz de una persona. Es una realidad que da un poco de susto”.
La misma preocupación muestra el exsenador y vicepresidente ejecutivo de Fundación Encuentros del Futuro y fundador del Congreso Futuro, Guido Girardi. El exlegislador, que se ha enfocado los últimos años a estos temas, sostiene que “se termina la frontera entre lo que es humano y lo que es máquina, voy a poder poner a cualquier personaje diciendo cualquier cosa, haciendo cualquier cosa, y no se va a poder distinguir si es verdad o no”.
Hace unas semanas circuló un video generado con IA del Presidente Boric renunciando en favor de José Antonio Kast. Aunque el contenido era fácilmente descartable, varios pudieron creer que se trataba de algo verdadero.
Un ejemplo de esto es lo ocurrido en Argentina en las elecciones presidenciales. Durante la campaña de primera vuelta, que se realizó el 22 de octubre, circuló una gran cantidad de información falsa (fake news), de videos e incluso jingles de campaña hechos a través de inteligencia artificial, en los que se podía escuchar a figuras de la música, como Charly García y Chayanne, que nunca prestaron su voz para apoyar candidaturas.
Quizá una de las situaciones más particulares fue la que afectó a la candidatura del PRO y de la alianza Juntos por el Cambio, Patricia Bullrich. Una serie de audios de quien entonces parecía ser su opción para ministro de Economía, Carlos Melconian, publicados en distintas plataformas, lo muestran en actitudes de supuesto acoso hacia sus empleadas y supuestas ofertas de cargos a cambio de sexo. Ante la situación, la candidata presidencial sugirió que los audios eran falsos y creados con inteligencia artificial. Esto, a pesar de que en su partido reconocieron que eran reales, argumentando que tenían muchos años. Con todo, Bullrich terminó en tercer lugar en las urnas y no avanzó al balotaje.
Hace un par de semanas, desde la cuenta “Sergio Massa en IA por la Patria” subieron un spot generado con inteligencia artificial que se volvió viral recreando imágenes de Javier Milei, Mauricio Macri y Bullrich con escenas apocalípticas y con frases como “la democracia está en peligro”.
Los casos suman y siguen. En Colombia, en octubre pasado, supuestos audios creados con IA pusieron en tela de juicio las últimas elecciones. “Funcionó el pago y la inflada de las encuestas, la gente se la creyó. Eso nos va poner a (Gustavo) Bolívar y a mí en segunda vuelta, según el plan”, se escucha decir a una voz impostada y muy similar a la del aspirante a la alcaldía de Bogotá Carlos Fernando Galán. El candidato centrista desmintió el audio: “Ahora con inteligencia artificial están creando mi voz para decir cosas que nunca he dicho. Es increíble (…), es guerra sucia”, alegó. Finalmente, él ganó las elecciones.
Ese no fue el único caso durante la campaña colombiana. Una decena de políticos salpicados por escándalos alegaron en su defensa que se trataba de acciones de desprestigio con audios supuestamente hechos con inteligencia artificial. Y ese es el problema, el límite entre la verdad y la mentira se vuelve difuso. Algo que sí ocurrió puede ser atribuido a la IA, y algo que no ocurrió puede ser maqueteado desde una IA.
La “deepfake” -notas falsas que parecen reales- ha ido en aumento en el mundo. Uno de los casos que abrieron el debate sobre la nueva era de la inteligencia artificial y la política fueron unas fotos que circularon en diversas redes sociales y que mostraban el supuesto arresto del expresidente de Estados Unidos Donald Trump. Miles de personas alrededor del mundo cayeron en la trampa y las consideraron reales.
Para la actual campaña, el comité republicano viralizó un video donde recreó escenarios apocalípticos, que a su juicio serían el resultado de una eventual nueva victoria de Joe Biden en las elecciones presidenciales. Y aunque los republicanos dejaron claro de que se trata de IA, en un contexto electoral la situación se prestó para generar confusiones. Ya a principios de este año había circulado en la plataforma TikTok un audio que parecía real del Presidente Joe Biden y su probable rival en las elecciones de 2024, Trump, arrojándose insultos. Todo resultó ser producto de una aplicación de inteligencia artificial.
La inteligencia artificial generativa puede lograr hoy, por ejemplo, que se recree la voz del destacado periodista Julio Martínez, fallecido en 2008, para un spot publicitario de los Panamericanos Santiago 2023, lo que generó la emoción en muchos de sus seguidores. También puede generar una canción inédita con la voz del cantante Bad Bunny, sin su participación, lo que generó el efusivo enojo del mismo artista.
De hecho, hace solo unas semanas, un usuario de la plataforma X subió una recreación hecha por IA en que se pueden apreciar imágenes del Presidente Gabriel Boric, las ministras Camila Vallejo y Carolina Tohá, y el exsecretario de Estado Giorgio Jackson, como parte de un videoclip del grupo de electro-pop español Loco Mía. Luego se agregó una versión con los mismos políticos como personajes de Grease.
Si bien hay visiones menos catastróficas respecto de cómo la inteligencia artificial influye e influirá en la política, como por ejemplo que esta nos ayuda a detectar datos que son fundamentales para poder hacer una campaña política y para reconocer quiénes son los electores, qué les gusta y con esto generar una buena estrategia que permita tener mayor participación, también hay quienes apuntan a que las visiones más extremistas son las que se ven favorecidas.
¿QUIÉNES SON LOS QUE GANAN?
“Ganan las visiones extremas, quien ponga el contenido más agresivo, violento, distópico, falso. El tiempo de la razón, la serenidad, la reflexión, está marginado”, asegura Girardi. Y agrega: “Los Milei son los que van a ganar. Tú dices “está loco, cómo va a decir eso”, pero esos son los que ganan, los que generen una reacción de activación de la atención, el resto no es escuchado”.
Para el exsenador, hay un electorado que tiene un sesgo de complacencia y solo busca potenciar sus visiones, ya sea de izquierda o de derecha, autoadoctrinándose y sin verificar la verdad. “La plaza pública de hoy son las redes sociales, pero esta está infectada, y esa es la que está definiendo la política. Por eso están ganando los Milei y Trump en el mundo, y por eso que las visiones, que no importa que sean de izquierda y derecha, más reflexivas, serias, quedan desfasadas”, dice.
Hay otro grupo de expertos que sostienen que quienes buscan manipular son los que están aprovechando de mejor manera el avance de la inteligencia artificial, independiente de su posición ideológica.
Para Felipe Vergara, experto en marketing político, doctor en comunicación y académico de la Universidad Andrés Bello, “entre los principales riesgos que existen, es que al direccionar mensajes, puede que estos no sean fidedignos y reales. Por ejemplo, llegar con un mensaje a un público que está descontento y decirle que vas a solucionarle el problema cuando no está entre tus objetivos. Más allá de los audios falsos, fotos falsas, voces tergiversadas, hay una expectativa que se genera y que no se cumplirá”.
Loreto Bravo complementa: “Siempre podemos utilizar los datos y la inteligencia artificial para entender de mejor forma las necesidades de la ciudadanía, pero ,en el fondo, el uso que le demos a esa información es lo que puede resultar complicado. Si utilizamos la información que obtenemos para manipular, estamos en un problema”.
El dilema hoy es cómo se protege a los electores. El avance de la tecnología es más rápida que las legislaciones. Hoy los gobiernos están dando solo pequeños pasos en esa dirección, sobre todo, porque para aprobar un proyecto se requiere mucho tiempo y cuando se promulga una ley probablemente ya queda obsoleta. Además, el carácter universal del problema hace que las legislaciones nacionales queden fuera de rango para sancionar a quienes mal utilizan la inteligencia artificial.
Los expertos subrayan la importancia de establecer marcos éticos y legales sólidos para garantizar que esta tecnología se utilice de manera responsable y transparente en el proceso democrático. Incluso, algunos apuntan a que la inteligencia artificial hoy es un problema casi tan grave como el cambio climático o en su momento lo fueron las armas nucleares.
Según explica Loreto Bravo, en Europa ya se está apuntando a legislaciones que eviten la manipulación al utilizar la IA. “Pero no solo tiene que ver con la legislación. La dificultad está en cómo verificas que un texto fue generado por una herramienta de inteligencia artificial generativa. A pesar de que hay herramientas que dicen que son capaces de detectar la IA, todas las pruebas prácticas demuestran que fallan en más del 50%. Hay herramientas como Zero GPT, hay aplicaciones que dicen que pueden detectar textos generados por inteligencia artificial, pero la verdad es que fallan. Lo mismo ocurre con las imágenes. Por lo tanto, estamos mucho más expuestos”.
“El riesgo de manipulación es gigantesco, por eso la necesidad de regular estas tecnologías, no para eliminarla, sino para evitar los usos inadecuados (…) Tenemos que generar un proceso de regulación que sea contemporáneo a la velocidad de los cambios”, sostiene, a su vez, Girardi, uno de los promotores de la reforma constitucional que consagró la protección de la actividad cerebral y de la información que proviene del cerebro.
Barack Obama colaboró estrechamente con la administración de Joe Biden para elaborar la orden ejecutiva que el Presidente firmó el lunes pasado y que establece un plan para abordar la seguridad de la IA, junto con la privacidad y los derechos civiles. En la Casa Blanca aseguraron que el jefe de gobierno norteamericano aumentó su preocupación respecto de esta tecnología tras haber visto montajes generados por IA de sí mismo y observar la última película Misión Imposible, protagonizada por Tom Cruise.
En tanto, el pasado 23 y 24 de octubre Chile fue anfitrión del primer foro sobre la ética de la inteligencia artificial en América Latina y el Caribe, la convocatoria más importante sobre el tema en la región. Desde el gobierno explican que el país cuenta con una Política Nacional de Inteligencia Artificial, lineamientos estratégicos para la próxima década. Este plan incluye 70 acciones prioritarias y 180 iniciativas que se desarrollarán hasta 2030, en materias éticas, jurídicas, impacto socioeconómico, desarrollo de talento e infraestructura, ciberseguridad, ciberdefensa, propiedad intelectual e industrial y relaciones de consumo.
Los expertos coinciden en que, por el momento, lo importante es intentar contrastar la información recibida, apelar a los medios de comunicación formales e intentar generar un pensamiento crítico ante la información que hoy desborda las redes sociales. Un desafío nada menor. (La Tercera)