Una cuenta con una deepfake de un tal “Carlos” – vale decir una cuenta anónima- fue visto 273 mil veces y tuvo casi 3.000 me gusta. Se trataba de una entrevista de Iván Valenzuela a Mario Desbordes – el domingo en el programa Mesa Central de Canal 13- donde la voz del conductor fue suplantada y que a primera vista parecía auténtica.
- Terminada la conversación con el candidato a alcalde de Santiago, el periodista dice “hemos hablando bue.. Hartas cosas con Desbordes”. Sin embargo un audio falso donde el conductor decía al final un garabato se viralizó en internet. “Hemos hablado huevás” se escucha. Pero al oírlo con detención se nota que no es lo que dice Valenzuela, sino que hubo una intervención digital.
La explicación. El propio periodista, que es conocido por su actitud moderada, profesional y respetuosa con todos su entrevistados, lo explicó así al día siguiente en T13 radio: “Entrevistamos ayer a Mario Desbordes de Mesa Central y al final, cuando lo despido, digo algo así como: ‘Mario Desbordes, candidato a alcalde de la Municipalidad de Santiago.. hemos estado hablando bue.. varias cosas’.
- Valenzuela comentó el origen de la controversia: “Porque hablamos sobre defensa, hablamos sobre la Antártica, sobre los paneles solares, en fin, con Desbordes… Y a alguien se le ocurrió que yo había dicho algo, que en castellano más o menos formal, es como si hubiésemos hablado varias sandeces. Pero evidentemente no lo dije. O sea, tendría que nacer de nuevo para decir algo así”.
- No es la primera vez ni será la última en que una noticia falsa despista a centenares de miles de incautos. Las redes sociales – y muy especialmente X- se han ido convirtiendo en una caja de amplificación de las peores mentiras que circulan en la red.
- Se trata de un problema que solo tiende a agravarse con la irrupción de la inteligencia artificial, que sólo multiplica las posibilidades de expandir como plagas historias inventadas, maliciosas y difíciles de manejar en el universo sin control de internet. Y además con una calidad que hace difícil detectar que las voces o las imágenes no corresponden a la realidad.
- Al mismo tiempo, ese tipo de falsedad es retuiteado por comunicadores o medios de comunicación que, en el mejor de los casos no chequean las informaciones y, en el peor, difunden conscientemente información falsa.
- La deepfake contra Valenzuela y Desbordes fue retuiteada por Nicolás Copano y publicaciones como El Ciudadano y Piensa Prensa.
Los riesgos. Según Héctor Vera, socio de LFI y especialista en monitoreo de plataformas digitales, “lo que le sucedió a Iván Valenzuela es lo que se conoce como un deepfake, que no es sino una manipulación digital hiperrealista, generalmente realizada con Inteligencia Artificial, que busca engañar a la audiencia y difundir desinformación”.
- “En el contexto político chileno, estas falsificaciones representan una amenaza para la reputación de figuras públicas y son un golpe bajo la línea de flotación a la confianza en la información”, agrega Héctor Vera. “En un período crucial como el proceso electoral, los deepfakes pueden polarizar el debate, influir en la opinión pública y demoler la integridad de las elecciones o de un candidato”.
- El problema afecta principalmente a figuras públicas y puede confundir a las audiencias instalando verdades sin fundamentos o derechamente erradas, a menudo contrarias a los hechos. Para la ciencia, en temas como las vacunas, este tipo de eventos pueden ser nefastos. Y para la política también.
- Héctor Vera, además, advierte que “identificar las deepfakes es esencial para proteger la legitimidad del proceso electoral en Chile. El problema, hoy, es que la sofisticación de los deepfakes generados con Inteligencia Artificial dificulta su detección, aumentando el riesgo de manipulación y erosión de la confianza pública”.
Verdades falsas. Otro punto de vista entrega Eduardo Arriagada, profesor UC y codirector del Social Listening Lab SoL-UC: “Lo interesante que tiene el caso es que se haya dado contra un periodista que tiene características de credibilidad importante. Entonces el hecho que estén enfocados en él muestra el interés que hay en relativizar las confianzas, en toda esta idea de la posverdad. En el fondo es como tratar de decir esta es mi verdad contra tu verdad, como si todo fuera válido”.
- “El falso audio al final de la entrevista a Mario Desbordes tiene una intención de engañar, de hacerle un daño a un candidato que está en campaña y es una tendencia que es más delicada porque hay un intento claro de desinformación. Desinformación es tratar de que algo pase como real, algo que yo sé que es falso”, dice Arriagada.
Técnica simple. Arriagada explica que la intervención en el audio de Valenzuela es una técnica simple. “No creo que haya sido necesario siquiera usar inteligencia artificial. Esto es más bien un arreglo que se pudo haber hecho simplemente con el video, poniéndole un garabato que quizás incluso puede haber sido grabado de la misma persona o de alguien que imita la voz. Como pasa mucho también en programas como Waze, en donde ex presidentes te dan las instrucciones del tráfico.
- El experto advierte que “por primera vez está apareciendo en la política chilena el intento de usar este tipo de herramientas que al final, si lo miramos con cierta distancia, lo que va a hacer es reforzar todavía más la necesidad del periodismo, que sea capaz de estar por encima cuidando que este tipo de desinformaciones no engañen a personas y afecten sus decisiones de voto”.
- El problema es la dificultad de regular este tipo de delitos -alguno de los cuales ni siquiera han sido codificados- sin afectar la libertad de expresión. Por lo mismo, los intentos por impedir las fake news con nuevas leyes u organismos estatales también debe verse con precaución, aconsejan los especialistas. La recomendación, aparte de verificar cualquier noticia dudosa, es no seguir a cuentas sin identificar. (Ex Ante)



