EE.UU.: denuncian intento de extorsión a familia con voz de hija clonada...

EE.UU.: denuncian intento de extorsión a familia con voz de hija clonada con IA

Compartir

Conocido es el «cuento del tío» en donde estafadores intentan hacerse pasar por algún conocido o familiar para pedir dinero inventando todo tipo de excusas: un choque, una deuda o hasta un secuestro.

Pero actualmente este tipo de prácticas están bastante más perfeccionadas y, lamentablemente, se han multiplicado ahora a través del uso de la tecnología. Así es como se han hecho conocidos los casos en que los delincuentes están utilizando la Inteligencia Artificial para clonar las voces de las personas.

En un caso emblemático se ha vuelto el de la familia DeStefano de Arizona, Estados Unidos, según relató el New York Post. Jennifer DeStefano reportó haber recibido la llamada de «su hija» supuestamente secuestrada para inmediatamente pasar el teléfono al secuestrador quien le pidió un millón de dólares para no dañarla.

Jennifer declaró que ni por un segundo dudó que fuera la voz de su hija.

Este episodio se suma a una creciente red de ataques donde un engaño que suplanta la identidad (voz, número de teléfono y foto) en llamadas de tus familiares, han tomado a decenas de padres de familia por sorpresa, y logrado cuantiosos rescates.

En el intento de secuestro de Brie, la hija de DeStefano, además de la extorsión se le sumaron sollozos, gritos y llanto de la supuesta joven, y amenazas por parte del secuestrador de drogarla y dañarla si no se pagaba el rescate, mientras que en el fondo se escuchaba todavía la voz de Brie llorando y pidiendo auxilio.

El intento de extorsión en esta ocasión fue fallido, ya que Stephanie a través de otra línea telefónica logró contactar a su hija quien estaba en un viaje de esquí perfectamente sana.

La amenaza no tuvo frutos, pero en todo momento la víctima, Jennifer, estuvo convencida de que tenían a su hija ya que, declaró, la voz, su inflexión, las palabras que usaba para suplicar ayuda desde el fondo y hasta su forma de llorar eran idénticas.

La identidad del atacante cibernético se desconoce hasta este momento, sin embargo, los expertos en informática de Arizona declaran que la tecnología de clonación de voz ha evolucionado hasta el punto de que el tono y la forma de hablar de alguien se pueden recrear a partir de fragmentos de sonido muy breves.

«Al principio, requeriría una mayor cantidad de muestras», explicó Subbarao Kambhampati, profesor de informática y autoridad en IA de la Universidad Estatal de Arizona.

«Ahora hay formas en las que puedes hacer esto con solo tres segundos de tu voz. Tres segundos. Y con los tres segundos, puede acercarse a cómo suenas exactamente», agregó.

Con un tamaño de muestra lo suficientemente grande, la IA puede imitar la «inflexión» de uno, así como su «emoción», según el profesor.

DeStefano encontró la simulación de voz particularmente inquietante dado que «Brie no tiene ninguna cuenta pública de redes sociales que tenga su voz«, según una publicación en el sitio web.

«Tiene algunas entrevistas públicas para deportes/escuela que tienen una gran muestra de su voz», describió la madre, quien también comentó que «sin embargo, esto es algo que debe preocupar más a los niños que tienen cuentas (de redes sociales) públicas».

De hecho, los expertos del FBI advirtieron que los estafadores suelen encontrar sus objetivos en las redes sociales. «Si tienes tu información pública, te estás permitiendo ser estafado por personas como esta», dijo Dan Mayo, el asistente del agente especial a cargo de la oficina del FBI en Phoenix.

«Van a buscar perfiles públicos que tengan la mayor cantidad de información posible sobre ti, y cuando se enteren de eso, te investigarán», puntualizó.

Para evitar ser engañado, aconsejó hacerle al estafador muchas preguntas sobre el «secuestrado» que el estafador no sabría.

Mayo también sugirió estar atento a las señales de alerta, como si están llamando desde un código de área desconocido o usando un número internacional. (Emol-GDA El Comercio)