Buscador
FRANQUICIAS IDEAS DE NEGOCIO GUÍA DEL EMPRENDEDOR
Ver revista digital
28-03-2023, 5:40:14 PM

Los estafadores ahora imitan la voz de un familiar con IA

Ahora la IA es capaz es capaz de clonar el tono, el timbre, la cadencia y hasta los sonidos individuales que emite una persona, y así suplantar su identidad.

Los estafadores ahora imitan la voz de un familiar con IA
Los estafadores ahora imitan la voz de un familiar con IA © Depositphotos

La tecnología no deja de avanzar y ahora no solo se queda en generar imágenes hiperrealistas, como las del papa Francisco vistiendo a la moda, o Donald Trump siendo arrestado. Actualmente, hay casos que han llamado la atención de las autoridades, porque los estafadores ahora imitan la voz de un familiar con inteligencia artificial (IA) y cometen fraudes.

La suplantación de identidad es llevada a otro nivel

Lo que parece una escena de una película de ciencia ficción, ahora es una realidad. Una de las grandes pesadillas de la humanidad es que alguien suplante tu identidad, lo cual ya estaba pasando con contenido multimedia que se conoce como deepfake.

Sin embargo, la técnica se ha perfeccionado desde 2019, cuando The Wall Street Journal informó sobre un caso. Se trató de un grupo de ciberdelincuentes que utilizaron un software de IA para hacerse pasar por la voz de un CEO. ¿El resultado? Lograron transferir unos 220.000 euros de una empresa británica.

Cuatro años han pasado desde aquel incidente y los casos han ido en aumento. De hecho, ha llegado al punto de que la Comisión Federal de Comercio (FTC), la encargada de recibir quejas de fraude en Estados Unidos, emitió una alerta sobre este método de engaño.

Cómo operan las nuevas estafa que imitan la voz de un familiar con IA

Las herramientas de inteligencia artificial son cada vez más sofisticadas, puede bastar con un audio publicado en Facebook, Instagram, YouTube o TikTok, para que los estafadores roben tu voz. Con unos 30 segundos es suficiente. Tal como Úrsula en La Sirenita, los delincuentes utilizan ese fragmento que imitan la voz de un familiar con IA. ¿Qué hacen con ella? Pueden llamar a tus familiares fingiendo ser tú y pedir dinero para una emergencia.

“Un estafador podría usar inteligencia artificial para clonar la voz de su ser querido. Todo lo que necesita es un breve audio de la voz de su familiar que podría obtener de contenido publicado en internet y un programa computacional de clonación de voz. Cuando el estafador lo llame, sonará como su ser querido”, comenta la FTC.

De acuerdo con una historia de The Washington Post (TWP), una señora de 73 años, Ruth Card, recibió una llamada de un estafador que se hacía pasar por su nieto Brandon. Ella comenta que sonaba igual que él. Entonces, cuando le dijo que estaba en la cárcel, sin cartera ni celular, y necesitaba de su ayuda para pagar la fianza, Ruth hizo lo posible para ayudarlo.

“Definitivamente fue este sentimiento de… miedo”, comentó la señora. “Tenemos que ayudarlo ahora mismo”.

Así que ella y su esposo, Greg Grace, fueron al banco y retiraron 2,207 dólares, el máximo monto que podía sacar del cajero, por lo que fueron a otro por más dinero. No obstante, el gerente los llevó a su oficina y les explicó que tal vez podía ser una estafa. En ese momento se dieron cuenta que habían sido engañados.

Greg le dijo al medio que “estábamos convencidos de que estábamos hablando con Brandon”.

Más y más estafas por imitación de voz

“La tecnología está haciendo que sea más fácil y más barato para los malos actores imitar voces, convenciendo a las personas, a menudo a los ancianos, de que sus seres queridos están en peligro”, explica TWP.

Incluso, este tipo de fraudes se volvieron tan populares en Estados Unidos, que ocuparon el segundo lugar con más de 36,000 informes de personas estafadas por personas que se hacían pasar por amigos y familiares en 2022.

Según datos de la FTC, estas estafas representan más de 11 millones de dólares en pérdidas.

“La inteligencia artificial ya no es una idea descabellada de una película de ciencia ficción. Estamos viviendo con eso aquí y ahora”, enfatiza la FTC.

Qué se puede hacer contra las llamadas que utilizan IA para cometer fraude

Los expertos comentan que las autoridades no están equipadas para frenar la creciente estafa. Mientras tanto, las víctimas tienen pocas o nulas pistas para dar con el delincuente y a la policía le cuesta rastrear las llamadas.

Por otro lado, aún no hay los suficientes precedentes legales para que la autoridad y los tribunales responsabilicen a las empresas que desarrollan este tipo de tecnología por su uso. Y eso, solo en Estados Unidos, en el resto del mundo siguen en pañales en el tema.

Sin embargo, sí podemos identificar un fraude para prevenirlo. Además, hay que tomar en cuenta que las estafas funcionan básicamente de la misma manera. Es decir, un estafador se hace pasar por alguien de confianza y convence a la víctima de que le envíe dinero porque está asustada.

El problema ahora, es que con la tecnología de voz generada artificialmente hace que el fraude sea mucho más convincente.

El consejo que da la FTC es “no confiar en la voz” y llamar directamente a la persona que está pidiendo ayuda para ver si es verdad que tiene una emergencia. Pero, la señal más importarte de que puedes ser la víctima de un estafador, es si te piden dinero inmediatamente. También pueden ser criptomonedas o hasta tarjetas de regalo.

En el país del norte se puede denunciar en el portal de FTC.

ciencia ficción deepfakes Estafa estafa telefónica estafadores familia fraude IA inteligencia artificial Tecnología
autor El equipo editorial de EMPRENDEDOR.com, que por más de 27 años ha trabajado en impulsar el emprendimiento.