
Si pensabas que solo los verdaderos ARMY (fans de BTS) hacen locuras por ver a sus ídolos, espera a conocer esta historia: en Rusia, una jubilada fue atrapada en una estafa tan ingeniosa como dolorosa para su bolsillo, luego de que delincuentes usaran tecnologías modernas como inteligencia artificial (IA) para hacerse pasar por un falso integrante de BTS y convencerla de enviarles más de 8 000 dólares. La farsa no solo demuestra la creatividad de los estafadores, sino también cómo el uso de IA y perfiles falsos puede explotar las redes sociales y las emociones humanas para sacar provecho económico de personas vulnerables.
Todo comenzó cuando una mujer rusa de 63 años, residente en la región de Primorie, recibió mensajes en redes sociales de cuentas que simulaban pertenecer a un integrante de la popular banda surcoreana BTS. Los estafadores, tras revisar los intereses y actividad pública de la víctima, le hicieron creer que tenía una relación especial con el artista, incluyendo la promesa de ayudarla en iniciativas solidarias.
Para reforzar la ilusión, realizaron videollamadas en las que uno de ellos actuaba como el cantante, acompañado de un supuesto traductor, lo que amplificó la credibilidad del engaño. Esto es un ejemplo clásico de cómo los fraudes modernos, combinados con tecnologías accesibles de suplantación de identidad e IA, pueden confundir incluso a personas cautelosas.
Una vez ganada la confianza de la mujer, los estafadores le contaron una historia elaborada: existía un envío de dinero destinado a la creación de un fondo benéfico asociado al artista. La jubilada debía pagar primero un supuesto “impuesto aduanal” de 325,000 rublos (aproximadamente 4,250 dólares) para liberar el cargamento.
Pero esto no fue todo. Después, individuos que afirmaban ser “agentes aduaneros” contactaron a la mujer y le exigieron un pago adicional de 317,000 rublos (más de 4,100 dólares) para cubrir los costos de viaje del artista y la organización de su agenda en Rusia, incluyendo un prometido encuentro personal.
Una de las partes más inquietantes de este fraude fue el uso de inteligencia artificial y análisis de datos personales. Los delincuentes revisaron previamente los perfiles en redes sociales de la víctima para adaptar sus mensajes y construir una historia más convincente, explotando sus afinidades e intereses para manipular emocionalmente a la mujer.
Este tipo de técnica demuestra cómo la IA y la computación moderna, cuando cae en manos equivocadas, puede potenciar los métodos tradicionales de fraude convirtiéndolos en estrategias más personalizadas y efectivas, lo que representa un nuevo desafío para la seguridad digital y la protección de la población vulnerable.
Más allá del impacto financiero —más de 8 000 dólares perdidos por una sola persona—, este caso ilustra los riesgos que enfrentan las personas mayores en el entorno digital. La combinación de suplantación, videollamadas falsas e historias emocionalmente cargadas puede quebrar las defensas naturales de cualquier persona, incluso aquellas que normalmente desconfiarían de ofertas poco claras.
La jubilada no solo perdió una cantidad considerable de dinero, sino que también vivió la angustia de haber creído en una interacción que, aparentemente, era cercana y legítima. Las autoridades han señalado que casos similares pueden ser parte de redes más amplias de fraude digital que se aprovechan de herramientas tecnológicas modernas.
Las autoridades rusas, incluyendo la Fiscalía regional de Primorie, han confirmado que están investigando el caso y trabajando para localizar a los responsables. El uso de herramientas de IA en fraudes complejos como este ha generado alertas sobre la necesidad de reforzar la seguridad digital, la educación para evitar estafas y las políticas de protección de datos personales, especialmente para grupos de riesgo como los adultos mayores.
Organizaciones de protección al consumidor y plataformas de redes sociales han intensificado sus esfuerzos para denunciar y cerrar cuentas falsas que suplantan figuras públicas, pero el desafío persiste ante la facilidad de creación de perfiles falsos y el uso de tecnologías avanzadas.

