share
spanish.china.org.cn | 08. 03. 2024 | Editor:Lety Du [A A A]

Alerta policial por estafas con videos falsos

Palabras clave: estafa, AI
Spanish.china.org.cn | 08. 03. 2024

Utilizan tecnología de IA para robar 25,5 millones de dólares a una empresa de Hong Kong.


La policía advierte a empresas y particulares sobre la creciente amenaza de las estafas "AI deepfake" tras un caso de robo a una compañía en Hong Kong de 200 millones de dólares hongkoneses (25,5 millones de dólares) mediante una videoconferencia.

En la elaborada estafa, un empleado de la sucursal hongkonesa de una multinacional recibió un mensaje supuestamente del director financiero de la firma en el Reino Unido, en el cual lo invitaba a participar en una reunión virtual confidencial para hablar acerca de una transacción.

Durante la conexión, en la que estuvieron varias personas, interactuó con individuos que parecían ser altos ejecutivos de la empresa. Sin embargo, los participantes eran en realidad creaciones de inteligencia artificial con superposición de rostros reales en secuencias de vídeo fraudulentas.

Confiando en la legitimidad de la llamada, la víctima transfirió 200 millones de dólares hongkoneses a cuentas bancarias designadas en 15 plazos, según las instrucciones de los deepfakes. Unos días después, al contactar con la sede principal, se dio cuenta de que había sido objeto de un sofisticado fraude.

Los investigadores determinaron el uso de videos de ejecutivos disponibles en Internet. Luego, los estafadores emplearon IA para sincronizar las secuencias de vídeo con voces pregrabadas y diálogos preestablecidos. Para evitar sospechas, los falsificadores evitaron conversaciones extensas durante la videollamada, centrándose únicamente en dar instrucciones a la víctima.

En otro caso, una empleada apellidada Zhang en Xi´an, provincia de Shaanxi, envió 1,86 millones de yuanes (258 000 dólares) a una cuenta designada tras mantener una videollamada con alguien que ella creía que era su jefe, pero que en realidad era una suplantación.

"La otra parte me pidió una operación rápida, alegando que era urgente", explicó Zhang. "La voz e imagen en el vídeo eran iguales a las de mi jefe, así que me fié de lo que decía la otra parte".

Una vez realizada la transacción, Zhang llamó a su jefe para verificarla, y éste le dijo que no había solicitado tal operación.

Zhang llamó inmediatamente a la policía para pedir ayuda. Los agentes de Xi´an coordinaron con el centro provincial de lucha contra el fraude y contactaron con los bancos implicados para congelar de emergencia los fondos,  lo que en última instancia permitió salvar 1,56 millones de yuanes.

La policía de Xi´an dijo que los fraudes con  IA son muy engañosos y aconsejó a los ciudadanos aumentar el nivel de alerta en prevención. En situaciones típicas como transferencias de fondos y transacciones, es esencial verificar y confirmar repetidamente a través de otros canales de comunicación, dijeron. Si se produce un fraude, es importante denunciarlo lo más pronto posible para minimizar las pérdidas.

Los expertos han instado a la población a actuar con cautela durante las videollamadas y a aplicar medidas de protección contra las estafas por deepfake.

Fang Yu, investigador de la Federación China de Informática, sugirió pedir a la otra parte que agite las manos delante de la cara durante las mismas para identificarla, porque los vídeos falsos en tiempo real requieren generación, procesamiento e intercambio de rostros por IA en tiempo real, y el movimiento de agitar las manos causa interferencias con los datos faciales.

Asimismo, sugirió que la gente haga preguntas a la otra parte de las que solo ella conoce las respuestas durante la comunicación para verificar su autenticidad.

Los especialistas en telecomunicaciones también recomendaron reforzar la protección de la información personal y los datos biométricos, como los faciales, de voz y dactilares. El público debe evitar entrar en sitios web de origen desconocido para prevenir la intrusión de virus y establecer una gestión adecuada de las autorizaciones para las aplicaciones que puedan recoger información de voz, imagen, vídeo y localización.