IMPACTANTE: clonan la voz del director de una empresa y estafan 35 millones de dólares a un Banco

18/10/2021

Noticias Ciberseguridad

 

Utilizando "deep fake" o la técnica que mediante inteligencia artificial es capaz de falsear la voz y/o la imagen de cualquier persona, un grupo de ciberdelincuentes ha conseguido estafar 35 millones de dólares suplantando al CEO de una empresa mediante su voz.

 

 

Los "deep fakes" funcionan a través de modelos de redes neuronales generativas, el "deep learning". Básicamente, los algoritmos aprenden a crear imágenes o audios de personas reales o ficticias tras procesar una base de datos con ejemplos reales. Al ser entrenados con imágenes/audios de una persona concreta, pueden generar vídeos/audios muy realistas de dicha persona.

De un modo similar se recrea la voz con el potencial que esto genera tanto para un uso positivo como para un uso malintencionado, pues se generan vídeos/audios falsos totalmente creíbles de personas que hacen o dicen algo inapropiado o no deseado por su parte.

En la noticia que nos ocupa, un grupo de ciberdelincuentes clonó la voz del director de una empresa y logró estafar más de 35 millones de dólares a un banco de Emiratos Árabes Unidos.

El engaño ocurrió como sigue: el gerente de un Banco del país árabe recibió la llamada de un hombre cuya voz era idéntica a la de un empresario con el que ya había tenido trato y éste le comentó que su compañía estaba a punto de realizar una gran compra, por lo que necesitaba que autorizara una serie de transferencias por valor de 35 millones de dólares.

El individuo le dijo que había contratado a un abogado llamado Martin Zelner para coordinar las transacciones, tras lo cual el Banco recibió varios correos electrónicos del supuesto empresario y del letrado, en los que se confirmaba la cantidad de dinero que era necesario mover y a dónde.

El gerente, creyendo que todo estaba en orden, dio luz verde a las operaciones sin saber que había sido engañado mediante una tecnología de inteligencia artificial conocida como 'deep voice'.

Las falsificaciones mediante "deep fake" son muy peligrosas y representan una gran amenaza para las personas, los datos, el dinero y las empresas.

De hecho, no es la primera vez que se utilizan herramientas de falseado de voz para llevar a cabo fraudes de este tipo. En 2019, un grupo de ciberdelincuentes se hizo pasar por el Director General de una empresa de energía con sede en Reino Unido para intentar hacerse ilícitamente con 240.000 dólares.

 

Además, recuerde que ante una pérdida de datos de cualquier tipo de dispositivo informático (disco duro, RAID, NAS, disco SSD, tarjeta de memoria, pendrive, SSD M.2, smartphone, etc.) y provocada por cualquier motivo, siempre pueden ponerse en contacto con nosotros con total tranquilidad y sin compromiso:

  • Telefónicamente en el 944 467 254 de lunes a viernes en horario de 9 a 17h.
  • Rellenando cualquiera de los formularios de contacto de esta web.
  • Les aconsejaremos sobre cómo proceder y les informaremos de la mejor opción para su caso.

 

#ciberseguridad #recuperardatos #recuperacióndedatos #RecuperaData

 

Ver otras Noticias de Ciberseguridad

CONTACTAR con RecuperaData

Si necesita contactar con nosotros para contratar nuestros servicios recuperación de datos u otros servicios de ciberseguridad, puede hacerlo a través del FORMULARIO que ofrecemos a continuación o mediante los datos de contacto indicados más abajo.

Su consulta se ha enviado correctamente.

¡ERROR! Vuelva a rennviar el formulario rellenado todos los campos.

He leído y acepto la Política de Privacidad

*Revise siempre las carpetas de SPAM o CORREO NO DESEADO para evitar perder nuestras comunicaciones.

 

Llame Ahora

944 467 254

Formulario

Rellene el Formulario de la izquierda

Top