Prensa Online - PanamaOn

Utilizan IA para imitar la voz del CEO de una compañía y robar 220 mil euros

Según explicó especialista de ESET, es de esperarse que en el futuro cercano veamos un incremento de ciberdelitos en los que se utilice el machine learning.

12 septiembre 2019 |

El pasado 30 de agosto Wall Street Journal publicó la historia de un caso que ocurrió en marzo de este año en el que criminales utilizaron un software basado en inteligencia artificial (IA) para imitar la voz del CEO de una empresa de energía alemana y así llevar adelante un engaño que permitió a los estafadores robar 220.000 euros.

Según explicó el medio, los estafadores utilizaron esta tecnología para suplantar la identidad del director ejecutivo de una multinacional alemana y engañar al CEO de una de sus sedes en Reino Unido, quien creyó que estaba hablando telefónicamente con su jefe y aseguró haber reconocido el ligero acento alemán en su voz. Así, el supuesto CEO de la firma alemana solicitó al CEO de la sede británica realizar un pago urgente a un proveedor de Hungría.

Los estafadores volvieron a comunicarse con la víctima haciéndose pasar nuevamente por el CEO alemán para asegurarle que la transferencia sería reembolsada y, por si fuera poco, lo contactaron en una tercera oportunidad –antes del supuesto reembolso- para solicitar una tercera transferencia en calidad de urgente. En ese momento, el director ejecutivo de la sede británica comenzó a sospechar y se rehusó a realizar la transferencia.

Según explicó el especialista en ciberseguridad de ESET, Jake Moore, es de esperarse que en el futuro cercano veamos un gran incremento de ciberdelitos en los que se utiliza el aprendizaje automático (del inglés, machine learning). De hecho, “ya hemos visto DeepFakes imitando a celebridades y otras figuras públicas en video”, explicó Moore a un medio británico. Si bien la creación de piezas convincentes a través de video demanda más tiempo y recursos, “para producir voces falsas solo se necesitan unas pocas grabaciones, y en la medida en que el poder de procesamiento de los equipos aumenta comenzaremos a ver que estas piezas serán cada vez más fáciles de crear”, agregó el especialista de ESET.

En el capítulo “Las máquinas aprenden, los humanos no tanto”, del informe Tendencias en el campo de la ciberseguridad para el 2019 elaborado por ESET, la investigadora en seguridad, Lysa Myers, analizó el escenario del aprendizaje automático e hizo especial hincapié en la importancia de tener presente que es más que factible que los cibercriminales adopten el uso del machine learning para llevar a cabo sus objetivos -que en la mayoría de los casos es robar dinero u otros bienes de valor-, sobre todo los grupos de cibercriminales financiados por algún Estado.

Facebook junto compañías como Microsoft y distintas universidades de los Estados Unidos ya se han percatado de esta tendencia creciente y han manifestado su preocupación con el anuncio del lanzamiento del desafío “Deepfake Detection Challenge (DFDC)”; una iniciativa que busca contrarrestar el fenómeno creciente de las deepfakes y que premiará a quien sea capaz de desarrollar una tecnología que pueda ser utilizada por cualquiera y que tenga la capacidad de detectar el uso de inteligencia artificial para generar videos adulterados.

La divulgación de casos como el de la estafa que dio a conocer Wall Street Journal son de utilidad para generar conciencia y para estar mejor preparado para enfrentar lo que puede significar una tendencia y una de las posibles formas de evolución de las técnicas de ingeniería social. En este sentido, para prevenir ser víctima de una estafa en la cual se imite la voz de una persona de confianza, Moore asegura que hay algunas medidas que se pueden tener en cuenta para minimizar los riesgos de caer en el engaño. En primer lugar, saber que es posible que alguien logre suplantar la identidad de una persona legítima al imitar su voz. Una vez que sabemos que esto es posible podemos, por ejemplo, incluir algunas medidas de verificación antes de realizar una transferencia de dinero. Por ejemplo, corroborar que el número entrante es el de la persona que dice ser y comunicarle a la persona que llama que usted le devolverá el llamado; por supuesto, marcando de manera manual el número de teléfono que tiene en su agenda.

+ Contenido interesante

Da tu opinión

Normas de Uso:

1. Mantener lenguaje respetuoso: evitar palabras abusivas, amenazadoras u obscenas.

2. PanamaOn se reserva el derecho a suprimir o editar comentarios.

3. Las opiniones publicadas son responsabilidad de los usuarios y no de PanamaOn

4. Al enviar, el autor del mismo acepta las normas de uso.

Incorrecto intentelo de nuevo

Las opiniones no serán publicadas inmediatamente, quedarán pendientes de validación.

Opinión de nuestros lectores