Existen tres tipos de Deepfakes más utilizados para atacar a empresas mediante extorsión, chantaje y espionaje industrial.
Según el Foro Económico Mundial el número de Deepfakes ha crecido considerablemente en el último tiempo. De hecho, su crecimiento es bastante preocupante con un ritmo anual del orden del 900%.
Y si creías que el mundo de la Inteligencia Artificial (IA) era todo es color de rosas, pues déjame decirte que no. Ya que el uso de las redes neuronales (que es un método de IA) y del aprendizaje profundo o Deep Learning (de ahí el término Deepfake) permite prácticamente a cualquiera usar imágenes, videos y audio para crear contenidos multimedia realistas, en los que se altera digitalmente la voz, el rostro o cuerpo de una persona para que se parezca a otra.
Con lo anterior, la ciberdelincuencia tiene una sofisticada herramienta con la que puede utilizar Deepfakes para realizar un montón de delitos. Por ejemplo, se pueden realizar estafas a organizaciones o personas, extorsionar, acosar, vengarse, espionaje industrial, entre otros usos. Incluso, hace un mes atrás abordamos este tema, informando de su crecimiento en Latinoamérica, pero ya es algo a escala mundial.
En este sentido, el gigante de la ciberseguridad Kaspersky, ha descubierto que los cibercriminales ofrecen sus servicios maliciosos en la Darknet. El fin es crear estos videos falsos para venderlos y, ahora, recopilan los tres principales tipos de fraudes basados en Deepfakes. Cada uno de los tipos te los señalamos a continuación:
Los ciberdelincuentes pueden utilizar Deepfakes para hacerse pasar por celebridades, políticos y empresarios para que las víctimas caigan fácilmente en el engaño. Un ejemplo de ello es un video creado artificialmente el año pasado con Elon Musk como protagonista. En éste, el fundador de Tesla prometía grandes ganancias si se seguían una serie de consejos para invertir en criptomonedas. El contenido se volvió viral y muchos usuarios perdieron su dinero.
Para crear Deepfakes como este, los estafadores utilizan imágenes de personas de interés o combinan videos antiguos y publican videos o transmisiones en vivo en redes sociales, prometiendo algún beneficio, como duplicar cualquier pago en criptomoneda. De hecho, últimamente es muy común ver la usurpación de varias redes sociales o canales de YouTube de famosos que tienen muchos seguidores, a los cuales les suben estos videos falsos de Elon Musk.
Con la foto de una persona, individuos malintencionados pueden crear una pieza en la que su víctima aparezca en una situación comprometedora. De hecho, el FBI acaba de emitir una advertencia sobre la manipulación de fotos y videos publicados en la red para la creación de contenido explícito y esquemas de extorsión. En varias ocasiones se han detectado videos de este tipo utilizando rostros conocidos, pero las víctimas también pueden ser personas anónimas, sufriendo graves consecuencias. Quienes son involucrados en este ataque ven dañada su reputación y vulnerados sus derechos. Uno de los últimos ejemplos ha sido el de la cantante Rosalía, quien fue víctima de una foto falsificada donde aparecía, supuestamente, haciendo topless.
Los Deepfakes también pueden utilizarse para atacar a empresas mediante extorsión, chantaje o espionaje industrial. En una ocasión, los ciberdelincuentes engañaron al gerente de un banco de Emiratos Árabes Unidos con este método, robando $35 millones de dólares. A partir de una pequeña grabación de voz, crearon una locución con la que lograron estafar al responsable de la entidad. En otro caso, los criminales trataron de burlar a la mayor plataforma de criptomonedas del mundo, Binance. Generaron un Deepfake de uno de sus directivos y lo utilizaron en una reunión en línea para hablar en su nombre.
Además, los responsables de recursos humanos de varias empresas ya están en alerta ante el uso de Deepfakes por parte de candidatos que solicitan trabajo a distancia, según otra advertencia del FBI. En el caso de Binance, los atacantes utilizaron imágenes de personas que encontraron en Internet para crear videos falsos y añadirlos a los currículums. Si consiguen engañar a los responsables de recursos humanos y más tarde reciben una oferta, pueden robar datos de la empresa.
Si bien los métodos para la creación de este tipo amenazas son cada vez más realistas, todavía es posible reconocerlas. En este sentido, para protegerse de este tipo de engaños, Pisapapeles y Kaspersky recomiendan lo siguiente:
¿Conocías este tipo de amenaza de ciberseguridad?