Según el Foro Económico Mundial el número de Deepfakes ha crecido considerablemente en el último tiempo. De hecho, su crecimiento es bastante preocupante con un ritmo anual del orden del 900%.
Y si creías que el mundo de la Inteligencia Artificial (IA) era todo es color de rosas, pues déjame decirte que no. Ya que el uso de las redes neuronales (que es un método de IA) y del aprendizaje profundo o Deep Learning (de ahí el término Deepfake) permite prácticamente a cualquiera usar imágenes, videos y audio para crear contenidos multimedia realistas, en los que se altera digitalmente la voz, el rostro o cuerpo de una persona para que se parezca a otra.
Con lo anterior, la ciberdelincuencia tiene una sofisticada herramienta con la que puede utilizar Deepfakes para realizar un montón de delitos. Por ejemplo, se pueden realizar estafas a organizaciones o personas, extorsionar, acosar, vengarse, espionaje industrial, entre otros usos. Incluso, hace un mes atrás abordamos este tema, informando de su crecimiento en Latinoamérica, pero ya es algo a escala mundial.
Los Deepfakes subiendo como la espuma
En este sentido, el gigante de la ciberseguridad Kaspersky, ha descubierto que los cibercriminales ofrecen sus servicios maliciosos en la Darknet. El fin es crear estos videos falsos para venderlos y, ahora, recopilan los tres principales tipos de fraudes basados en Deepfakes. Cada uno de los tipos te los señalamos a continuación:
Fraudes de tipo financiero
Los ciberdelincuentes pueden utilizar Deepfakes para hacerse pasar por celebridades, políticos y empresarios para que las víctimas caigan fácilmente en el engaño. Un ejemplo de ello es un video creado artificialmente el año pasado con Elon Musk como protagonista. En éste, el fundador de Tesla prometía grandes ganancias si se seguían una serie de consejos para invertir en criptomonedas. El contenido se volvió viral y muchos usuarios perdieron su dinero.
Para crear Deepfakes como este, los estafadores utilizan imágenes de personas de interés o combinan videos antiguos y publican videos o transmisiones en vivo en redes sociales, prometiendo algún beneficio, como duplicar cualquier pago en criptomoneda. De hecho, últimamente es muy común ver la usurpación de varias redes sociales o canales de YouTube de famosos que tienen muchos seguidores, a los cuales les suben estos videos falsos de Elon Musk.
Deepfakes pornográficos
Con la foto de una persona, individuos malintencionados pueden crear una pieza en la que su víctima aparezca en una situación comprometedora. De hecho, el FBI acaba de emitir una advertencia sobre la manipulación de fotos y videos publicados en la red para la creación de contenido explícito y esquemas de extorsión. En varias ocasiones se han detectado videos de este tipo utilizando rostros conocidos, pero las víctimas también pueden ser personas anónimas, sufriendo graves consecuencias. Quienes son involucrados en este ataque ven dañada su reputación y vulnerados sus derechos. Uno de los últimos ejemplos ha sido el de la cantante Rosalía, quien fue víctima de una foto falsificada donde aparecía, supuestamente, haciendo topless.
Estafas a organizaciones o empresas
Los Deepfakes también pueden utilizarse para atacar a empresas mediante extorsión, chantaje o espionaje industrial. En una ocasión, los ciberdelincuentes engañaron al gerente de un banco de Emiratos Árabes Unidos con este método, robando $35 millones de dólares. A partir de una pequeña grabación de voz, crearon una locución con la que lograron estafar al responsable de la entidad. En otro caso, los criminales trataron de burlar a la mayor plataforma de criptomonedas del mundo, Binance. Generaron un Deepfake de uno de sus directivos y lo utilizaron en una reunión en línea para hablar en su nombre.
Además, los responsables de recursos humanos de varias empresas ya están en alerta ante el uso de Deepfakes por parte de candidatos que solicitan trabajo a distancia, según otra advertencia del FBI. En el caso de Binance, los atacantes utilizaron imágenes de personas que encontraron en Internet para crear videos falsos y añadirlos a los currículums. Si consiguen engañar a los responsables de recursos humanos y más tarde reciben una oferta, pueden robar datos de la empresa.
Recomendaciones para protegerse
Si bien los métodos para la creación de este tipo amenazas son cada vez más realistas, todavía es posible reconocerlas. En este sentido, para protegerse de este tipo de engaños, Pisapapeles y Kaspersky recomiendan lo siguiente:
- Revisar las prácticas de seguridad en la empresa, tanto en temas de software como prevención del personal. Existen algunas herramientas como Kaspersky Threat Intelligence, iProov Genuine Presence Assurance, Daon TrustX, IDLive Face o el Fake Catcher de Intel, para reconocer si un usuario es la persona correcta o resulta ser un impostor.
- Capacitar constantemente al personal y mantenerlo informando sobre lo que es un Deepfake y los riesgos que implica. La idea es estar al tanto de las últimas amenazas en materia de ciberseguridad.
- Establecer un plan de emergencia: Siempre es importante saber qué hacer a la hora de reconocer y enfrentarse a un Deepfake. Así conseguiremos reaccionar a tiempo y con contundencia para frenarlo, para luego denunciar a las autoridades respectivas.
- Usar fuentes de información fiables. La desinformación es clave para la proliferación de los Deepfakes y otras amenazas de la red.
- Ser escéptico frente a videos o grabaciones de voz, es importante para ayudar a reducir las probabilidades de caer en una estafa. De hecho, algunas imitaciones de voz pueden sonar desentonadas, planas o carentes de emoción, sonando poco reales.
- Tener en cuenta las características que puedan indicar que un video es falso: Movimientos bruscos, cambios en la iluminación y en el tono de la piel, fondos borrosos, parpadeo extraño o falta de este, labios mal sincronizados respecto a la voz, revisar el interior de la boca si está estático o baja en la calidad de la reproducción.
- Verificar la identidad con la persona real. Aunque suene trivial, si tenemos sospechas de estar presenciando un Deepfake y nos quieren estafar. Sólo basta con llamar a la persona real para verificar y confirmar su identidad.
¿Conocías este tipo de amenaza de ciberseguridad?