Secciones

Written by 2:30 pm Tecnología

Informe analiza las 3 amenazas deepfake más peligrosas

La técnica permite crear videos y audios realistas simulando ser otra persona. Fraude financiero, espionaje industrial y chantaje a famosos, los usos más comunes en la actualidad.

El deepfake se ha convertido en una de las técnicas favoritas de los ciberdelincuentes. La utilizan cada vez con más frecuencia para cometer fraude financiero, espionaje industrial y para extorsionar a través de redes sociales a otros usuarios, ya sean anónimos o famosos.

El deepfake consiste en suplantar la identidad de otra persona, ya sea al modificar su rostro o voz. Para ello se utiliza la Inteligencia Artificial (IA), de forma que el resultado parezca original y real. De ese modo, con el uso de redes neuronales digitales y el denominado aprendizaje profundo, los ciberdelincuentes pueden difundir información falsa o maliciosa, así como estafar a usuarios, empresas e instituciones.

Según varias organizaciones, entre ellas el Foro Económico Mundial (WEF, por sus siglas en inglés), la cantidad de deepfakes en línea ha aumentado en los últimos años, hasta alcanzar una tasa anual de un 900 por ciento.

Para conocer cuáles son las tendencias de los ciberdelincuentes en este ámbito, los investigadores de Kaspersky han realizado una clasificación que recoge las tres amenazas deepfake más peligrosas de 2023.

El ‘deepfake’ de Messi y Agüero que se volvió viral. Fuente: Youtube

Fraude financiero

La primera de ellas es el fraude financiero. En este caso, los ciberdelincuentes utilizan el deepfake para hacerse pasar por personajes famosos, a fin de que los usuarios caigan en el engaño y crean lo que ven y escuchen.

Para ello, los estafadores utilizan imágenes de celebridades o mezclan antiguos videos y hacen que parezcan actuales. Asimismo, lanzan transmisiones en directo en redes sociales con la promesa de duplicar cualquier pago en criptomonedas que se les envíe.

Violar la intimidad de las víctimas

Los famosos también son el objetivo de los ciberdelincuentes cuando se trata de emplear deepfakes pornográficos, puesto que con una sola foto de una persona se puede crear un video íntimo como si fuera esa persona la que lo estuviese haciendo. En este caso, la técnica se emplea para extorsionar y chantajear a las víctimas, así como dañar su reputación.

Uno de los casos más recientes de este tipo de deepfake es el que tuvo por protagonista a Rosalía, que fue víctima de la manipulación de una de sus imágenes, en las que aparecía con el pecho a la vista, cuando en la fotografía original llevaba puesto un top.

Desde la compañía de ciberseguridad también han comentado que este formato puede suponer un riesgo para las empresas, ya que no solo se puede utilizar para coaccionarlas, sino también para promover el espionaje industrial.

Deepfake: el rostro de Bill Hader cambia mientras imita a Tom Cruise y Seth. Fuente: YouTube

Tanto es así que se dio el caso de que los ciberdelincuentes engañaron al gerente de un banco de Emiratos Árabes Unidos, a quien robaron 35 millones de dólares. Para ello, utilizaron una grabación de voz con una locución falsa que le convenció para hacerlo. Otro caso fue el deepfake de uno de un directivo de la plataforma de criptomonedas Binance, a quien suplantaron en una reunión online en la que se habló en nombre del ejecutivo.

Cómo evitar ser víctima de estas estafas

Para evitar este tipo de fraudes, la compañía recomienda a los usuarios revisar las prácticas de seguridad en la empresa para estar al tanto de las últimas amenazas, así como crear un muro humano informando a los empleados sobre esta técnica.

También es conveniente utilizar fuentes de información fiables, en las que inicialmente no habría cabida para este tipo de ataques con IA. Por último, se deben tener en cuentas características que puedan indicar que un video es falso, como son los movimientos bruscos o los cambios de iluminación.

Fuente: La Nación

(Visited 56 times, 1 visits today)
Close

Add to Collection

No Collections

Here you'll find all collections you've created before.