El uso de inteligencia artificial revoluciona día a día el cibercrimen. Estafas como el phishing y los deepfakes fueron potenciadas, lo que afecta a miles de personas en todo el mundo.
La inteligencia artificial (IA) transformó muchos aspectos de la vida de la población en general. Sin embargo, también fue adoptada por los ciberdelincuentes para realizar estafas más rápidas y efectivas. En América Latina, el fraude digital está en aumento.
Según la empresa de ciberseguridad Kaspersky, los intentos de estafa mediante mensajes falsos crecieron 140% solo en 2024, un fenómeno que preocupa a los expertos en seguridad. Además, el investigador Vincenzo Ciancaglini de la empresa Trend Micro, destacó que los delincuentes hoy utilizan IA para aumentar su productividad en actividades fraudulentas.
Aunque las políticas de OpenAI prohíben el uso de sus productos para actividades ilegales, resulta complicado controlarlo en la práctica, ya que muchos mensajes que parecen inocentes pueden ser utilizados con fines maliciosos.
La empresa asegura que emplea una combinación de revisores humanos y sistemas automatizados para detectar y sancionar el uso indebido de sus modelos. Las medidas incluyen advertencias, suspensiones temporales e incluso prohibiciones para aquellos usuarios que violen las políticas de la empresa.
5 tipos de estafas con IA que amenazan la seguridad digital:
- Phishing mejorado con IA
El phishing es una de las tácticas más antiguas del cibercrimen, pero la IA ha permitido perfeccionar estos ataques. Herramientas que integran IA, como GoMail Pro, permiten que los estafadores generen correos electrónicos más convincentes y personalizados en diferentes idiomas. Esto ha llevado a un aumento en la cantidad y efectividad de estos mensajes maliciosos, diseñados para engañar a las víctimas y robar información sensible.
- Estafas de audio deepfake
Los deepfakes son otra herramienta poderosa para los ciberdelincuentes. A través de la manipulación de audios y videos, pueden crear falsificaciones que parecen tan reales que engañan incluso a los profesionales.

Un ejemplo reciente es el caso de un empleado en Hong Kong que perdió 25 millones de dólares después de ser víctima de una estafa con un audio deepfake del director financiero de su empresa.
- Eludir controles de identidad
Las plataformas financieras y los bancos suelen exigir verificaciones de identidad con fotos en tiempo real. Sin embargo, los estafadores han comenzado a usar deepfakes para superar estos controles. En plataformas como Telegram, es posible adquirir herramientas que permiten falsificar documentos y usar videos deepfake para burlar los sistemas de verificación de identidad.

Tanto los bancos como las plataformas de intercambio de criptomonedas emplean estos sistemas para confirmar que sus clientes son personas reales, exigiendo a los nuevos usuarios que se tomen una foto con su documento de identidad frente a una cámara. Sin embargo, los delincuentes han comenzado a vender en plataformas como Telegram aplicaciones que permiten burlar este proceso.
Estas herramientas funcionan proporcionando documentos de identidad falsos o robados y superponiendo una imagen deepfake sobre el rostro de una persona real, engañando así al sistema de verificación de la cámara del dispositivo.
- Jailbreak-as-a-service
Las empresas de IA han creado barreras para evitar que sus sistemas se utilicen con fines peligrosos, como enseñar a crear malware. No obstante, los ciberdelincuentes han encontrado maneras de sortear estas restricciones mediante servicios de jailbreak, que permiten manipular los sistemas de IA para obtener información prohibida, como código malicioso o técnicas de fraude.

Crear modelos de IA sin estas protecciones resulta costoso, complejo y laborioso, por lo que los ciberdelincuentes han adoptado una nueva estrategia: el jailbreak como servicio.
Sin embargo, el jailbreaking permite a los usuarios manipular el sistema para obtener resultados que infringen estas políticas, como la generación de código para ransomware o la creación de textos destinados a fraudes por correo electrónico.
- Doxxing automatizado
Los modelos de lenguaje de IA no solo facilitan el phishing, sino también el doxxing, que consiste en revelar información personal de una persona en línea. A través del análisis de textos, los delincuentes pueden obtener datos privados de las víctimas, como su ubicación o edad, lo que les permite exponer a las personas a riesgos mayores.
Cuanta más información disponible haya sobre una persona en Internet, mayor es su vulnerabilidad para ser identificada.
Con información de Infobae