Cinco métodos de los ciberdelincuentes para extorsionar y estafar con inteligencia artificial

fraudes y estafas inteligencia artificial
Redacción

Los cibercriminales están utilizando la inteligencia artificial (IA) para realizar estafas y quedarse con el dinero y los datos personales de sus víctimas. De hecho, son varias las técnicas con las que los ‘malos’ pueden generar un ataque gracias a esta tecnología. La empresa especializada en ciberseguridad ESET ha mostrado, en este sentido, sus métodos más frecuentes.

En primer lugar, destacan los deepfake y sus casos protagonizados por las personalidades más influyentes. Aunque esta técnica, en realidad, va mucho más allá. Como tal, los deepfake surgen de la IA generativa, que, en su mal uso, es capaz de estafar por audio y voz. Es más, al ciberatacante tan solo le basta unos pocos segundos de la voz de una persona de un video subido a Instagram o TikTok.

En este sentido, los ciberdelincuentes también han hallado la forma de saltarse los controles de identidad por medio del deepfake y, por consiguiente, perfeccionan la suplantación de la identidad. Esto lo realizan con un documento de identificación, falso o robado, y superponen esa imagen por encima del rostro de la persona real. Y como resultado, engañan al sistema.

Estafas gracias al uso de inteligencia artificial: el caso de ChatGPT

En cuanto a la suplantación, hay que mencionar que la IA generativa ha comenzado a utilizarse para elaborar engaños para que la víctima revele informaciones sensibles, ya sea para sacar un rédito económico o para otros menesteres. De este modo, aparece una técnica, el doxing, que consiste en publicar la información sensible para intimidar o extorsionar.

Además, los ciberdelincuentes utilizan GPT-4 para inferir información sensible de una persona. Es más, servicios como GoMail Pro, integrando el ChatGPT, permite a los ciberatacantes mejorar el contenido de los mensajes que luego envían a sus víctimas.

Por último, el cibercrimen está optando por contratar servicios de jailbreak, en vez de construir sus propios modelos de IA. Todo ello facilita a los ciberatacantes poder escribir un código para un ejecutar un ransomware u otro tipo de malware, eludiendo las limitaciones de las herramientas originales.

Así pues, es recomendable pensar dos veces qué tipo de información y los contenidos que se comparten en línea. Aun así, en palabras de Camilo Gutiérrez, jefe del Laboratorio de Investigación de ESET Latinoamérica, «la inteligencia artificial no es ni buena ni mala. Todo depende de las intenciones con las que se utilice».