Por: Samudhra Sendhil, analista empresarial de ManageEngine.
A medida que la inteligencia artificial (IA) empieza a imitar con precisión las habilidades humanas, podemos ir despidiéndonos de los días en que nos basábamos en señales sencillas, como la mala gramática o las ridículas peticiones de la realeza ficticia, para detectar las estafas.
Las herramientas de IA han transformado la simple estafa en lo que podríamos llamar una red de ingeniería social más astuta y compleja, que explota las vulnerabilidades humanas mediante la manipulación psicológica. Esta evolución tecnológica ha dado lugar a una nueva especie de estafadores equipados con tácticas avanzadas para engañar a personas desprevenidas, aprovechando la confianza que depositamos en las plataformas digitales y los canales de comunicación.
Hackear a los humanos: tácticas y técnicas empleadas en los ataques de ingeniería social basados en IA
En la era de la tecnología de IA avanzada, los estafadores no se quedan atrás y explotan estas potentes herramientas para sus propósitos ilícitos. Exploremos algunos métodos y técnicas comunes utilizados por los estafadores en sus ataques de ingeniería social.
- Extracción de datos: el «scraping» es la extracción automatizada de información de sitios web. La usan los estafadores para recopilar datos como texto, imágenes o enlaces. También emplean algoritmos de IA para analizar los datos extraídos y detectar patrones y datos personales, con los que elaboran mensajes hechos a la medida, haciendo más difícil descubrir la estafa.
- Análisis sentimental: el análisis sentimental es una técnica de IA que detecta matices emocionales en los textos. Con estas herramientas, los estafadores pueden identificar palabras claves, frases e incluso estilos de escritura, con los que pueden crear mensajes que parecen genuinos y empáticos, haciendo que los usuarios desprevenidos caigan en sus trampas cuidadosamente colocadas.
- Elaboración de perfiles de redes sociales: las redes sociales se han convertido en un diario digital, lleno de todo tipo de detalles personales. Con ayuda de algoritmos inteligentes de IA y con el objetivo de ganar la confianza de sus víctimas, los estafadores pueden investigar a fondo los perfiles de redes sociales de las personas, para descubrir detalles sobre sus vidas, pasiones y conexiones.
Las personas siguen siendo el eslabón más débil a la hora de mantener la seguridad de los datos, bien sean personales o corporativos ¿Entonces, cómo podríamos protegernos de un ataque de ingeniería social?
Para empezar, debemos ser conscientes de que la manipulación psicológica es el corazón o el fundamento sobre el que se desarrolla la ingeniería social. Por ejemplo, si un estafador aplica el sesgo de autoridad o el efecto de escasez, veremos que el ser humano naturalmente confía y obedece a figuras de autoridad. Ahora, si sumamos una táctica psicológica con sensación de urgencia, se pueden promover acciones impulsivas en las personas logrando que acceda y entregue la información que los estafadores están buscando.
La IA y la tecnología generativa llevan la manipulación a otro nivel. Los estafadores crean “deep fakes”, con personajes digitales que lucen y suenan igual a la persona real. Estos clones generados por IA pueden llegar a comprometer a una persona normal con conversaciones que se perciben increíblemente reales, pero que no lo son.
A medida que profundizamos en el mundo de los ataques de ingeniería social, impulsados por IA, es claro que los alcances van más allá de las víctimas individuales y las organizaciones que caen presas a esas estafas. Los impactos operacionales, financieros y reputacionales retumban a través de la sociedad, dejando una marca duradera en nuestro panorama digital.
El rol de la IA generativa no puede ser subestimado en esta batalla contra las estafas que se fortalecen con la misma tecnología. Ya que esta tiene también el potencial de ser en sí misma una estrategia de defensa poderosa que, combinada con el invaluable discernimiento del juicio humano, promete detener las intenciones maliciosas con las que se usa la IA.
Empoderar a los usuarios a realizar mejores prácticas de ciberseguridad y acoger una cultura de entrenamiento continuo, cultiva una comunidad resiliente y vigilante. Iniciativas como poner marcas de agua en contenidos generados por IA y potencializar mecanismos de defensa guiados por IA, reflejan nuestro compromiso colectivo en combatir estas amenazas.