Fraudes con IA: así operan las nuevas estafas laborales en redes

Fraudes con IA: así operan las nuevas estafas laborales en redes

Foto: Freepik

Una nueva modalidad de estafa digital está tomando fuerza en Latinoamérica, donde los usuarios de redes sociales como Facebook e Instagram se convierten en blanco de engaños laborales diseñados con inteligencia artificial (IA). En este tipo de fraude se simulan ofertas de trabajo en empresas reconocidas como Mercado Libre, Shein o TikTok, y para continuar el proceso se redirecciona al interesado a una conversación por WhatsApp controlada por un chatbot avanzado.

 

Según la firma de ciberseguridad ESET, los estafadores perfeccionan sus métodos gracias a modelos como GPT-4 y plataformas no-code, las cuales son capaces de generar respuestas personalizadas y mantener diálogos naturales, sin necesidad de intervención humana. Esta estrategia puede engañar a cualquier inexperto y pensar que realmente están en contacto con reclutadores reales.

 

El proceso comienza con un anuncio tentador en redes sociales que incluye salarios competitivos y poca o nula experiencia requerida. Al postularse, la víctima es redirigida a una cuenta de WhatsApp distinta en cada ocasión, lo que dificulta el rastreo. Luego, el chatbot solicita transferencias para cubrir “costos administrativos” y exige datos personales sensibles, lo que puede derivar en el robo de identidad.

 

Estas redes criminales redes operan desde varios países, como MéxicoColombiaChilePerúVenezuela y Argentina, y tienen una estructura sofisticada de números rotativos. A medida que el uso de tecnologías de IA crece, también lo hace la complejidad de los fraudes digitales, afectando a miles de usuarios desprevenidos.

 

Para prevenir estos ataques, los expertos recomiendan:

 

  • Verificar directamente en los sitios oficiales de las empresas antes de postular.
  • Desconfiar de ofertas genéricas o que solicitan pagos por adelantado.
  • Evitar compartir datos personales a través de redes sociales o mensajería sin confirmar autenticidad.
Notas Relacionadas