¡Cuidado! Hay dos versiones falsas de ChatGPT que crean códigos maliciosos

¡Cuidado! Hay dos versiones falsas de ChatGPT que crean códigos maliciosos

Foto: Freepik

La inteligencia artificial (IA) está siendo utilizada por ciberdelincuentes para crear correos electrónicos falsos con mayor sofisticación, saltándose así las primeras señales que indicaban una posible estafa. Plataformas como BadGPT y FraudGPT están aprovechando modelos como ChatGPT y Gemini para generar mensajes y códigos maliciosos, permitiendo así lo que se conoce como Spear-phishing.

 

Estos correos generados por IA suelen estar personalizados para parecer legítimos, lo que los hace más efectivos en la suplantación de identidad y el engaño, según los expertos en seguridad informática. Esto representa un riesgo para las empresas, ya que los correos falsos son cada vez más difíciles de detectar y pueden evadir las soluciones tradicionales de seguridad informática.

 

A medida que los ataques dirigidos aumentan, las empresas de seguridad cibernética continúan concentrando sus esfuerzos en combatir esta problemática. Empresas como Abnormal Security, por ejemplo, utiliza IA para identificar correos electrónicos maliciosos generados por IA, revelando que hay un incremento significativo en los ataques personalizados.

 

Sin embargo, detener estos ataques es un desafío para la seguridad, ya que los chatbots maliciosos están disponibles en internet, facilitando el acceso a los delincuentes. Además, estos chatbots pueden ser entrenados para generar contenido de alta calidad y código malicioso, dificultando aún más su detección.

 

Ante esta amenaza, es importante que las empresas capaciten a su personal para reconocer signos de correos electrónicos sospechosos y fomentar la cultura de seguridad cibernética. Los usuarios domésticos también deben implementar prácticas de mayor desconfianza y estar atentos a mensajes inusuales, especialmente aquellos que solicitan descargar archivos o hacer clic en enlaces.

Notas Relacionadas