📢 La aparición de chatbots como BadGPT o FraudGPT, diseñados para asistir a hackers en actividades fraudulentas, plantea una seria preocupación en el ámbito de la ciberseguridad. Estos chatbots utilizan modelos de IA de acceso abierto disponibles en la web como base para sus operaciones, lo que dificulta su detección.
La IA mejora las campañas de phishing creando sitios web falsos, diseñando mensajes personalizados y suplantando identidades. Además, estas herramientas pueden utilizarse para recopilar información personal de diversas fuentes en línea y crear perfiles detallados de individuos. Estos perfiles pueden usarse para fraudes de identidad, como abrir cuentas bancarias o solicitar tarjetas de crédito en nombre de otras personas.
🔑 Se han identificado más de 200 chatbots maliciosos en la dark web, muchos de los cuales utilizan modelos de IA de código abierto modificados mediante "jailbreaks" para superar los controles de seguridad. El "jailbreak" es un proceso mediante el cual se eliminan ciertas restricciones de estos modelos de IA para permitir su uso en actividades no autorizadas. El acceso libre a modelos de IA en la web presenta un desafío adicional, ya que estos no cuentan con mecanismos de censura.
Las empresas líderes en IA están en alerta ante estos usos maliciosos y trabajan en soluciones para mitigarlos. Aunque estas herramientas las aprovechan cibercriminales, también pueden contribuir a combatir las amenazas de seguridad. Una buena forma de hacerlo es entender cómo funcionan las herramientas que los hackers utilizan. Además, es crucial que sigamos desarrollando métodos avanzados y tecnologías innovadoras para proteger a las y los usuarios y garantizar la seguridad de los sistemas digitales. La educación y la concienciación 🤓 sobre ciberseguridad también juegan un papel fundamental, ayudando a individuos y organizaciones a reconocer y responder a posibles amenazas con mayor eficacia.
📌 𝗦𝗜 𝗧𝗘𝗡𝗘𝗦 𝗔𝗟𝗚𝗨𝗡𝗔 𝗗𝗨𝗗𝗔 𝗢 𝗖𝗢𝗡𝗦𝗨𝗟𝗧𝗔:
Escribinos a 📩 ciberseguridad@ba-csirt.gob.ar o por privado 💬 en nuestras redes