Menú

Cómo los hackers usan ChatGPT para desarrollar 'malware' peligroso

Cibercriminales usan ChatGPT para crear malware y contenido engañoso en redes sociales, aunque sin generar grandes vulnerabilidades reales.

Cibercriminales usan ChatGPT para crear malware y contenido engañoso en redes sociales, aunque sin generar grandes vulnerabilidades reales.
Introducción a ChatGPT | Cordon Press

Los cibercriminales están aprovechando el modelo de lenguaje GPT de OpenAI para desarrollar software malicioso con apoyo de la inteligencia artificial, a pesar de las barreras implementadas por la empresa tecnológica. Además, utilizan la IA para crear y difundir contenido manipulado en redes sociales. Así lo indica el reciente informe de OpenAI sobre operaciones cibernéticas e influencia en línea.

OpenAI ha interrumpido más de 20 redes maliciosas dedicadas a actividades fraudulentas que han tratado de explotar sus modelos. Estas operaciones incluyen desde la creación de malware hasta la redacción de publicaciones engañosas en redes sociales, como detalla la compañía en la actualización de su informe "Influencia y operaciones cibernéticas".

OpenAI toma medidas

El informe de OpenAI busca identificar cómo actores maliciosos utilizan IA para actividades delictivas y planificar medidas preventivas. Hasta octubre de 2024, la compañía ha comprobado que estos delincuentes emplean IA en fases intermedias, como después de adquirir herramientas básicas —cuentas de redes sociales o correos electrónicos—, pero antes de lanzar publicaciones engañosas o software malicioso.

Si bien los cibercriminales usan los modelos de ChatGPT, la empresa asegura que no se han observado avances significativos en la creación de nuevo malware ni en la explotación de vulnerabilidades reales. Sin embargo, sí se ha identificado actividad engañosa en redes sociales con gran alcance, aunque este éxito se debió más al engaño sobre el uso de IA que a la IA en sí.

Un ejemplo relevante es el del grupo chino SweetSpect, que utilizó los modelos de OpenAI para respaldar ciberataques y realizar ataques de phishing. Otro caso es el del grupo iraní STORM-0817, que empleó IA para depurar código y desarrollar malware rudimentario para Android.

En cuanto a la seguridad electoral, OpenAI destaca que en un año con elecciones en 50 países, no se han detectado operaciones de influencia significativas ni audiencias virales creadas a través del uso de sus modelos.

Temas

En Tecnociencia

    0
    comentarios

    Servicios

    • Radarbot
    • Libro
    • Curso
    • Escultura