OpenAI confirme l'utilisation de ChatGPT pour des cyberattaques : Comment l'IA est détournée pour le développement de logiciels malveillants

 OpenAI a récemment publié un rapport détaillant des abus de son chatbot d'intelligence artificielle, ChatGPT, par des acteurs malveillants pour mener des cyberattaques. En effet, des pirates utilisent cette IA non seulement pour développer des logiciels malveillants, mais aussi pour échapper aux systèmes de détection et mener des campagnes de phishing sophistiquées. Cette révélation marque la première confirmation officielle que les outils d'IA générative, comme ChatGPT, sont activement utilisés dans des opérations offensives de cybersécurité.

utilisation de ChatGPT pour des cyberattaques

ChatGPT : Un outil puissant, détourné à des fins malveillantes

Depuis son lancement, ChatGPT a démontré sa capacité à automatiser et faciliter de nombreuses tâches, allant de la rédaction de contenu à l'écriture de code. Cependant, ce pouvoir n'a pas échappé aux cybercriminels, qui ont découvert des moyens de l'exploiter pour leurs propres fins. Selon OpenAI, plus de 20 opérations malveillantes ont été détectées et perturbées en 2024. Ces opérations incluent l'utilisation de l'IA pour le débogage, la création de scripts malveillants et l'amélioration de techniques d'attaque, telles que le phishing ciblé et la propagation de désinformation.

SweetSpecter : Quand l'IA devient un allié des cyberespions

L'une des menaces les plus notables documentées par OpenAI est SweetSpecter, un groupe chinois de cyberespionnage ciblant principalement les gouvernements asiatiques. Ce groupe a directement attaqué OpenAI en envoyant des e-mails de phishing déguisés en requêtes de support, contenant des pièces jointes ZIP malveillantes. Une fois ouvertes, ces pièces jointes lançaient une chaîne d'infection qui installait le malware SugarGh0st RAT sur l'appareil de la victime.

Ce qui rend cette attaque particulièrement préoccupante, c'est que les pirates de SweetSpecter ont utilisé ChatGPT pour plusieurs tâches spécifiques. Ils ont sollicité l'IA pour effectuer des recherches sur des vulnérabilités dans des applications spécifiques et pour automatiser certaines parties de l'infection. Cela inclut notamment l'exploration de failles comme Log4Shell, une vulnérabilité critique dans Log4j.

Exemples d'utilisation de ChatGPT par SweetSpecter :

  1. Recherche sur les vulnérabilités des versions spécifiques d'applications.
  2. Création et débogage de scripts malveillants utilisés dans les chaînes d'infection.
  3. Automatisation de tâches complexes, comme l'analyse des failles de sécurité.
  4. Perfectionnement des e-mails de phishing pour éviter les systèmes de filtrage.

CyberAv3ngers : L'Iran exploite l'IA pour cibler des infrastructures critiques

Le deuxième cas mis en avant par OpenAI concerne le groupe iranien CyberAv3ngers, affilié aux Gardiens de la Révolution. Ce groupe est spécialisé dans le piratage des systèmes industriels et des infrastructures critiques, en particulier dans les pays occidentaux. Leur utilisation de ChatGPT a été tout aussi sophistiquée. Ils ont utilisé l'IA pour générer des scripts bash et Python, masquer du code, et planifier des attaques post-compromission.

Les pirates iraniens ont également tiré parti de ChatGPT pour rechercher des informations sur des systèmes industriels spécifiques, comme les routeurs industriels utilisés dans les infrastructures jordaniennes. De plus, ils ont demandé à l'IA de fournir des identifiants par défaut pour des appareils de contrôle industriel, facilitant ainsi leur accès à ces systèmes.

Exemples d'utilisation de ChatGPT par CyberAv3ngers :

  1. Recherche d'identifiants par défaut pour des systèmes de contrôle industriel.
  2. Création de scripts personnalisés pour automatiser l'accès et l'exploitation des vulnérabilités.
  3. Développement de logiciels malveillants pour les systèmes macOS et industriels.
  4. Planification d'activités post-compromission pour maximiser les dégâts.

Storm-0817 : Développement de logiciels malveillants pour Android

Le troisième groupe, Storm-0817, également lié à l'Iran, a utilisé ChatGPT pour développer un malware ciblant les appareils Android. Ils ont sollicité l'IA pour les aider à déboguer le code, à créer une infrastructure de commande et de contrôle (C2), et même à traduire des profils professionnels de LinkedIn pour affiner leurs attaques.

Ce malware Android était capable de voler des données personnelles, telles que les listes de contacts et les historiques d'appels, de prendre des captures d'écran, et d'analyser l'historique de navigation de l'utilisateur. De plus, Storm-0817 a utilisé ChatGPT pour scraper des profils Instagram, rendant leurs attaques de plus en plus sophistiquées.

Exemples d'utilisation de ChatGPT par Storm-0817 :

  1. Développement de malwares Android sophistiqués.
  2. Débogage et optimisation du code pour améliorer l'efficacité des attaques.
  3. Traduction de profils LinkedIn pour personnaliser des campagnes de phishing.
  4. Développement d'une infrastructure C2 pour contrôler les appareils infectés.

L'IA, un danger potentiel pour la cybersécurité ?

Ce rapport d'OpenAI met en évidence un fait troublant : l'IA générative peut être utilisée à des fins malveillantes, rendant les cyberattaques plus rapides, plus sophistiquées et accessibles à des attaquants moins qualifiés. Même si ChatGPT ne donne pas de capacités entièrement nouvelles aux pirates, il accélère et facilite chaque étape d'une attaque, de la recherche initiale à la mise en œuvre du malware.

Cependant, OpenAI a pris des mesures proactives pour limiter ces abus. Tous les comptes liés à ces activités malveillantes ont été bloqués, et les informations sur les indicateurs de compromission (adresses IP, domaines, etc.) ont été partagées avec les partenaires de cybersécurité.

Conclusion : L'IA entre de bonnes et de mauvaises mains

Le développement rapide des technologies d'IA offre de nombreux avantages, mais aussi des risques considérables. Ce rapport souligne l'importance de surveiller l'utilisation des outils d'IA, comme ChatGPT, afin d'empêcher leur détournement par des cybercriminels. Alors que l'IA continue d'évoluer, il est crucial de mettre en place des mécanismes de protection et de garantir une utilisation éthique et responsable de ces technologies.

Article suivant Article précédent
Aucun commentaire
Ajouter un commentaire
URL du commentaire