L’IA offensive

Nederlandstalige versie

La plupart des publications traitant « d’intelligence Â» artificielle (IA) et s’intĂ©ressant Ă  la sĂ©curitĂ© et aux attaques, se concentrent sur l’étude des attaques touchant les algorithmes d’apprentissage automatique (voir p. ex. [1]) et les dĂ©fenses contre de telles attaques. Par exemple, les attaques malveillantes traditionnelles sur les systĂšmes d’IA se produisent lorsqu’un adversaire manipule les donnĂ©es d’entrĂ©e pour tromper les algorithmes d’apprentissage automatique, entraĂźnant ainsi une mauvaise classification1.

NĂ©anmoins, un nombre significatif d’articles Ă©tudient aussi l’IA en tant qu’arme possible contre les systĂšmes d’information â€“ permettant notamment des attaques potentiellement plus rapides, Ă  plus grande Ă©chelle et d’une plus large portĂ©e â€“ et en tant qu’outil permettant d’amĂ©liorer des vecteurs d’attaque existants.

Dans un article prĂ©cĂ©dent, nous avons briĂšvement expliquĂ© ce qui se cache derriĂšre le terme « d’intelligence artificielle Â» en dĂ©crivant quelques techniques de base utilisĂ©es en cybersĂ©curitĂ©. Dans cet article, nous traiterons de l’utilisation de l’IA pour faciliter les attaques contre des systĂšmes informatiques. En particulier, nous dĂ©taillerons comment l’IA pourrait modifier ou modifie dĂ©jĂ  plusieurs vecteurs d’attaques.

Prévisions pessimistes

DĂšs 2018, Brundage et al. [2] ont fait remarquer que l’utilisation croissante des capacitĂ©s de l’IA impliquerait trois changements dans le paysage des menaces :

  • Une expansion des menaces existantes: l’IA pourrait permettre de rĂ©duire le coĂ»t des attaques en rĂ©duisant la main-d’Ɠuvre nĂ©cessaire mais aussi d’atteindre un plus large Ă©ventail de cibles potentielles.
  • Une introduction de nouvelles menaces: les systĂšmes d’IA pourraient effectuer des tĂąches habituellement irrĂ©alisables pour un humain.
  • Un changement du caractĂšre typique des menaces: les attaques permises par l’utilisation de l’IA pourraient devenir plus efficaces, plus finement ciblĂ©es et plus difficiles Ă  attribuer.

Ces prĂ©visions sont corroborĂ©es par un rapport rĂ©cent du centre national de cybersĂ©curitĂ© britannique (NCSC) qui prĂ©voit une augmentation du nombre et de l’efficacitĂ© des menaces de cybersĂ©curitĂ© dues Ă  l’IA [3].

Par exemple, l’accĂšs facile Ă  des modĂšles massifs de langage pourrait permettre Ă  des adversaires de contourner leurs propres limites en ressources, compĂ©tences et/ou connaissances. Par ailleurs, une utilisation incontrĂŽlĂ©e d’applications d’IA dans des projets internes Ă  une organisation ou par des employĂ©s peu avertis, pourrait crĂ©er de nouvelles surfaces d’attaques et occasionner des fuites de donnĂ©es personnelles, de propriĂ©tĂ© intellectuelle ou d’informations confidentielles.

Hameçonnage et ingénierie sociale

DĂšs 1966, avec ELIZA, l’un des premiers agents conversationnels, on dĂ©couvrait que l’humain pouvait se faire tromper par la machine [4]. Le traitement du langage naturel est un cas d’utilisation de l’IA oĂč le texte brut est la source de donnĂ©es Ă  partir de laquelle les modĂšles sont extraits2. Le traitement du langage a Ă©tĂ© utilisĂ© avec succĂšs pour de nombreuses applications. La dĂ©tection de courriels non dĂ©sirĂ©s en est un exemple tout comme l’inverse, le contournement des filtres de protection antispam (p. ex. [5]).

L’hameçonnage est particuliĂšrement adaptĂ© Ă  cette derniĂšre approche, car des modĂšles de texte peuvent ĂȘtre utilisĂ©s pour identifier les sujets qui intĂ©ressent la cible et gĂ©nĂ©rer des phrases auxquelles la cible pourrait rĂ©pondre. Par exemple, dans [6], les auteurs utilisent un modĂšle de Markov et un rĂ©seau de neurones rĂ©currents afin de dĂ©montrer la possibilitĂ© d’automatiser la gĂ©nĂ©ration de messages utilisĂ©s dans un processus d’hameçonnage sur Twitter : l’outil apprend Ă  prĂ©dire le mot suivant Ă  partir du contexte prĂ©cĂ©dent dans l’historique des publications de la cible. Chaque message est donc adaptĂ© Ă  une cible particuliĂšre augmentant ainsi la prĂ©cision de l’attaque.

Étant donnĂ©e la capacitĂ© des modĂšles massifs de langages Ă  mieux « comprendre Â» le contexte, Ă  mieux imiter le texte humain (parfois mĂȘme avec moins d’erreurs [7]3), on constate que de tels outils sont dĂ©jĂ  utilisĂ©s pour faciliter l’écriture, avec le ton adĂ©quat, de courriels plausibles provenant de collĂšgues, amis, familles ou site populaires de commerce en ligne, Ă©ventuellement en fonction d’informations glanĂ©es sur les rĂ©seaux sociaux [8] (voir « Annexe â€“ GĂ©nĂ©ration de courriels d’hameçonnage Â»). Pire, il est aujourd’hui possible, sans connaissances importantes en sĂ©curitĂ©, d’utiliser ChatGPT pour gĂ©nĂ©rer non seulement des courriels d’hameçonnage mais aussi le site web correspondant [9]. Cela est d’autant plus inquiĂ©tant lorsque l’on sait que 94 % des logiciels malveillants dĂ©tectĂ©s sont toujours envoyĂ©s par courriel [10].

Un autre exemple de l’utilisation de l’IA pour faciliter les attaques d’hameçonnage est DeepFish [11]. Il s’agit d’un logiciel qui produit de nouvelles adresses web synthĂ©tiques d’hameçonnage en apprenant des modĂšles Ă  partir des adresses web les plus efficaces dans les attaques historiques4. Ces adresses peuvent ensuite ĂȘtre utilisĂ©es dans des courriels d’hameçonnage ou d’autres canaux comme par exemple des publicitĂ©s trompeuses. Peu aprĂšs le lancement de Bing Chat, Microsoft a, sans grande surprise, ajoutĂ© la possibilitĂ© d’introduire des publicitĂ©s dans les conversations. Malheureusement, les publicitĂ©s comportent un risque inhĂ©rent et pourraient amener des utilisateurs Ă  la recherche de tĂ©lĂ©chargements de logiciels, Ă  visiter des sites malveillants et Ă  installer des logiciels malveillants directement Ă  partir d’une conversation sur Bing Chat [12].

« Hacking Â» automatique

L’IA permet d’exĂ©cuter des attaques Ă  la vitesse de la machine. Par exemple, Deephack [13] est un agent logiciel de quelques centaines de lignes de Python qui apprend Ă  s’introduire dans des applications Web Ă  l’aide d’un rĂ©seau neuronal, d’essais et d’erreurs. Il apprend Ă  exploiter plusieurs types de vulnĂ©rabilitĂ©s, ouvrant potentiellement la porte Ă  une multitude de nouveaux systĂšmes de piratage.

DeepLocker5 va plus loin en dissimulant ses intentions malveillantes et en s’activant pour des cibles spĂ©cifiques. Afin de dĂ©cider si la machine oĂč il est exĂ©cutĂ©, est une cible ou pas, DeepLocker utilise un rĂ©seau de neurones artificiels complexe6 Ă  la place d’une simple liste de rĂšgles. Cela empĂȘche les outils analysant statiquement et dynamiquement le logiciel de dĂ©tecter la prĂ©sence de code malveillant7. DeepLocker utilise Ă©galement un autre rĂ©seau de neurones afin de gĂ©nĂ©rer une clĂ© permettant de chiffrer ou dĂ©chiffrer la partie malveillante de son code afin de rendre celui-ci plus difficile Ă  dĂ©tecter.

Certaines procĂ©dures de « hacking » pourraient ĂȘtre simplifiĂ©es et accĂ©lĂ©rĂ©es grĂące Ă  l’utilisation de modĂšles gĂ©nĂ©ratifs. Des personnes malveillantes pourraient par exemple avoir recours Ă  des outils comme PentestGPT8. Cet outil permet en effet, d’aider Ă  gĂ©rer diffĂ©rentes tĂąches d’un processus de test de pĂ©nĂ©tration, comme l’utilisation d’outils spĂ©cifiques (notamment utilisant des commandes avec des options complexes souvent difficiles pour un humain) et la suggestion d’étapes Ă  suivre [14]. Selon ses auteurs il permet mĂȘme de donner une « intuition » sur ce qu’il convient de faire dans un scĂ©nario d’intrusion donnĂ©. Il manque cependant de recommandations efficaces pour pouvoir accomplir les tĂąches de maniĂšre indĂ©pendante et il n’est pas capable de maintenir une comprĂ©hension cohĂ©rente du scĂ©nario de test. Mais Fang et al. ont montrĂ© que des agents alimentĂ©s par des modĂšles massifs de langage tel que ChatGPT peuvent errer par eux-mĂȘmes sur le Web et s’introduire dans des applications Web boguĂ©es sans ĂȘtre surveillĂ©s [15].

Enfin, des outils d’IA gĂ©nĂ©rative entrainĂ©s sur des bases de donnĂ©es de vulnĂ©rabilitĂ©s suffisamment larges, pourraient Ă©galement ĂȘtre utilisĂ©s pour automatiser l’analyse de code afin d’identifier des vulnĂ©rabilitĂ©s exploitables, mais les coĂ»ts de crĂ©ation de tels modĂšles sont Ă©levĂ©s.

Génération de charge utile et de code malveillant

Dans le contexte d’une cyberattaque, la charge utile est la composante de l’attaque qui cause le prĂ©judice (p. ex. effacement de fichiers). Elle peut ĂȘtre contenue dans un virus ou un ver informatique, une piĂšce jointe ou encore une requĂȘte transfĂ©rĂ©e Ă  une base de donnĂ©es SQL. Selon Gupta et al. [16], un outil d’IA gĂ©nĂ©rative pourrait ĂȘtre utilisĂ© pour gĂ©nĂ©rer des charges utiles, et dans certains cas, de telle façon qu’elles ne puissent pas ĂȘtre dĂ©tectĂ©es par un pare-feu d’applications Web (« Web Application Firewall (WAF) Â»).

Un outil d’IA gĂ©nĂ©rative pourrait aussi ĂȘtre utilisĂ© pour faciliter l’écriture de logiciels malveillants ou de rançongiciels : Guptal et al. [16] ont conduit diffĂ©rents tests avec ChatGPT en le convainquant notamment de fournir des exemples de code de diffĂ©rents logiciels malveillants tels que NotPetya9, REvil10, Ryuk11 ou WannaCry12. Les rĂ©sultats ne sont pas directement utilisables, mais fournissent une structure de haut niveau du code, plutĂŽt Ă©vidente pour toute personne ayant dĂ©jĂ  programmĂ©, mais qui peut laisser imaginer des amĂ©liorations importantes dans les annĂ©es Ă  venir. Des tests similaires ont aussi Ă©tĂ© rĂ©alisĂ©s, avec des rĂ©sultats similaires, pour des virus exploitant des vulnĂ©rabilitĂ©s telles que Meltdown13, RowHammer14 et Spectre15.

Hutchins [17] Ă©met cependant de sĂ©rieux doutes sur la possibilitĂ© de gĂ©nĂ©rer des logiciels malveillants grĂące Ă  l’IA et en particulier grĂące Ă  des outils comme ChatGPT qui sont loin d’ĂȘtre capable de crĂ©er des logiciels entiĂšrement fonctionnels mais pourraient, au mieux, fournir de petites briques difficilement assemblables. Il fait Ă©galement valoir que ce code gĂ©nĂ©rĂ© par l’IA existe dĂ©jĂ  sur Internet.

Attaques des systĂšmes physiques

Enfin, si l’on prend comme hypothĂšse que les systĂšmes physiques (p. ex. un systĂšme de contrĂŽle du refroidissement) sont moins sĂ©curisĂ©s que l’infrastructure informatique cible et sont relativement plus faciles Ă  exploiter, alors on peut envisager d’utiliser un logiciel malveillant afin d’attaquer indirectement une infrastructure informatique par le biais du systĂšme physique, en dĂ©guisant les actions malveillantes en dĂ©faillances accidentelles (p. ex. une surchauffe simulĂ©e conduisant Ă  un arrĂȘt d’urgence bien rĂ©el). C’est ce que montrent Chung et al. [18]. Leur outil apprend automatiquement des stratĂ©gies d’attaque Ă  partir des mesures collectĂ©es par le systĂšme physique.

Analyse des cyberattaques utilisant l’IA

Afin de permettre aux ingĂ©nieurs en sĂ©curitĂ© d’étudier efficacement la classification des menaces dues Ă  l’IA et leur impact et de mieux comprendre la stratĂ©gie des attaquants, Nektaria et al. [19] proposent un cadre d’analyse des cyberattaques tirant parti de l’IA. Il est basĂ© sur le cadre existant et trĂšs rĂ©pandu « Cyber Kill Chain Â» mis au point par Lockheed Martin et est formĂ© de trois niveaux :

  • Étapes de l’attaques et objectifs: ce premier niveau permet de dĂ©crire quand un attaquant peut atteindre ses objectifs malveillants en fonction du cycle de vie de la cyberattaque. Il permet de reprĂ©senter l’intention de l’attaquant et le type de technique d’IA utilisĂ©e comme outil pour mener les actions malveillantes, en fonction de chaque phase du cycle de vie de la cyberattaque.
  • Impact et classification de l’IA malveillante: ce deuxiĂšme niveau est une classification basĂ©e sur l’impact de l’utilisation malveillante des techniques d’IA, qui montre son impact potentiel en fonction du stade d’attaque appliquĂ©.
  • Classification des mĂ©thodes de dĂ©fense : la dĂ©fense contre les cyberattaques basĂ©es sur l’IA ne peut pas se faire avec une solution simple ou un seul outil. Il est nĂ©cessaire d’adopter une approche dĂ©fensive approfondie tout au long du cycle de vie des cyberattaques afin de lutter contre Â« l’intelligence Â» des nouvelles mĂ©thodes.

Conclusion

À travers les exemples donnĂ©s prĂ©cĂ©demment, l’IA apparait principalement comme un nouvel outil de « productivitĂ© Â» pour des attaquants professionnels (ou pas) dĂ©jĂ  bien motivĂ©s. La pire menace que l’IA pourrait faire peser sur la sĂ©curitĂ© serait la dĂ©couverte Ă  grande Ă©chelle de classes d’attaques entiĂšrement nouvelles. Cependant, rien ne prouve qu’une telle dĂ©couverte soit plus probable que celle faite par des acteurs humains.

NĂ©anmoins, de nombreux problĂšmes restent en suspens quant Ă  la maniĂšre de prĂ©venir et d’attĂ©nuer ces menaces avancĂ©es, mais une bonne analyse des menaces avec un cadre appropriĂ© est un bon point de dĂ©part. De plus, nous pensons qu’une maniĂšre efficace de lutter contre les adversaires tirant partie de l’IA sera Ă©galement d’utiliser l’IA afin d’ĂȘtre compĂ©titif en termes de portĂ©e, de vitesse et d’Ă©chelle. Comme nous le verrons dans un dernier article sur le sujet, l’IA pourrait en effet contribuer Ă  l’automatisation de tĂąche de cyberdĂ©fense, telles que l’évaluation de vulnĂ©rabilitĂ©s, la dĂ©tection d’intrusions, la rĂ©ponse Ă  des incidents et le traitement de renseignements sur les menaces.

Références

[1]        N. Papernot, P. McDaniel, S. Jha, M. Fredrikson, Z. B. Celik, et A. Swami, « The limitations of deep learning in adversarial settings Â». arXiv, 23 novembre 2015. ConsultĂ© le: 27 octobre 2023. [En ligne]. Disponible sur: http://arxiv.org/abs/1511.07528

[2]        M. Brundage et al., « The malicious use of artificial intelligence: forecasting, prevention and mitigation Â», fĂ©vr. 2018.

[3]        « The near-term impact of AI on the cyber threat Â», National Cyber Security Centre, janv. 2024. ConsultĂ© le: 27 janvier 2024. [En ligne]. Disponible sur: https://www.ncsc.gov.uk/pdfs/report/impact-of-ai-on-cyber-threat.pdf

[4]        J. Weizenbaum, « ELIZA—a computer program for the study of natural language communication between man and machine Â», Commun. ACM, vol. 9, no 1, p. 36‑45, janv. 1966, doi: https://doi.org/10.1145/365153.365168.

[5]        S. Palka et D. McCoy, « Fuzzing e-mail filters with generative grammars and n-gram analysis Â», in WOOT’15: Proceedings of the 9th USENIX Conference on Offensive Technologies, aoĂ»t 2015.

[6]        J. Seymour et P. Tully, « Weaponizing data science for social engineering: Automated E2E spear phishing on Twitter Â», prĂ©sentĂ© Ă  Black Hat USA, 2016, p. 1‑8.

[7]        M. HeikkilĂ€, « How to spot AI-generated text Â», MIT Technology Review. ConsultĂ© le: 11 octobre 2023. [En ligne]. Disponible sur: https://www.technologyreview.com/2022/12/19/1065596/how-to-spot-ai-generated-text/

[8]        J. Chapman, « Phishing threat trends report – From pretexting to payloads, how have phishing attacks evolved in 2023? Â», egress, oct. 2023. ConsultĂ© le: 7 novembre 2023. [En ligne]. Disponible sur: https://www.egress.com/media/mq4kwitu/egress_phishing_threat_trends_report.pdf

[9]        S. S. Roy, K. V. Naragam, et S. Nilizadeh, « Generating phishing attacks using ChatGPT Â». arXiv, 8 mai 2023. ConsultĂ© le: 17 octobre 2023. [En ligne]. Disponible sur: http://arxiv.org/abs/2305.05133

[10]      « Preparing for AI-enabled cyberattacks Â», MIT Technology Review, janv. 2021.

[11]      A. Correa Bahnsen, « DeepPhish: Simulating malicious AI Â», 6 dĂ©cembre 2018.

[12]      J. Segura, « Malicious ad served inside Bing’s AI chatbot Â», Malwarebytes. ConsultĂ© le: 7 novembre 2023. [En ligne]. Disponible sur: https://www.malwarebytes.com/blog/threat-intelligence/2023/09/malicious-ad-served-inside-bing-ai-chatbot

[13]      D. Petro et B. Morris, « Weaponizing machine learning: Humanity was overrated anyway Â», prĂ©sentĂ© Ă  DEF CON 25, 10 aoĂ»t 2017. [En ligne]. Disponible sur: https://www.youtube.com/watch?v=wbRx18VZlYA

[14]      G. Deng et al., « PentestGPT: An LLM-empowered automatic penetration testing tool Â». arXiv, 13 aoĂ»t 2023. ConsultĂ© le: 8 novembre 2023. [En ligne]. Disponible sur: http://arxiv.org/abs/2308.06782

[15]      R. Fang, R. Bindu, A. Gupta, Q. Zhan, et D. Kang, « LLM Agents can Autonomously Hack Websites Â». arXiv, 6 fĂ©vrier 2024. ConsultĂ© le: 19 fĂ©vrier 2024. [En ligne]. Disponible sur: http://arxiv.org/abs/2402.06664

[16]      M. Gupta, C. Akiri, K. Aryal, E. Parker, et L. Praharaj, « From ChatGPT to ThreatGPT: Impact of generative AI in cybersecurity and privacy », IEEE Access, vol. 11, p. 80218‑80245, aoĂ»t 2023, doi: 10.1109/ACCESS.2023.3300381.

[17]      M. Hutchins, « A realistic look at implications of ChatGPT for cybercrime », MalwareTech. ConsultĂ© le: 6 fĂ©vrier 2024. [En ligne]. Disponible sur: https://malwaretech.com/2023/02/a-realistic-look-at-chatgpt-cybercrime.html

[18]      K. Chung, Z. T. Kalbarczyk, et R. K. Iyer, « Availability attacks on computing systems through alteration of environmental control: smart malware approach », in Proceedings of the 10th ACM/IEEE International Conference on Cyber-Physical Systems, Montreal Quebec Canada: ACM, avr. 2019, p. 1‑12. doi: 10.1145/3302509.3311041.

[19]      N. Kaloudi et J. Li, « The AI-based cyber threat landscape: A survey », ACM Comput. Surv., vol. 53, no 1, p. 1‑34, fĂ©vr. 2020, doi: https://dl.acm.org/doi/abs/10.1145/3372823.

Annexe â€“ GĂ©nĂ©ration de courriels d’hameçonnage

Voici quelques exemples de gĂ©nĂ©ration de courriels d’hameçonnage avec ChatGPT (gĂ©nĂ©rĂ© avec la version 4.0 le 9 fĂ©vrier 2024) :

Exemple de gĂ©nĂ©ration de courriels d’hameçonnage avec la version 4.0 de ChatGPT

Exemple de gĂ©nĂ©ration de courriels d’hameçonnage avec la version 4.0 de ChatGPT

Exemple de gĂ©nĂ©ration de courriels d’hameçonnage avec la version 4.0 de ChatGPT

Notes

1   La base de connaissance ATLAS de MITRE (https://atlas.mitre.org/) recense un nombre important de vulnĂ©rabilitĂ©s des systĂšmes basĂ©s sur l’IA. L’utilisation de l’IA augmente la surface d’attaque des systĂšmes existants.

2   Aujourd’hui de tels modĂšles sont capables de mĂ©moriser l’intĂ©gralitĂ© de WikipĂ©dia, qui est le rĂ©sultat des travaux cumulĂ©s de nombreux bĂ©nĂ©voles et experts dans leurs domaines respectifs, sur une myriade de sujets divers.

3   Qui n’a pas dĂ©jĂ  reçu un courriel d’hameçonnage plein de fautes d’orthographe ou de grammaire, le rendant facilement identifiable ?

4   La charge la plus frĂ©quemment utilisĂ©e pour les courriels d’hameçonnage sont les adresses web selon un rapport rĂ©cent de la sociĂ©tĂ© egress [8].

5   https://www.blackhat.com/us-18/briefings/schedule/#deeplocker—concealing-targeted-attacks-with-ai-locksmithing-11549

6   Un exemple donnĂ© par les auteurs de DeepLocker est l’utilisation de la reconnaissance faciale de l’utilisateur pour cibler des personnes particuliĂšres avec l’attaque. Le choix d’exĂ©cuter du code malveillant pourrait aussi ĂȘtre liĂ© au comportement de l’utilisateur, de l’environnement logiciel, etc.

7   D’une certaine façon l’exemple est similaire aux voitures du groupe Volkswagen qui changeaient de comportement lors des cycles d’homologation et dont le scandale a Ă©tĂ© rĂ©vĂ©lĂ© en 2015.

8 https://github.com/GreyDGL/PentestGPT

9   https://fr.wikipedia.org/wiki/Cyberattaque_NotPetya

10 https://fr.wikipedia.org/wiki/REvil

11 https://fr.wikipedia.org/wiki/Ryuk_(logiciel)

12 https://fr.wikipedia.org/wiki/WannaCry

13 https://fr.wikipedia.org/wiki/Meltdown_(vuln%C3%A9rabilit%C3%A9)

14 https://fr.wikipedia.org/wiki/Mart%C3%A8lement_de_m%C3%A9moire

15 https://fr.wikipedia.org/wiki/Spectre_(vuln%C3%A9rabilit%C3%A9)

_________________________
Ce post est une contribution individuelle de Fabien A. P. Petitcolas, spĂ©cialisĂ© en sĂ©curitĂ© informatique chez Smals Research. Cet article est Ă©crit en son nom propre et n’impacte en rien le point de vue de Smals.

Comments

Leave a Reply

Your email address will not be published. Required fields are marked *

More posts