La plupart des publications traitant « dâintelligence » artificielle (IA) et sâintĂ©ressant Ă la sĂ©curitĂ© et aux attaques, se concentrent sur lâĂ©tude des attaques touchant les algorithmes dâapprentissage automatique (voir p. ex. [1]) et les dĂ©fenses contre de telles attaques. Par exemple, les attaques malveillantes traditionnelles sur les systĂšmes dâIA se produisent lorsquâun adversaire manipule les donnĂ©es dâentrĂ©e pour tromper les algorithmes dâapprentissage automatique, entraĂźnant ainsi une mauvaise classification1.
NĂ©anmoins, un nombre significatif dâarticles Ă©tudient aussi lâIA en tant quâarme possible contre les systĂšmes dâinformation â permettant notamment des attaques potentiellement plus rapides, Ă plus grande Ă©chelle et dâune plus large portĂ©e â et en tant quâoutil permettant dâamĂ©liorer des vecteurs dâattaque existants.
Dans un article prĂ©cĂ©dent, nous avons briĂšvement expliquĂ© ce qui se cache derriĂšre le terme « dâintelligence artificielle » en dĂ©crivant quelques techniques de base utilisĂ©es en cybersĂ©curitĂ©. Dans cet article, nous traiterons de lâutilisation de lâIA pour faciliter les attaques contre des systĂšmes informatiques. En particulier, nous dĂ©taillerons comment lâIA pourrait modifier ou modifie dĂ©jĂ plusieurs vecteurs dâattaques.
Prévisions pessimistes
DĂšs 2018, Brundage et al. [2] ont fait remarquer que lâutilisation croissante des capacitĂ©s de lâIA impliquerait trois changements dans le paysage des menaces :
- Une expansion des menaces existantes: lâIA pourrait permettre de rĂ©duire le coĂ»t des attaques en rĂ©duisant la main-dâĆuvre nĂ©cessaire mais aussi dâatteindre un plus large Ă©ventail de cibles potentielles.
- Une introduction de nouvelles menaces: les systĂšmes dâIA pourraient effectuer des tĂąches habituellement irrĂ©alisables pour un humain.
- Un changement du caractĂšre typique des menaces: les attaques permises par lâutilisation de lâIA pourraient devenir plus efficaces, plus finement ciblĂ©es et plus difficiles Ă attribuer.
Ces prĂ©visions sont corroborĂ©es par un rapport rĂ©cent du centre national de cybersĂ©curitĂ© britannique (NCSC) qui prĂ©voit une augmentation du nombre et de lâefficacitĂ© des menaces de cybersĂ©curitĂ© dues Ă lâIA [3].
Par exemple, lâaccĂšs facile Ă des modĂšles massifs de langage pourrait permettre Ă des adversaires de contourner leurs propres limites en ressources, compĂ©tences et/ou connaissances. Par ailleurs, une utilisation incontrĂŽlĂ©e dâapplications dâIA dans des projets internes Ă une organisation ou par des employĂ©s peu avertis, pourrait crĂ©er de nouvelles surfaces dâattaques et occasionner des fuites de donnĂ©es personnelles, de propriĂ©tĂ© intellectuelle ou dâinformations confidentielles.
Hameçonnage et ingénierie sociale
DĂšs 1966, avec ELIZA, lâun des premiers agents conversationnels, on dĂ©couvrait que lâhumain pouvait se faire tromper par la machine [4]. Le traitement du langage naturel est un cas dâutilisation de lâIA oĂč le texte brut est la source de donnĂ©es Ă partir de laquelle les modĂšles sont extraits2. Le traitement du langage a Ă©tĂ© utilisĂ© avec succĂšs pour de nombreuses applications. La dĂ©tection de courriels non dĂ©sirĂ©s en est un exemple tout comme lâinverse, le contournement des filtres de protection antispam (p. ex. [5]).
Lâhameçonnage est particuliĂšrement adaptĂ© Ă cette derniĂšre approche, car des modĂšles de texte peuvent ĂȘtre utilisĂ©s pour identifier les sujets qui intĂ©ressent la cible et gĂ©nĂ©rer des phrases auxquelles la cible pourrait rĂ©pondre. Par exemple, dans [6], les auteurs utilisent un modĂšle de Markov et un rĂ©seau de neurones rĂ©currents afin de dĂ©montrer la possibilitĂ© dâautomatiser la gĂ©nĂ©ration de messages utilisĂ©s dans un processus dâhameçonnage sur Twitter : lâoutil apprend Ă prĂ©dire le mot suivant Ă partir du contexte prĂ©cĂ©dent dans lâhistorique des publications de la cible. Chaque message est donc adaptĂ© Ă une cible particuliĂšre augmentant ainsi la prĂ©cision de lâattaque.
Ătant donnĂ©e la capacitĂ© des modĂšles massifs de langages Ă mieux « comprendre » le contexte, Ă mieux imiter le texte humain (parfois mĂȘme avec moins dâerreurs [7]3), on constate que de tels outils sont dĂ©jĂ utilisĂ©s pour faciliter lâĂ©criture, avec le ton adĂ©quat, de courriels plausibles provenant de collĂšgues, amis, familles ou site populaires de commerce en ligne, Ă©ventuellement en fonction dâinformations glanĂ©es sur les rĂ©seaux sociaux [8] (voir « Annexe â GĂ©nĂ©ration de courriels dâhameçonnage »). Pire, il est aujourdâhui possible, sans connaissances importantes en sĂ©curitĂ©, dâutiliser ChatGPT pour gĂ©nĂ©rer non seulement des courriels dâhameçonnage mais aussi le site web correspondant [9]. Cela est dâautant plus inquiĂ©tant lorsque lâon sait que 94 % des logiciels malveillants dĂ©tectĂ©s sont toujours envoyĂ©s par courriel [10].
Un autre exemple de lâutilisation de lâIA pour faciliter les attaques dâhameçonnage est DeepFish [11]. Il sâagit dâun logiciel qui produit de nouvelles adresses web synthĂ©tiques dâhameçonnage en apprenant des modĂšles Ă partir des adresses web les plus efficaces dans les attaques historiques4. Ces adresses peuvent ensuite ĂȘtre utilisĂ©es dans des courriels dâhameçonnage ou dâautres canaux comme par exemple des publicitĂ©s trompeuses. Peu aprĂšs le lancement de Bing Chat, Microsoft a, sans grande surprise, ajoutĂ© la possibilitĂ© dâintroduire des publicitĂ©s dans les conversations. Malheureusement, les publicitĂ©s comportent un risque inhĂ©rent et pourraient amener des utilisateurs Ă la recherche de tĂ©lĂ©chargements de logiciels, Ă visiter des sites malveillants et Ă installer des logiciels malveillants directement Ă partir dâune conversation sur Bing Chat [12].
« Hacking » automatique
LâIA permet dâexĂ©cuter des attaques Ă la vitesse de la machine. Par exemple, Deephack [13] est un agent logiciel de quelques centaines de lignes de Python qui apprend Ă sâintroduire dans des applications Web Ă lâaide dâun rĂ©seau neuronal, dâessais et dâerreurs. Il apprend Ă exploiter plusieurs types de vulnĂ©rabilitĂ©s, ouvrant potentiellement la porte Ă une multitude de nouveaux systĂšmes de piratage.
DeepLocker5 va plus loin en dissimulant ses intentions malveillantes et en sâactivant pour des cibles spĂ©cifiques. Afin de dĂ©cider si la machine oĂč il est exĂ©cutĂ©, est une cible ou pas, DeepLocker utilise un rĂ©seau de neurones artificiels complexe6 Ă la place d’une simple liste de rĂšgles. Cela empĂȘche les outils analysant statiquement et dynamiquement le logiciel de dĂ©tecter la prĂ©sence de code malveillant7. DeepLocker utilise Ă©galement un autre rĂ©seau de neurones afin de gĂ©nĂ©rer une clĂ© permettant de chiffrer ou dĂ©chiffrer la partie malveillante de son code afin de rendre celui-ci plus difficile Ă dĂ©tecter.
Certaines procĂ©dures de « hacking » pourraient ĂȘtre simplifiĂ©es et accĂ©lĂ©rĂ©es grĂące Ă lâutilisation de modĂšles gĂ©nĂ©ratifs. Des personnes malveillantes pourraient par exemple avoir recours Ă des outils comme PentestGPT8. Cet outil permet en effet, dâaider Ă gĂ©rer diffĂ©rentes tĂąches dâun processus de test de pĂ©nĂ©tration, comme lâutilisation dâoutils spĂ©cifiques (notamment utilisant des commandes avec des options complexes souvent difficiles pour un humain) et la suggestion dâĂ©tapes Ă suivre [14]. Selon ses auteurs il permet mĂȘme de donner une « intuition » sur ce quâil convient de faire dans un scĂ©nario dâintrusion donnĂ©. Il manque cependant de recommandations efficaces pour pouvoir accomplir les tĂąches de maniĂšre indĂ©pendante et il nâest pas capable de maintenir une comprĂ©hension cohĂ©rente du scĂ©nario de test. Mais Fang et al. ont montrĂ© que des agents alimentĂ©s par des modĂšles massifs de langage tel que ChatGPT peuvent errer par eux-mĂȘmes sur le Web et sâintroduire dans des applications Web boguĂ©es sans ĂȘtre surveillĂ©s [15].
Enfin, des outils dâIA gĂ©nĂ©rative entrainĂ©s sur des bases de donnĂ©es de vulnĂ©rabilitĂ©s suffisamment larges, pourraient Ă©galement ĂȘtre utilisĂ©s pour automatiser lâanalyse de code afin dâidentifier des vulnĂ©rabilitĂ©s exploitables, mais les coĂ»ts de crĂ©ation de tels modĂšles sont Ă©levĂ©s.
Génération de charge utile et de code malveillant
Dans le contexte dâune cyberattaque, la charge utile est la composante de lâattaque qui cause le prĂ©judice (p. ex. effacement de fichiers). Elle peut ĂȘtre contenue dans un virus ou un ver informatique, une piĂšce jointe ou encore une requĂȘte transfĂ©rĂ©e Ă une base de donnĂ©es SQL. Selon Gupta et al. [16], un outil dâIA gĂ©nĂ©rative pourrait ĂȘtre utilisĂ© pour gĂ©nĂ©rer des charges utiles, et dans certains cas, de telle façon quâelles ne puissent pas ĂȘtre dĂ©tectĂ©es par un pare-feu dâapplications Web (« Web Application Firewall (WAF) »).
Un outil dâIA gĂ©nĂ©rative pourrait aussi ĂȘtre utilisĂ© pour faciliter lâĂ©criture de logiciels malveillants ou de rançongiciels : Guptal et al. [16] ont conduit diffĂ©rents tests avec ChatGPT en le convainquant notamment de fournir des exemples de code de diffĂ©rents logiciels malveillants tels que NotPetya9, REvil10, Ryuk11 ou WannaCry12. Les rĂ©sultats ne sont pas directement utilisables, mais fournissent une structure de haut niveau du code, plutĂŽt Ă©vidente pour toute personne ayant dĂ©jĂ programmĂ©, mais qui peut laisser imaginer des amĂ©liorations importantes dans les annĂ©es Ă venir. Des tests similaires ont aussi Ă©tĂ© rĂ©alisĂ©s, avec des rĂ©sultats similaires, pour des virus exploitant des vulnĂ©rabilitĂ©s telles que Meltdown13, RowHammer14 et Spectre15.
Hutchins [17] Ă©met cependant de sĂ©rieux doutes sur la possibilitĂ© de gĂ©nĂ©rer des logiciels malveillants grĂące Ă lâIA et en particulier grĂące Ă des outils comme ChatGPT qui sont loin dâĂȘtre capable de crĂ©er des logiciels entiĂšrement fonctionnels mais pourraient, au mieux, fournir de petites briques difficilement assemblables. Il fait Ă©galement valoir que ce code gĂ©nĂ©rĂ© par lâIA existe dĂ©jĂ sur Internet.
Attaques des systĂšmes physiques
Enfin, si lâon prend comme hypothĂšse que les systĂšmes physiques (p. ex. un systĂšme de contrĂŽle du refroidissement) sont moins sĂ©curisĂ©s que lâinfrastructure informatique cible et sont relativement plus faciles Ă exploiter, alors on peut envisager dâutiliser un logiciel malveillant afin dâattaquer indirectement une infrastructure informatique par le biais du systĂšme physique, en dĂ©guisant les actions malveillantes en dĂ©faillances accidentelles (p. ex. une surchauffe simulĂ©e conduisant Ă un arrĂȘt dâurgence bien rĂ©el). Câest ce que montrent Chung et al. [18]. Leur outil apprend automatiquement des stratĂ©gies dâattaque Ă partir des mesures collectĂ©es par le systĂšme physique.
Analyse des cyberattaques utilisant lâIA
Afin de permettre aux ingĂ©nieurs en sĂ©curitĂ© dâĂ©tudier efficacement la classification des menaces dues Ă lâIA et leur impact et de mieux comprendre la stratĂ©gie des attaquants, Nektaria et al. [19] proposent un cadre dâanalyse des cyberattaques tirant parti de lâIA. Il est basĂ© sur le cadre existant et trĂšs rĂ©pandu « Cyber Kill Chain » mis au point par Lockheed Martin et est formĂ© de trois niveaux :
- Ătapes de lâattaques et objectifs: ce premier niveau permet de dĂ©crire quand un attaquant peut atteindre ses objectifs malveillants en fonction du cycle de vie de la cyberattaque. Il permet de reprĂ©senter lâintention de lâattaquant et le type de technique dâIA utilisĂ©e comme outil pour mener les actions malveillantes, en fonction de chaque phase du cycle de vie de la cyberattaque.
- Impact et classification de lâIA malveillante: ce deuxiĂšme niveau est une classification basĂ©e sur lâimpact de lâutilisation malveillante des techniques dâIA, qui montre son impact potentiel en fonction du stade dâattaque appliquĂ©.
- Classification des mĂ©thodes de dĂ©fense : la dĂ©fense contre les cyberattaques basĂ©es sur lâIA ne peut pas se faire avec une solution simple ou un seul outil. Il est nĂ©cessaire dâadopter une approche dĂ©fensive approfondie tout au long du cycle de vie des cyberattaques afin de lutter contre « lâintelligence » des nouvelles mĂ©thodes.
Conclusion
Ă travers les exemples donnĂ©s prĂ©cĂ©demment, lâIA apparait principalement comme un nouvel outil de « productivitĂ© » pour des attaquants professionnels (ou pas) dĂ©jĂ bien motivĂ©s. La pire menace que lâIA pourrait faire peser sur la sĂ©curitĂ© serait la dĂ©couverte Ă grande Ă©chelle de classes dâattaques entiĂšrement nouvelles. Cependant, rien ne prouve quâune telle dĂ©couverte soit plus probable que celle faite par des acteurs humains.
NĂ©anmoins, de nombreux problĂšmes restent en suspens quant Ă la maniĂšre de prĂ©venir et d’attĂ©nuer ces menaces avancĂ©es, mais une bonne analyse des menaces avec un cadre appropriĂ© est un bon point de dĂ©part. De plus, nous pensons quâune maniĂšre efficace de lutter contre les adversaires tirant partie de lâIA sera Ă©galement dâutiliser lâIA afin dâĂȘtre compĂ©titif en termes de portĂ©e, de vitesse et d’Ă©chelle. Comme nous le verrons dans un dernier article sur le sujet, lâIA pourrait en effet contribuer Ă l’automatisation de tĂąche de cyberdĂ©fense, telles que lâĂ©valuation de vulnĂ©rabilitĂ©s, la dĂ©tection dâintrusions, la rĂ©ponse Ă des incidents et le traitement de renseignements sur les menaces.
Références
[1] N. Papernot, P. McDaniel, S. Jha, M. Fredrikson, Z. B. Celik, et A. Swami, « The limitations of deep learning in adversarial settings ». arXiv, 23 novembre 2015. Consulté le: 27 octobre 2023. [En ligne]. Disponible sur: http://arxiv.org/abs/1511.07528
[2] M. Brundage et al., « The malicious use of artificial intelligence: forecasting, prevention and mitigation », févr. 2018.
[3] « The near-term impact of AI on the cyber threat », National Cyber Security Centre, janv. 2024. Consulté le: 27 janvier 2024. [En ligne]. Disponible sur: https://www.ncsc.gov.uk/pdfs/report/impact-of-ai-on-cyber-threat.pdf
[4] J. Weizenbaum, « ELIZAâa computer program for the study of natural language communication between man and machine », Commun. ACM, vol. 9, no 1, p. 36â45, janv. 1966, doi: https://doi.org/10.1145/365153.365168.
[5] S. Palka et D. McCoy, « Fuzzing e-mail filters with generative grammars and n-gram analysis », in WOOTâ15: Proceedings of the 9th USENIX Conference on Offensive Technologies, aoĂ»t 2015.
[6] J. Seymour et P. Tully, « Weaponizing data science for social engineering: Automated E2E spear phishing on Twitter », prĂ©sentĂ© Ă Black Hat USA, 2016, p. 1â8.
[7] M. HeikkilÀ, « How to spot AI-generated text », MIT Technology Review. Consulté le: 11 octobre 2023. [En ligne]. Disponible sur: https://www.technologyreview.com/2022/12/19/1065596/how-to-spot-ai-generated-text/
[8] J. Chapman, « Phishing threat trends report – From pretexting to payloads, how have phishing attacks evolved in 2023? », egress, oct. 2023. ConsultĂ© le: 7 novembre 2023. [En ligne]. Disponible sur: https://www.egress.com/media/mq4kwitu/egress_phishing_threat_trends_report.pdf
[9] S. S. Roy, K. V. Naragam, et S. Nilizadeh, « Generating phishing attacks using ChatGPT ». arXiv, 8 mai 2023. Consulté le: 17 octobre 2023. [En ligne]. Disponible sur: http://arxiv.org/abs/2305.05133
[10] « Preparing for AI-enabled cyberattacks », MIT Technology Review, janv. 2021.
[11] A. Correa Bahnsen, « DeepPhish: Simulating malicious AI », 6 décembre 2018.
[12] J. Segura, « Malicious ad served inside Bingâs AI chatbot », Malwarebytes. ConsultĂ© le: 7 novembre 2023. [En ligne]. Disponible sur: https://www.malwarebytes.com/blog/threat-intelligence/2023/09/malicious-ad-served-inside-bing-ai-chatbot
[13] D. Petro et B. Morris, « Weaponizing machine learning: Humanity was overrated anyway », présenté à DEF CON 25, 10 août 2017. [En ligne]. Disponible sur: https://www.youtube.com/watch?v=wbRx18VZlYA
[14] G. Deng et al., « PentestGPT: An LLM-empowered automatic penetration testing tool ». arXiv, 13 août 2023. Consulté le: 8 novembre 2023. [En ligne]. Disponible sur: http://arxiv.org/abs/2308.06782
[15] R. Fang, R. Bindu, A. Gupta, Q. Zhan, et D. Kang, « LLM Agents can Autonomously Hack Websites ». arXiv, 6 février 2024. Consulté le: 19 février 2024. [En ligne]. Disponible sur: http://arxiv.org/abs/2402.06664
[16] M. Gupta, C. Akiri, K. Aryal, E. Parker, et L. Praharaj, « From ChatGPT to ThreatGPT: Impact of generative AI in cybersecurity and privacy », IEEE Access, vol. 11, p. 80218â80245, aoĂ»t 2023, doi: 10.1109/ACCESS.2023.3300381.
[17] M. Hutchins, « A realistic look at implications of ChatGPT for cybercrime », MalwareTech. Consulté le: 6 février 2024. [En ligne]. Disponible sur: https://malwaretech.com/2023/02/a-realistic-look-at-chatgpt-cybercrime.html
[18] K. Chung, Z. T. Kalbarczyk, et R. K. Iyer, « Availability attacks on computing systems through alteration of environmental control: smart malware approach », in Proceedings of the 10th ACM/IEEE International Conference on Cyber-Physical Systems, Montreal Quebec Canada: ACM, avr. 2019, p. 1â12. doi: 10.1145/3302509.3311041.
[19] N. Kaloudi et J. Li, « The AI-based cyber threat landscape: A survey », ACM Comput. Surv., vol. 53, no 1, p. 1â34, fĂ©vr. 2020, doi: https://dl.acm.org/doi/abs/10.1145/3372823.
Annexe â GĂ©nĂ©ration de courriels dâhameçonnage
Voici quelques exemples de gĂ©nĂ©ration de courriels dâhameçonnage avec ChatGPT (gĂ©nĂ©rĂ© avec la version 4.0 le 9 fĂ©vrier 2024) :
Notes
1 La base de connaissance ATLAS de MITRE (https://atlas.mitre.org/) recense un nombre important de vulnĂ©rabilitĂ©s des systĂšmes basĂ©s sur lâIA. Lâutilisation de lâIA augmente la surface dâattaque des systĂšmes existants.
2 Aujourdâhui de tels modĂšles sont capables de mĂ©moriser lâintĂ©gralitĂ© de WikipĂ©dia, qui est le rĂ©sultat des travaux cumulĂ©s de nombreux bĂ©nĂ©voles et experts dans leurs domaines respectifs, sur une myriade de sujets divers.
3 Qui nâa pas dĂ©jĂ reçu un courriel dâhameçonnage plein de fautes dâorthographe ou de grammaire, le rendant facilement identifiable ?
4 La charge la plus frĂ©quemment utilisĂ©e pour les courriels dâhameçonnage sont les adresses web selon un rapport rĂ©cent de la sociĂ©tĂ© egress [8].
5 https://www.blackhat.com/us-18/briefings/schedule/#deeplocker—concealing-targeted-attacks-with-ai-locksmithing-11549
6 Un exemple donnĂ© par les auteurs de DeepLocker est lâutilisation de la reconnaissance faciale de lâutilisateur pour cibler des personnes particuliĂšres avec lâattaque. Le choix dâexĂ©cuter du code malveillant pourrait aussi ĂȘtre liĂ© au comportement de lâutilisateur, de lâenvironnement logiciel, etc.
7 Dâune certaine façon lâexemple est similaire aux voitures du groupe Volkswagen qui changeaient de comportement lors des cycles dâhomologation et dont le scandale a Ă©tĂ© rĂ©vĂ©lĂ© en 2015.
8 https://github.com/GreyDGL/PentestGPT
9 https://fr.wikipedia.org/wiki/Cyberattaque_NotPetya
10 https://fr.wikipedia.org/wiki/REvil
11 https://fr.wikipedia.org/wiki/Ryuk_(logiciel)
12 https://fr.wikipedia.org/wiki/WannaCry
13 https://fr.wikipedia.org/wiki/Meltdown_(vuln%C3%A9rabilit%C3%A9)
14 https://fr.wikipedia.org/wiki/Mart%C3%A8lement_de_m%C3%A9moire
15 https://fr.wikipedia.org/wiki/Spectre_(vuln%C3%A9rabilit%C3%A9)
_________________________
Ce post est une contribution individuelle de Fabien A. P. Petitcolas, spĂ©cialisĂ© en sĂ©curitĂ© informatique chez Smals Research. Cet article est Ă©crit en son nom propre et n’impacte en rien le point de vue de Smals.



Leave a Reply