Les cybercriminels adoptent des outils d'IA pour intensifier la vitesse, l'efficacité, l'ampleur et la rentabilité de leurs attaques. Ces nouvelles attaques basées sur l'IA ont d'ailleurs un impact très réel sur les entreprises.
Les escroqueries avec deepfakes, qui peuvent impliquer des messages vocaux ou des appels vidéo frauduleux, ont entraîné des millions de dollars de pertes. C'est ce qui s'est passé dans le cas d'un deepfake du directeur financier d'une entreprise multinationale qui a incité un worker financier à payer 25 millions de dollars à des fraudeurs. Parallèlement, les attaques de phishing générées par l'IA incitent de plus en plus d'utilisateurs à divulguer leurs identifiants, tandis que les logiciels malveillants renforcés par l'IA échappent aux défenses existantes.
L'IA alimente également les campagnes de désinformation, l'empoisonnement des données et la manipulation des modèles, ce qui peut compromettre les systèmes basés sur l'IA. Gartner a récemment classé la mésinformation assistée par l'IA parmi les principaux risques informatiques.
Nous allons assister à des attaques basées sur l'IA toujours plus sophistiquées, car les cybercriminels réinvestissent une plus grande partie de leurs profits dans les nouvelles technologies. Beaucoup utilisent déjà les gains obtenus par les attaques à faible coût pour financer la recherche et le développement de schémas plus élevés et plus rentables. Dans de nombreux cas, les budgets des pirates sont beaucoup plus spécifiques que ceux des organisations qu'ils ciblent.
Pour découvrir la manière dont l'IA transforme le panorama de la cybersécurité, j'ai discuté avec Khalid Kark, le DSI de Cloudflare pour les Amériques, et Daniel Kendzior, le responsable mondial de la sécurité des données et de l'IA chez Accenture. Nous sommes conscients de ce que la plupart des outils de sécurité traditionnels sont inefficaces contre les attaques renforcées par l'IA. Pour renforcer la résilience, les entreprises doivent repenser la manière dont ils envisagent la sécurité. Au lieu de se fier à des défenses passives, elles doivent adopter une attitude plus active et préventive ; elles doivent se servir de l'IA pour combattre l'IA.
Tandis que les acteurs malveillants continuent d'adopter les outils d'IA, nous devons tous nous préparer à faire face à des versions plus perfectionnées de schémas d'ingénierie sociale familiers, ainsi qu'à des attaques basées sur des bots de plus grande ampleur. Entre-temps, nous observerons probablement une variété de nouvelles tactiques, y compris de nouveaux types d'usurpation d'identité. La sensibilisation à ces changements, au sein de nos entreprises, sera essentielle pour mettre en place une sécurité renforcée.
Certains aspects ne changent pas. Pour les acteurs malveillants, l'ingénierie sociale reste la tactique la plus simple et la moins chère. Elle est également très efficace. Selon un rapport de Verizon, 68 % des violations résultent d'erreurs humaines, et beaucoup de ces erreurs sont liées à l'ingénierie sociale, c'est ce qui se passe avec le phishing.
Ce que nous constatons, toutefois, c'est une augmentation de la sophistication et de la cohérence des attaques. Les acteurs malveillants utilisent l'IA générative (GenAI) pour créer des e-mails de phishing plus convaincants, par exemple, sans les erreurs d'orthographe ou de grammaire susceptibles d'évoquer un message frauduleux.
Parallèlement, les acteurs malveillants utilisent de plus en plus l'IA pour créer des deepfakes. Un employé peut recevoir un message vocal semblant provenir d'un responsable, alors qu'il a en réalité été créé par un modèle d'IA. Le collaborateur est ensuite amené à partager des informations d'identification, à approuver des transactions ou à exposer des données sensibles. Et grâce à l'IA, les attaquants peuvent créer ces messages deepfakes en quelques secondes.
Malheureusement, il est extrêmement difficile de lutter contre les biais cognitifs qui nous rendent vulnérables à ces attaques. Nous commettons tous des erreurs lorsque nous traitons et interprétons des informations. Par exemple, nous avons tendance à privilégier les informations qui confirment nos convictions existantes et à ignorer celles qui les contredisent. Ce biais de confirmation nous rend plus susceptibles de nous laisser piéger par un deepfake : si nous recevons un message vocal qui semble provenir de notre responsable, nous aurons tendance à le croire vrai.
En plus de créer des e-mails de phishing et deepfakes de meilleure qualité afin de tromper les collaborateurs, les acteurs malveillants utilisent l'IA pour créer de nouvelles identités. La fraude à l'identité synthétique (Synthetic Identity Fraud, SIF) implique la création d'identités hyperréalistes en réunissant de vraies et fausses données afin de contourner les systèmes de vérification traditionnels. Les données personnelles générées par l'IA et le bourrage d'identifiants automatisé rendent ces identités de plus en plus difficiles à détecter.
Les identités frauduleuses constituent un risque majeur pour les secteurs fortement ciblés, tels que les services financiers, la santé et les administrations. Comme les SIF manquent souvent de victimes immédiates, elles passent souvent inaperçues. Par conséquent, les fraudeurs peuvent bâtir des historiques de crédit et réussir leurs escroqueries.
Les bots sont un autre type de substitution humaine capable de nuire considérablement. Comme l'indique le rapport Cloudflare Signals 2025, 28 % de l'ensemble du trafic applicatif observé par Cloudflare en 2024 provenait de bots, un pourcentage qui est resté pratiquement stable par rapport aux quatre années précédentes. Si les bots peuvent servir des fins légitimes, comme l'indexation des moteurs de recherche ou la surveillance de la disponibilité, la grande majorité des bots (93 %, selon l'analyse du trafic de Cloudflare) ne sont pas vérifiés et sont potentiellement malveillants.
Les bots basés sur l'IA permettent aux attaquants de lancer des attaques automatisées à grande échelle avec une efficacité sans précédent. Nous découvrons des bots soutenus par l'IA capables de générer 200 fois plus d'accès sur un site web que les attaques précédentes. Les bots sont utilisés non seulement pour monter de vastes attaques par déni de service distribué (DDoS), mais également pour extraire des données sensibles et de la propriété intellectuelle, procéder à des attaques par bourrage d’identifiants (Credential Stuffing) et exécuter des fraudes à la vitesse d’une machine. Les modèles d’IA suralimentent ces capacités en contournant les CAPTCHA traditionnels et en évitant la détection grâce à un comportement adaptatif.
La tâche consiste donc à séparer les bons éléments des mauvais, puis à bloquer les mauvais, ce qui n'est pas facile.
Pour garder une longueur d'avance sur les menaces liées à l'IA, il est nécessaire d'envisager la sécurité en ayant l'anticipation à l'esprit et en s'appuyant sur l'IA. Lors de ma conversation avec Khad Kark et Daniel Kendzior, nous avons évoqué sept moyens par lesquels nous pouvons tous renforcer notre stratégie de sécurité afin de nous protéger contre ces menaces émergentes.
Améliorer l’observabilité.
« Un grand nombre de nos fournisseurs pimentent toutes leurs fonctionnalités avec de l'IA, comme s'il s'agissait d'une de luxe », nous dit Daniel Kendzior. Les logiciels que vous utilisez déjà ont peut-être été saupoudrés d'IA. Ces fonctionnalités d'IA ne seront pas toutes utiles, et certaines pourraient créer de nouvelles vulnérabilités. Pour limiter les risques liés à l'IA, nous devons tous adapter la manière dont nous achetons les logiciels, afin d'être plus conscients des éléments dans lesquels l'IA a été int égrée.
Parallèlement, il va devenir de plus en plus important d'améliorer l'observabilité de l'utilisation de l'IA au sein de nos entreprises. Sachez que les entreprises disposent généralement d'environ 33 % de plus d'API que ce qu'elles ont répertorié. Et ces API non cataloguées sont des vecteurs potentiels d'attaques. Par ailleurs, très souvent, nous ne savons pas où et comment l'IA est utilisée dans l'ensemble de l'organisation ; pourtant, chacune de ces instances d'outils d'IA peut nous exposer.
En déployant une plateforme capable d'unifier les journaux, l'analyse, les alertes et les analyses après incident, nous pouvons ensuite appliquer des fonctionnalités d'IA à ces données afin d'identifier les risques et déterminer leurs causes profondes.
Détecter et neutraliser les menaces en temps réel.
Tandis que les acteurs malveillants utilisent l'IA pour accroître la vitesse et le volume des menaces, nous devons pouvoir suivre le rythme. C'est une chance, l'IA peut nous aider à renforcer la cybersécurité. Par exemple, l'IA peut analyser de vastes ensembles de données et identifier des anomalies suggérant la présence d'une menace. Les outils d'IA peuvent alors automatiser les réponses aux menaces et régler les problèmes en temps réel.
L'analyse du comportement des utilisateurs des employés (notamment les logiques d'accès, les escalades de privilèges et les tentatives d'exfiltration de données) peut contribuer à établir des bases de référence et à détecter des anomalies potentiellement synonymes de menaces internes. Grâce à ces fonctionnalités soutenues par l'IA, nous pouvons repérer les risques en interne avant qu'ils ne prennent de l'ampleur.
Se protéger contre le phishing amélioré par l’IA et les deepfakes.
À mesure que les acteurs malveillants adoptent l'IA pour améliorer le phishing et créer des deepfakes, nous devons mettre en place des contrôles et des politiques plus sophistiqués ; notamment des contrôles et des politiques qui nous aident à lutter contre nos propres biais et nos propres erreurs. Supposons qu'un employé reçoive un SMS qui semble provenir d'un responsable l'invitant à transférer de l'argent sur un compte particulier. Nous pouvons éviter les dommages si nous disposons, en premier lieu, d'une politique qui empêche les collaborateurs de certains postes d'effectuer des virements. Cette politique doit également comprendre des mesures de contrôle des processus afin de faire en sorte que plusieurs vérifications soient effectuées avant toute exécution.
Améliorer la gestion des identités.
La gestion de l'identité a toujours été difficile, mais l'IA l'a rendue beaucoup plus difficile. « Certains clients recourent à l'inscription à distance pour les nouveaux clients et les nouveaux collaborateurs. Et maintenant, dans ce monde toujours plus falsifié, il toujours être sceptique et avoir à l'esprit que vous ne vous adressez pas forcément à une personne réelle », explique Daniel Kendzior.
La sécurité Zero Trust joue un rôle essentiel dans l'amélioration de la gestion des identités. Avec une solution Zero Trust adéquate, les entreprises peuvent empêcher les utilisateurs non autorisés et les bots IA d'accéder aux ressources de l'entreprise, tout en rationalisant l'accès des utilisateurs autorisés.
Identifier et bloquer les bots malveillants. Les fonctionnalités de gestion des bots peuvent séparer les bons bots des mauvais. Elles peuvent ensuite empêcher les bots malveillants d'extraire des données, de voler du contenu ou de ralentir les performances du site web.
Répondre à l'élément humain. La lutte contre les menaces liées à la cybersécurité comportera toujours une couche technologique. Toutefois, le blocage des menaces renforcées par l'IA implique également un changement comportemental. Nous devons sensibiliser les collaborateurs aux tentatives de phishing, aux deepfakes et aux autres attaques renforcées par l'IA qui se préparent, afin qu'ils soient plus méfiants à l'égard des messages qu'ils reçoivent.
Les organisations doivent également s'efforcer de créer des collaborateurs hautement sensibilisés, mais également de meilleurs citoyens numériques ; en effet, ces schémas renforcés par l'IA ciblent les utilisateurs même après la fin de la journée de travail. Par exemple, ils peuvent recevoir des SMS les invitant à s'acquitter en urgence le péage pour un véhicule. S'ils cliquent par erreur sur ces liens (ou pire, s'ils paient les pirates), ils financent par inadvertance de futures attaques susceptibles d'affecter leurs employeurs.
Collaborer avec des partenaires. L'IA aide la cybercriminalité à devenir une entreprise encore plus importante : nous ne combattons plus des pirates individuels. Non seulement nous adoptons les dernières fonctionnalités de cybersécurité améliorées par l'IA, mais nous devons également renforcer nos alliances afin d'être mieux armés pour nous protéger contre les acteurs malveillants organisés. Plus nous travaillerons avec des partenaires, meilleures seront nos défenses.
Le nombre, l'ampleur et la sophistication des menaces renforcées par l'IA poursuivront leur progression. Et à chaque tentative de phishing ou de violation de données réussie, les cybercriminels réinvestissent leurs profits dans des technologies plus avancées. De nombreuses entreprises doivent totalement repenser leurs défenses pour cette nouvelle ère d'attaques soutenues par l'IA, et elles doivent s'y mettre dès maintenant.
Le cloud de connectivité Cloudflare propose une gamme grandissante d'outils et de services susceptibles de vous aider dans la protection de votre entreprise contre les menaces générées par l'IA. La solution Cloudflare AI Gateway offre de la visibilité sur le coût, l'utilisation, la latence et les performances générales des applications IA. Et Firewall for AI vous permet également de protéger les applications soutenues par les grands modèles de langage (LLM) contre les abus. Ces outils opèrent conjointement avec le vaste portefeuille de services de sécurité cloud-native de Cloudflare afin de vous aider à faire évoluer vos défenses contre les menaces basées sur l'IA, plus importantes et plus sophistiquées.
Cet article fait partie de notre série consacrée aux nouvelles tendances et évolutions qui affectent les décideurs en matière de technologies aujourd'hui.
Pour en savoir plus sur les menaces générées par l'IA et les autres tendances qui nécessiteront un changement de paradigme pour améliorer la résilience, consultez le Rapport Cloudflare Signals 2025 : la résilience à grande échelle.
Mike Hamilton — @mike-hamilton-us
DSI, Cloudflare
Cet article vous permettra de mieux comprendre les aspects suivants :
Comment les cybercriminels utilisent l'IA pour perfectionner leurs attaques
Les trois tactiques les plus fréquemment employées aujourd'hui
7 méthodes pour renforcer la sécurité contre les menaces basées sur l'IA
Rapport Cloudflare Signals 2025 : la résilience à grande échelle
Se préparer à l'avenir de l'IA dans le secteur de la cybersécurité