Le rapport de sécurité annuel de HUMAN Security, intitulé « The Quadrillion Report: 2024 Cyberthreat Benchmarks », a révélé une montée en flèche alarmante de la fraude publicitaire pilotée par l’IA. En analysant plus d’un quadrillion d’interactions en ligne observées tout au long de 2023 par la plateforme de défense de HUMAN, le rapport montre comment les cybercriminels exploitent l’intelligence artificielle pour mener des fraudes publicitaires de plus en plus sophistiquées.
La menace croissante des bots alimentés par l’IA
Selon le rapport, l’industrie publicitaire est confrontée à une menace croissante provenant des bots alimentés par l’IA et des tactiques de fraude. Ces techniques avancées sont conçues pour imiter le comportement humain de manière très convaincante, rendant de plus en plus difficile pour les systèmes traditionnels de détection de fraude d’identifier et de bloquer les activités malveillantes.
Utilisation de l’IA pour générer de faux profils et engagements
Une des tendances les plus préoccupantes soulignées dans le rapport est l’utilisation de l’IA pour générer de faux profils d’utilisateurs et des engagements. Ces « utilisateurs » artificiels peuvent interagir avec les publicités de manière à imiter étroitement le comportement humain authentique, ce qui peut fausser les métriques d’engagement et tromper les annonceurs. Les chercheurs de HUMAN ont noté une augmentation significative de la sophistication de ces faux profils, avec des modèles d’IA utilisés pour générer des modèles de navigation réalistes, des comportements de clic et même des historiques d’achats simulés.
Problème croissant de l’injection de publicités
Le rapport se penche également sur le problème croissant de l’injection de publicités, où des acteurs malveillants utilisent des algorithmes IA pour insérer des publicités non autorisées dans des sites web ou des applications légitimes. Cette technique détourne non seulement les revenus des éditeurs légitimes, mais expose également les utilisateurs à des logiciels malveillants ou à des tentatives de phishing. La plateforme de défense de HUMAN a détecté et bloqué des millions de ces tentatives tout au long de 2023, mettant en évidence l’ampleur de ce problème.
Fraude par clics alimentée par l’IA
Un autre domaine de préoccupation est la montée de la fraude par clics alimentée par l’IA. Les cybercriminels emploient désormais des algorithmes d’apprentissage machine pour analyser et imiter les modèles de clics authentiques, rendant les clics frauduleux de plus en plus difficiles à distinguer des clics légitimes. Cette sophistication menace l’intégrité des modèles de publicité au coût par clic, pouvant entraîner des pertes financières significatives pour les annonceurs.
Technologie de deepfake et manipulation de la publicité
Le rapport aborde également la menace émergente de la technologie de deepfake dans la fraude publicitaire. Bien qu’encore à ses débuts, les chercheurs de HUMAN ont observé des cas où des deepfakes générés par IA étaient utilisés pour créer de faux endossements de célébrités ou manipuler des publicités vidéo. Cette tendance soulève des préoccupations quant à la potentialité de désinformation généralisée et de manipulation dans le domaine publicitaire.
Méfance croissante envers les modèles de langage de grande taille (LLM)
Fait intéressant, le rapport révèle que 80 % des entreprises utilisant la plateforme de HUMAN ont choisi de bloquer complètement les agents utilisateurs connus de grands modèles de langage. Cette statistique souligne une méfiance croissante parmi les entreprises envers les crawlers web alimentés par IA et les menaces cybernétiques assistées par IA. La décision de bloquer l’accès des LLM représente un changement significatif dans la manière dont les organisations abordent l’intégration des technologies d’IA à leur présence en ligne.
Approche multi-facette de la sécurité de HUMAN
L’approche complète de HUMAN en matière de cybersécurité implique l’utilisation de plus de 2 500 signaux individuels et de plus de 300 algorithmes pour déterminer la légitimité des interactions en ligne. Cette stratégie multi-facette permet de protéger les sites web, les applications mobiles et les API contre un large éventail d’attaques automatisées, y compris celles ciblant l’écosystème publicitaire.
Évolution des attaques de fraude publicitaire
Le rapport souligne également l’évolution des attaques de fraude publicitaire. Bien que le taux de certains types d’attaques puisse avoir diminué, le nombre total de tentatives a considérablement augmenté. Cette tendance suggère que, bien que certaines techniques de fraude puissent devenir moins efficaces, les cybercriminels intensifient leurs efforts et diversifient leurs tactiques.
Statistiques alarmantes
Une statistique particulièrement alarmante du rapport révèle que, dans certains cas, jusqu’à 98,55 % du trafic vers certains sites web tentait de réaliser une forme d’activité frauduleuse. Ce chiffre stupéfiant souligne la nature incessante des menaces cybernétiques et l’importance cruciale de mesures de sécurité robustes et alimentées par IA dans le paysage numérique actuel.
Menaces pour la publicité connectée et en jeu
L’essor de la télévision connectée (CTV) et de la publicité en jeu a introduit de nouvelles vulnérabilités que les cybercriminels n’hésitent pas à exploiter. Le rapport note que ces plateformes émergentes font face à des défis uniques alors que les initiatives de sécurité et de transparence peinent à suivre le rythme de l’évolution rapide des technologies publicitaires.
Perspectives pour 2024
HUMAN anticipe une prolifération encore plus grande des attaques basées sur l’IA en 2024. Le rapport suggère que les professionnels de la cybersécurité devraient être particulièrement vigilants quant aux opérations de craquage de crédentiels assistées par IA et au traitement de contenu extrait pour des tentatives de fraude plus convaincantes.
Importance des mesures de sécurité adaptatives
L’industrie publicitaire, dépendante de systèmes complexes et interconnectés d’achat et de vente programmatique, est particulièrement vulnérable aux attaques sophistiquées pilotées par l’IA. À mesure que les fraudeurs continuent de peaufiner leurs techniques, le besoin de mesures défensives tout aussi avancées devient de plus en plus évident.
Coopération au sein de l’écosystème publicitaire
En réponse à ces menaces émergentes, HUMAN souligne l’importance d’une approche à plusieurs niveaux pour la prévention de la fraude publicitaire. Cette stratégie combine des algorithmes avancés d’apprentissage machine, des renseignements en temps réel sur les menaces et l’expertise humaine pour rester en avance sur les tactiques de fraude en évolution.
Pour maintenir l’intégrité du paysage publicitaire numérique, une collaboration coordonnée impliquant les annonceurs, les éditeurs, les réseaux publicitaires et les entreprises de cybersécurité est essentielle. En tant que tels, tous les acteurs de l’écosystème publicitaire doivent rester vigilants et prêts à adapter leurs stratégies de sécurité pour faire face aux défis posés par les cybercriminels modernes.