Les avancées de l'IA ne touchent pas uniquement l’industrie, mais transforment aussi et durablement les pratiques des cybercriminels. Une tendance inquiète particulièrement les experts : il s’agit de l’utilisation de l'IA pour améliorer les campagnes de phishing, en les affinant, en ciblant des individus spécifiques et en rendant ces attaques presque imperceptibles. Kaspersky met en lumière comment l'IA fait évoluer le secteur du phishing et pourquoi même les employés les plus avertis en matière de cybercriminalité se laissent piéger par ces escroqueries.
Selon une récente étude de Kaspersky, le nombre de cyberattaques subies par les organisations au cours des 12 derniers mois aurait augmenté de près de la moitié. Cette augmentation du volume des attaques a été constatée par 49 % des personnes interrogées, dans le cadre de l'étude. La menace la plus répandue provient des attaques de phishing, avec 49 % des personnes interrogées ayant signalé ce type d'incident. L'IA devenant un outil de plus en plus utilisé par les cybercriminels, la moitié des personnes interrogées s'attend à une augmentation significative du nombre d'attaques par hameçonnage.
Comment l'IA est utilisée dans le phishing et pourquoi l'expérience seule, n'est parfois pas suffisante pour éviter d'en être victime ?
La personnalisation des contenus à travers l’IA
Jusqu'à présent, les attaques de phishing reposaient sur l'envoi d'un message générique à des milliers de personnes, dans l'espoir que l'un des destinataires morde à l'hameçon. L'IA a changé la donne en proposant des courriels d'hameçonnage très personnalisés et transmis à un grand nombre de destinataires. À l'aide d'informations publiques disponibles sur les réseaux sociaux, les sites d'offres d'emploi ou encore les sites web des entreprises, ces outils alimentés par IA peuvent générer des courriels adaptés au rôle, aux intérêts et au style d'une personne. Par exemple, un directeur financier peut recevoir un courriel frauduleux qui reflète le ton et le formatage des messages de son PDG, y compris des références précises aux événements récents de l'entreprise. Ce niveau de personnalisation rend exceptionnellement difficile pour les employés de distinguer les communications légitimes des communications malveillantes.
La technologie du deepfake
L'IA a également incorporé les « deepfakes » à l'arsenal du phishing. Les cybercriminels s'en servent de plus en plus pour créer de faux messages audio et vidéo très réalistes, conçus pour reproduire la voix et l'apparence des dirigeants dont ils cherchent à usurper l'identité. Par exemple, dans un cas signalé, les attaquants ont utilisé un deepfake pour se faire passer pour plusieurs membres du personnel au cours d'une vidéoconférence, et ont convaincu un employé de transférer environ 25,6 millions de dollars. La technologie des « deepfakes » ne cessant de progresser, on peut s'attendre à ce que de telles attaques deviennent de plus en plus fréquentes et de plus en plus difficiles à repérer.
Pourquoi l’expérience ne suffit pas
Même les employés les plus chevronnés sont victimes de ces attaques de phishing sophistiquées. Le niveau de réalisme et de personnalisation que l'IA peut atteindre est susceptible de l'emporter, sur le scepticisme qui maintient ces employés dans une forme de prudence. Par ailleurs, les attaques générées par IA profitent souvent de la psychologie humaine, comme l'urgence, la peur ou l'autorité, pour contraindre les employés à agir sans revérifier si la requête est légitime.
Combattre le phishing par IA
Pour se défendre contre les attaques de phishing pilotées par IA, les organisations doivent adopter une approche volontariste et multicouche privilégiant une cybersécurité étendue. Une formation régulière et actualisée à la cybersécurité axée sur l'IA est indispensable pour les employés, afin de les aider à identifier les signes subtils de phishing et d'autres tactiques malveillantes. Parallèlement, les entreprises devraient mettre en œuvre des outils de sécurité robustes capables de détecter les anomalies dans les courriels, telles que des modèles d'écriture inhabituels ou des métadonnées suspectes.
Un modèle de sécurité Zero Trust joue également un rôle essentiel pour minimiser les coûts potentiels d'une attaque réussie. En limitant l'accès aux données et aux systèmes sensibles, cette approche garantit que même si les attaquants pénètrent une couche de sécurité, ils ne peuvent pas compromettre l'ensemble du réseau. Combinées, ces mesures créent une stratégie de défense complète, associant une technologie de pointe à une surveillance humaine rigoureuse.