Ignorer le contenu principal

Fausses vidéos et deepfake – Comment les utilisateurs peuvent-ils se protéger ?

Aujourd'hui, les pirates ne se contentent plus de photoshopper des visages de politiciens sur des corps de stars du porno. S'appuyant sur une technologie similaire à celle utilisée dans les films hollywoodiens, les vidéos deepfake s'attaquent à leurs victimes en leur faisant dire des choses pouvant être utilisées pour nuire à leur réputation ou même les faire chanter.

 

L'univers émergent du deepfake

Deepfake est un mot-valise – composé de « deep » du terme « deep learning » et de « fake » du mot « fake ». Le deep learning est une méthode d'intelligence artificielle (IA) avancée utilisant plusieurs algorithmes de Machine Learning pour extraire progressivement des éléments de niveau supérieur à partir de données brutes. Il est capable d'apprendre de données non structurées – comme le visage humain. Par exemple, un système d'IA peut collecter des données sur vos mouvements physiques.

Ces données peuvent ensuite être traitées pour créer une vidéo deepfake via un GAN (Réseau antagoniste génératif). Il s'agit d'un autre type de système de Machine Learning spécialisé. Deux réseaux neuronaux sont mis en concurrence dans l'apprentissage des caractéristiques d'un ensemble d'apprentissage (photos de visages, par exemple), puis dans la génération de nouvelles données présentant les mêmes caractéristiques (nouvelles « photos »).

Comme de tels réseaux testent en permanence les images créées par rapport à l'ensemble d'apprentissage, les fausses images deviennent de plus en plus convaincantes. Ce qui fait du deepfake une menace encore plus sérieuse. En outre, les GAN peuvent altérer d'autres données que des photos et vidéos. En fait, les mêmes techniques de Machine Learning et de synthèse peuvent être utilisées pour falsifier des voix.

Exemples de deepfake

Il existe de nombreux exemples de deepfake connus. Prenez par exemple la vidéo publiée par l'acteur Jordan Peele. Dans cette vidéo, il a utilisé un enregistrement authentique de Barack Obama et l'a fusionné avec sa propre imitation du président pour mettre en garde contre les vidéos deepfake. Il a ensuite dévoilé à quoi ressemblaient les deux parties de la vidéo fusionnée une fois séparées. Son conseil ? Nous devons remettre en question tout ce que nous voyons.

La vidéo du PDG de Facebook Mark Zuckerberg, s'exprimant sur façon dont Facebook « contrôle l'avenir » par le biais de données utilisateur volées, a également fait le buzz, en particulier sur Instagram. La vidéo originale est issue d'un discours qu'il a prononcé sur l'ingérence de la Russie dans les élections américaines – 21 secondes du discours ont suffi pour synthétiser la nouvelle vidéo. Cependant, l'imitation vocale n'était pas aussi bonne que celle de Jordan Peele, ce qui a révélé la supercherie.

Mais même les fausses vidéos de moins bonne qualité peuvent avoir un impact remarquable. La vidéo de Nancy Pelosi « ivre » a récolté des millions de vues sur YouTube – la vidéo originale avait tout simplement été ralentie pour donner l'impression qu'elle bredouillait. Et de nombreuses stars féminines se sont déjà retrouvées « en vedette » d'images ou vidéos de revenge porn, leur visage ayant simplement été inséré dans des contenus pornographiques.

Les menaces du deepfake – fraude et chantage

Des vidéos deepfake ont déjà été utilisées à des fins politiques, ainsi qu'à des fins de vengeance personnelle. Cependant, aujourd'hui, elles sont de plus en plus utilisées dans le cadre de tentatives de chantage et de fraude.

Ainsi, le PDG d'un fournisseur d'énergie britannique s'est fait extorquer 243 000 $, un deepfake vocal du responsable de sa société mère lui ayant demandé de réaliser un transfert de fonds en urgence. Le deefake était si convaincant qu'il n'a pas pensé à vérifier ; les fonds n'ont pas été versés au siège social, mais sur un compte bancaire tiers. Le PDG n'a commencé à avoir des soupçons que lorsque son « patron » lui a demandé d'effectuer un autre transfert. Cette fois-ci, il a eu la puce à l'oreille – mais il était trop tard pour récupérer les fonds déjà transférés.

La France a récemment été victime d'une fraude ne s'appuyant pas sur l'utilisation de la technologie du deepfake, mais sur l'usurpation d'identité, associée à une copie méticuleuse du bureau et du mobilier du Ministre des Affaires étrangères Jean-Yves Le Drian. L'objectif était d'escroquer de hauts dirigeants de plusieurs millions d'euros. Le fraudeur Gilbert Chikli est accusé de s'être fait passer pour le ministre afin de demander à de riches individus et dirigeants d'entreprises de l'argent pour faire libérer des otages français en Syrie ; il passe actuellement en jugement.

Menaces et dangers du deepfake

Les auteurs de deepfakes peuvent également faire chanter des directeurs d'entreprises en les menaçant de publier une vidéo deepfake nuisible s'ils refusent de mettre la main au portefeuille. Ou accéder à votre réseau en synthétisant un appel vidéo de votre responsable informatique, incitant les salariés à céder leurs mots de passe et leurs privilèges, ce qui permet ensuite aux pirates de semer la pagaille dans vos bases de données sensibles.

De fausses vidéos pornographiques ont déjà été utilisées pour faire chanter des femmes reporters et journalistes, telles que Rana Ayyub en Inde, qui a levé le voile sur des abus de pouvoir. La technologie devenant de plus en plus abordable, il faut s'attendre à ce que le deepfake devienne une méthode de chantage et d'escroquerie de plus en plus populaire.

Comment pouvons-nous nous protéger du deepfake ?

La législation commence déjà à contrer les menaces posées par les vidéos deepfake. Par exemple, dans l'État de Californie, deux projets de loi adoptés l'année dernière ont illégalisé certains aspects du deepfake – l'AB-602 interdit le recours à la synthèse d'images humaines pour faire de la pornographie sans le consentement de la personne représentée et l'AB-730 interdit la manipulation d'images de candidats politiques dans les 60 jours suivant une élection.

Mais est-ce que ça va assez loin ? Heureusement, les entreprises de cybersécurité proposent sans cesse des algorithmes de détection toujours plus nombreux et toujours plus performants. Ces derniers analysent l'image vidéo et détectent les minuscules distorsions créées durant le processus de « falsification ». Par exemple, les synthétiseurs de deepfakes actuels créent un visage en 2D, puis le déforment pour l'adapter à la perspective 3D de la vidéo ; la direction dans laquelle pointe le nez est un indice révélateur.

Les vidéos deepfake en sont toujours à un stade où il est facile de les détecter vous-même. Une vidéo deepfake pourra présenter les caractéristiques suivantes :

  • mouvement saccadé
  • variations de lumière d'un plan à l'autre
  • variations au niveau de la couleur de peau
  • clignements étranges ou pas de clignements du tout
  • lèvres mal synchronisées avec la parole
  • artefacts numériques dans l'image

Mais à mesure que les deepfakes se perfectionnent, vos yeux vous seront de moins en moins utiles et vous ne pourrez plus compter que sur un bon programme de cybersécurité.

Technologie anti-falsification de pointe

Certaines technologies émergentes aident aujourd'hui les vidéastes à authentifier leurs vidéos. Un algorithme cryptographique peut être utilisé pour insérer des hachages à des intervalles définis de la vidéo ; si la vidéo est altérée, les hachages seront modifiés. L'IA et la blockchain peuvent enregistrer une empreinte numérique inviolable pour les vidéos. C'est comme la mise de filigrane de documents ; la difficulté avec la vidéo, c'est que les hachages doivent demeurer si la vidéo est compressée pour une utilisation avec différents codecs.

Un autre moyen de repousser les tentatives de deepfake consiste à utiliser un programme qui insère des « artefacts » numériques spécialement conçus dans les vidéos pour dissimuler les structures de pixels qu'utilise le logiciel de détection de visages. Ces artefacts ralentissent ensuite les algorithmes deepfake et donnent des résultats de mauvaise qualité – le deepfake risque donc d'être moins convaincant.

La mise en place de bonnes procédures de sécurité est la meilleure protection qui soit

Mais la technologie n'est pas le seul moyen pour se protéger contre les vidéos deepfake. La mise en place de bonnes procédures de sécurité élémentaires est très efficace pour contrer les deepfakes.

Par exemple, l'intégration de vérifications automatiques à toutes les procédures de déblocage de fonds aurait permis de stopper de nombreuses fraudes deepfake et similaires. Vous pouvez également :

  • Vous assurer que vos salariés et votre famille comprennent comment fonctionne le deepfake et les défis qu'il peut poser.
  • Vous former, vous et les autres, à la détection d'un deepfake
  • Vous assurer d'être éduqué aux médias et d'utiliser des sources d'information de qualité.
  • Disposer de bons protocoles de base – « faire confiance, mais vérifier ». L'adoption d'une attitude sceptique à l'égard des messages vocaux et des vidéos ne veut pas dire que vous ne vous ferez jamais duper, mais cela peut vous aider à éviter de nombreux pièges.

Rappelez-vous que si les pirates commencent à utiliser le deepfake pour tenter d'accéder à vos réseaux domestiques et professionnels, les meilleures pratiques élémentaires en matière de cybersécurité joueront un rôle essentiel dans la réduction du risque :

  • La réalisation de sauvegardes régulières protège vos données contre les ransomwares et vous offre la possibilité de restaurer les données endommagées.
  • Utilisez différents mots de passe forts pour vos différents comptes afin que, si un de vos réseaux ou services est piraté, les autres ne soient pas compromis. Si quelqu'un pirate votre compte Facebook, vous n'avez pas envie qu'il puisse également accéder à vos autres comptes.
  • Utilisez une bonnne solution de sécurité comme Total Security de Kaspersky pour protéger votre réseau domestique, votre ordinateur portable et votre smartphone contre les cybermenaces. Cette solution inclut un logiciel antivirus, un VPN pour stopper le piratage de vos connexions Wi-Fi et une protection pour vos webcams.

Quel est l'avenir du deepfake ?

Le deepfake continue à évoluer. Il y a encore deux ans, il était très facile de repérer les vidéos deepfake à la maladresse des mouvements et à l'absence de battements de paupières. Mais les fausses vidéos dernière génération ont évolué et se sont adaptées.

On estime qu'il y aurait actuellement plus de 15 000 vidéos deepfake en circulation. Alors que certaines sont juste humoristiques, d'autres tentent de manipuler nos opinions. Mais maintenant qu'il ne faut plus qu'un jour ou deux pour réaliser un nouveau deepfake, ce chiffre pourrait augmenter très rapidement.

 

Liens associés

Les principaux piratages de célébrités et l’impact que cela peut avoir sur vous

Piratage de webcam : Votre webcam peut-elle vous espionner ?

Que signifie l'émergence du deepfake pour le futur de la cybersécurité ?

Fausses vidéos et deepfake – Comment les utilisateurs peuvent-ils se protéger ?

Aujourd'hui, les pirates ne se contentent plus de photoshopper des visages de politiciens sur des corps de stars du porno. S'appuyant sur une technologie similaire à celle utilisée dans les films hollywoodiens, les vidéos deepfake s'attaquent à leurs victimes en leur faisant dire des choses pouvant être utilisées pour nuire à leur réputation ou même les faire chanter.
Kaspersky logo