Ils sembleraient que nous ayons perdu toute confiance en nos yeux au cours des 18 derniers mois. Les trucages Photoshop n’ont rien de nouveau, bien sûr, mais l’avènement de l’intelligence artificielle (IA) générative a poussé les fausses images à un tout autre niveau. Le premier fake viral de l’IA a peut-être été l’image de 2023 du pape dans une doudoune blanche de marque, mais depuis lors, le nombre d’images détournées de haute qualité a grimpé en flèche et se compte par milliers. Et le développement de l’IA devrait s’accompagner d’une augmentation de fausses vidéos convaincantes dans un futur proche.
Cela ne fera qu’aggraver le problème déjà épineux des fausses informations et des images associées. Il peut s’agir d’une photo d’un évènement associée à un autre évènement, d’une photo rassemblant plusieurs personnes qui ne se sont jamais rencontrées, etc.
L’usurpation d’image et de vidéo a une incidence directe sur la cybersécurité. Depuis des années, les escrocs utilisent de fausses images et vidéos pour inciter les victimes à leur donner de l’argent. Ils peuvent vous envoyer une photo d’un chiot triste qui aurait besoin d’aide, d’une célébrité ventant des stratagèmes douteux, ou même d’une carte de crédit supposée appartenir à l’un de vos proches. Les escrocs utilisent également des images générées par l’IA pour créer de faux profils sur les sites de rencontre et les réseaux sociaux.
Les escroqueries les plus sophistiquées utilisent des deepfakes audio ou vidéo mettant en scène le patron ou un proche de la victime pour l’amener à répondre aux demandes des escrocs. Récemment encore, un employé d’une institution financière s’est laissé convaincre de transférer 25 millions de dollars à des cyberescrocs ! Ils avaient organisé un appel vidéo avec le « directeur financier » et les « collègues » de la victime, tous des deepfakes.
Alors, que faire pour lutter contre les deepfakes ou même les simples détournements ? Comment les détecter ? Le problème est extrêmement complexe, mais peut être atténué petit à petit en retraçant la provenance de l’image.
Un instant… Où est-ce que j’ai déjà entendu ça ?
Comme mentionné ci-dessus, il existe différents types de « faux ». Parfois, l’image en elle-même n’est pas truquée, mais elle est utilisée de manière trompeuse. Une vraie photo de zone de guerre peut être présentée comme celle d’un autre conflit, ou une scène de film comme un documentaire. Dans ces cas, rechercher des anomalies sur l’image ne mènera à rien, mais vous pouvez essayer de rechercher des copies de l’image en ligne. Heureusement, des outils comme la recherche d’image inversée de Google et TinEye peuvent nous y aider.
Si vous avez un doute, chargez simplement l’image dans l’un de ces outils et examinez les résultats. Vous découvrirez peut-être que la même photo d’une famille dont la maison a brûlé dans un incendie, d’un groupe de chiens dans un refuge ou de victimes d’une autre tragédie circule en ligne depuis des années. D’ailleurs, en matière de fausse collecte de fonds, gardez l’œil ouvert pour d’autres signes d’avertissement en plus des images elles-mêmes.
Retouché ? On le saura bientôt.
Les retouches photo existent depuis un bon moment, et les mathématiciens, ingénieurs et experts de l’image travaillent depuis longtemps sur des moyens de détecter automatiquement les images altérées. Certaines méthodes populaires incluent l’analyse des métadonnées de l’image et l’analyse du niveau d’erreur (ELA), qui recherche les artefacts de compression JPEG pour identifier les zones modifiées d’une image. De nombreux outils d’analyse d’images courants, comme Fake Image Detector, appliquent ces techniques.
Avec l’émergence de l’IA générative, nous avons également vu de nouvelles méthodes basées sur l’IA pour détecter le contenu généré, mais aucune d’elles n’est parfaite. Voici quelques-uns des développements importants : détection du morphing du visage, détection d’images générées par l’IA et détermination du modèle d’IA utilisé pour les générer, et développement d’un modèle d’IA ouvert aux mêmes fins.
Le problème majeur de toutes ces approches est qu’aucune ne peut entièrement garantir la provenance de l’image ou l’absence de modifications, ni permettre de vérifier ces modifications.
Le WWW à la rescousse : vérifier la provenance des contenus
Ne serait-il pas formidable d’avoir un moyen plus simple pour les utilisateurs lambda de vérifier l’authenticité d’une image ? Imaginez pouvoir cliquer sur une image et voir un message comme « Jean a pris cette photo avec un iPhone le 20 mars », « Anne a recadré les bords et augmenté la luminosité le 22 mars », « Pierre a réenregistré cette image avec une compression élevée le 23 mars » ou « Aucune modification n’a été apportée ». Et toutes ces données seraient impossibles à falsifier ! C’est trop beau pour être vrai, non ? Et bien, c’est exactement l’objectif de la Coalition pour la provenance et l’authenticité des contenus (C2PA). La C2PA regroupe des acteurs majeurs des secteurs de l’informatique, de la photographie et des médias : Canon, Nikon, Sony, Adobe, AWS, Microsoft, Google, Intel, BBC, Associated Press, et une centaine d’autres membres, c’est-à-dire quasiment toutes les sociétés qui pourraient être individuellement impliquées dans à peu près n’importe quelle étape de la vie d’une image, de sa création à sa publication en ligne.
La norme C2PA développée par cette coalition existe déjà et a même atteint la version 1.3, et nous commençons maintenant à voir les engrenages industriels nécessaires à son utilisation se mettre en place. Nikon envisage de fabriquer des appareils photo compatibles avec cette norme, et la BBC a déjà publié ses premiers articles avec des images vérifiées.
L’objectif est que lorsque les médias responsables et les grandes entreprises passeront à la publication d’images sous forme vérifiée, vous puissiez vérifier la provenance de n’importe quelle image directement dans le navigateur. Une petite vignette « image vérifiée » s’affichera et, lorsque vous cliquerez dessus, une fenêtre plus grande s’ouvrira, vous montrant quelles images ont servi de source et quelles modifications ont été apportées à chaque étape avant que l’image n’apparaisse dans le navigateur, par qui et quand. Vous pourrez même voir toutes les versions intermédiaires de l’image.
Cette approche ne se limite pas aux appareils photo, mais peut fonctionner pour d’autres façons de créer des images. Des services comme Dall-E et Midjourney peuvent également labelliser leurs créations.
Le processus de vérification repose sur un chiffrement à clé publique similaire à la protection des certificats de serveur Internet pour l’établissement d’une connexion HTTPS sécurisée. Ainsi, chaque créateur d’images, qu’il s’agisse de Monsieur Tout-le-Monde avec un appareil photo spécifique ou d’Angela Smith avec une licence Photoshop, devra obtenir un certificat X.509 auprès d’une autorité de certificats de confiance. Ce certificat peut être programmé directement dans l’appareil photo en usine, ou pour les produits logiciels, émis lors de l’activation. Lors du traitement des images avec recherche de provenance, chaque nouvelle version du fichier contiendra un grand nombre d’informations complémentaires : la date, l’heure et le lieu des retouches, les miniatures de la version originale et de la version retouchée, etc. Tout cela sera signé numériquement par l’auteur ou l’éditeur de l’image. De cette façon, un fichier image vérifié aura une chaîne de toutes ses versions précédentes, chacune signée par la personne qui l’a modifié.
Les auteurs de la norme se sont également penchés sur les fonctionnalités de confidentialité. Parfois, les journalistes ne peuvent pas révéler leurs sources. Dans ces cas-là, il existe un type de modification spécial appelé » caviardage « . Cela permet de remplacer certaines informations sur le créateur de l’image par des zéros, puis de signer la modification avec son propre certificat.
Pour présenter les capacités de la C2PA, une collection d’images et de vidéos tests a été créée. Vous pouvez consulter le site Internet Content Credentials pour consulter les identifiants, l’historique de création et l’historique de modifications de ces images.
Contraintes naturelles
Malheureusement, les signatures numériques pour les images ne résoudront pas le problème des faux du jour au lendemain. Après tout, il existe déjà des milliards d’images en ligne qui n’ont été signées par personne et qui ne sont pas prêtes de disparaître. Cependant, avec le passage de plus en plus de sources d’informations fiables aux images signées uniquement, toute photo sans signature numérique deviendra suspecte. Il sera presque impossible de sortir de leur contexte de vraies photos et vidéos avec horodatage et données de localisation, et le contenu généré par l’IA sera plus facile à repérer.