Deepfake : comment ne pas se laisser tromper ?

30 janvier 2024

Au cœur de nos sociétés numériques, nous sommes en permanence exposés à des contenus divers et variés. Que ce soit pour s’informer, se former ou se divertir, nous consommons en quasi permanence des textes, des images, des vidéos en ligne… Vous êtes-vous toutefois déjà demandé si les contenus qui s’offrent à vous sont authentiques et intègres ? Comment être sûr que la personne représentée sur une image que l’on vous propose correspond bien à une situation réelle ? Comment être certain que la personne que vous voyez tenir un discours sur une vidéo est bien celle qu’elle prétend être, qu’il ne s’agit pas d’images tronquées à des fins de manipulation ? Ces questions, à l’ère de l’intelligence artificielle et du machine learning, n’ont rien d’anodines. Depuis plusieurs années, désormais, le concept de deepfake (mot né de la contraction des concepts de deep learning et de fake – faux ou contrefaçon en français) nourrit de nouvelles inquiétudes. 

 

Distinguer le vrai du faux

« La question des faux préoccupe l’homme depuis longtemps. L’émergence des deepfakes nous confronte à la version digitale de la contrefaçon », commente Mohamed Ourdane, Head of Cybersecurity au sein de DEEP. Les technologies d’intelligence artificielle et de deep learning permettent de créer de toute pièce du contenu tronquant la réalité, mettant en scène des personnes sans leur consentement, de manière spectaculaire. 

Depuis longtemps, des outils de traitement d’image – à l’instar de Photoshop – permettent de retoucher la réalité, le plus souvent dans un souci d’esthétisme. Avec l’intelligence artificielle, récemment, on a vu des images ou des vidéos créées de toute pièce mettre en scène des personnalités célèbres – le pape, des dirigeants politiques, des stars – sans que celles-ci ne soient partie prenante ou consentantes. Des outils permettent aujourd’hui de reproduire très fidèlement la voix d’une personne. Des avatars, simulant de manière fortement réaliste un être humain existant, peuvent interagir avec vous. « Les développements technologiques récents, l’accès facilité à d’importantes puissances de calcul permettent à chacun de générer des faux extrêmement convaincants assez facilement. À l’avenir, il deviendra de plus en plus difficile de distinguer le vrai du faux », commente Cu D. Nguyen, Expert en Science des Données et Sécurité au sein de DEEP.

 

De nouveaux risques

Ces développements induisent de nouveaux risques. Chacun d’entre nous, à l’avenir, pourrait se retrouver face à des faux créés à des fins malveillantes. « À l’origine, une technologie n’est ni bonne, ni mauvaise, assure Mohamed Ourdane. Tout dépend de l’usage que l’on en fait. Si l’on parle de deepfake, cependant, on peut imaginer de nombreuses utilisations malveillantes de la technologie, pour propager de fausses informations, pour compromettre la démocratie ou encore, pour tromper une personne ou subtiliser des données dans le cadre d’une attaque informatique. » 

Ces dernières années, on a par exemple beaucoup parlé de fraude au président. Via un mail, par exemple, une personne se faisant passer pour un dirigeant d’une entreprise demande à un opérateur du service comptable de réaliser un virement en urgence (au profit des malfrats derrière l’opération, bien évidemment). De telles tentatives seront d’autant plus convaincantes si une telle demande est passée par téléphone en simulant la voix dudit dirigeant grâce à des outils informatiques. Si l’on va plus loin, on peut imaginer que l’opérateur se voit confier cette requête par visioconférence, par le biais d’un avatar reproduisant fidèlement l’apparence et la voix du dirigeant. 

 

Appréhender ces nouveaux dangers

Si les risques sont réels et nombreux, il convient d’envisager les possibilités de les mitiger. Comment lutter contre ces contrefaçons appelées à se multiplier ? Les équipes en charge de la cybersécurité au sein de DEEP se penchent sur ces questions depuis plusieurs années, soutenant des programmes de recherche et de développement, en collaboration avec l’Université du Luxembourg, en particulier avec son Interdisciplinary Centre for Security, Reliability and Trust (Snt).
 

•   Apporter des preuves de vérité et d’identité

« Face aux risques liés à la multiplication des faux numériques, plusieurs possibilités peuvent être envisagées, assure Mohamed Ourdane. Parmi elles, il y a lieu d’associer la création d’un contenu à une identité, en y intégrant, par exemple, des données de localisation et de temporalité, et de garantir l’authenticité et l’intégrité du contenu tout au long de son cycle de vie. » DEEP a notamment travaillé sur ces enjeux à travers le projet SKYTRUST qui a été mené en partenariat avec l’Agence Spatiale Européenne (ESA). 
 

•   Recourir à la technologie pour détecter les faux

« Au-delà de ces éléments, les technologies émergentes que sont l’intelligence artificielle et le machine learning peuvent aussi être utilisées pour détecter des contenus trompeurs. Il s’agit, en l’occurrence, d’identifier certains défauts à travers l’analyse des contenus. Nous travaillons sur l’élaboration de tels outils de détection à travers projet de recherche et développement en partenariat avec le SnT », commente Cu D. Nguyen. 

L’analyse du contour d’un visage, des clignements des yeux, des inflexions dans la voix permet, par exemple, de déceler des anomalies et de contribuer à la détection de contrefaçons générées par une intelligence artificielle. « En la matière, les algorithmes utilisés par les producteurs de contenu étant de plus en plus performants et sophistiqués, cette détection est de plus en plus complexe. Il faut sans cesse évoluer afin de parvenir à distinguer le vrai du faux. C’est une course sans fin », poursuit l’expert.
 

•   Sensibiliser pour lutter contre la propagation des contrefaçons

Face aux risques liés à ces contrefaçons, le dernier enjeu, au-delà de la « preuve de propriété ou d’identité » et du renforcement des capacités à détecter les images générées par des intelligences artificielles, réside dans les moyens à mettre en œuvre pour lutter contre leur propagation. « Il y a, à ce niveau, un travail d’éducation et de sensibilisation à faire auprès de la population vis-à-vis de ces nouveaux risques. Plus que jamais, nous devons renforcer l’esprit critique de chacun, particulièrement auprès de la jeune génération, qui est particulièrement friande des contenus numériques », commente Mohamed Ourdane. 

DEEP travaille depuis plusieurs années sur ces sujets en collaboration avec l’Université de Luxembourg. La volonté, à ce niveau, est de pouvoir apporter des solutions de sécurité aux utilisateurs de moyens technologiques et de télécommunications.

Ces enjeux seront notamment évoqués lors d’un événement proposé par DEEP le 23 mai prochain.
 

Nos experts répondent à vos questions

Des questions sur un article ? Besoin de conseils pour trouver la solution qui répondra à vos problématiques ICT ?

Autres articles de la catégorie Cybersécurité

Attaques DDoS au Luxembourg en 2024

Découvrez les statistiques des attaques DDoS détectées au Luxembourg en 2024 par POST Cyberforce.

Lire cet article

Publié le

31 mars 2024

Attaques DDoS au Luxembourg en 2023

Découvrez les statistiques des attaques DDoS détectées au Luxembourg en 2023 par POST Cyberforce.

Lire cet article

Publié le

15 février 2023

Attaques DDoS au Luxembourg en 2022

Découvrez les statistiques des attaques DDoS détectées au Luxembourg en 2022 par POST Cyberforce.

Lire cet article

Publié le

11 octobre 2022