Pouvez-vous détecter un Deepfake? 99% des gens n’en sont pas capables

Imaginez faire défiler votre fil d’actualité et tomber sur une vidéo d’un dirigeant mondial faisant une déclaration choquante. En quelques minutes, elle est partout—partagée, commentée, crue. Mais que se passe-t-il si elle n’a jamais existé ?

Publié le

Une nouvelle étude menée par iProov révèle une vérité terrifiante : 99,9 % des gens ne peuvent pas détecter de manière fiable les deepfakes générés par l’IA. Ce n’est pas une exagération. Sur 2 000 participants au Royaume-Uni et aux États-Unis, seulement 0,1 % ont pu faire la distinction entre le vrai et le faux, même en sachant qu’ils devaient y prêter attention. Dans des situations réelles, où l’on ne s’attend pas à être trompé, le taux d’échec est probablement encore plus élevé.

Des chiffres plus inquiétants qu’on ne le pense

L’étude met en évidence bien plus qu’une simple incapacité générale à repérer les deepfakes. Elle révèle aussi que différentes générations sont vulnérables de façons uniques :

  • Les personnes âgées sont peu informées : 30 % des 55-64 ans et près de 40 % des plus de 65 ans n’avaient jamais entendu parler des deepfakes. Si vous ignorez leur existence, vous ne pouvez pas vous en méfier.
  • Les jeunes sont trop confiants : 60 % des participants plus jeunes pensaient pouvoir les détecter, mais leurs résultats n’étaient pas meilleurs que ceux des autres.
  • Les vidéos deepfake sont le vrai cauchemar : les vidéos synthétiques sont 36 % plus difficiles à détecter que les images, ce qui pose un risque majeur pour l’authentification d’identité, la fraude en ligne et la désinformation.

Pourquoi les deepfakes sont-ils si convaincants ?

Les contenus générés par l’IA ont dépassé les défauts évidents des premières générations de deepfakes. Aujourd’hui, ces vidéos imitent parfaitement les expressions faciales, les inflexions de la voix et même la façon dont la lumière se reflète sur la peau réelle. Voici pourquoi la détection humaine échoue :

  • L’IA manipule des détails imperceptibles : texture de la peau, reflets dans les yeux, micro-mouvements—autant d’éléments que notre cerveau ne remarque pas consciemment.
  • Les attaques par injection numérique contournent les caméras : plutôt que de falsifier une vidéo en direct, l’IA peut insérer directement du contenu préenregistré ou synthétique dans les systèmes de sécurité.

Andrew Bud, PDG d’iProov, ne mâche pas ses mots : « Les criminels exploitent l’incapacité des consommateurs à distinguer le vrai du faux, mettant en péril leurs données personnelles et leur sécurité financière. »

La seule vraie défense : la technologie, pas l’humain

Si les gens ne peuvent pas distinguer le vrai du faux, comment lutter ? La réponse : l’authentification biométrique, la détection par IA et des systèmes de sécurité en temps réel. Voici quelques solutions clés :

TechnologieRôle
Flashmark™ (iProov)Utilise des séquences de couleurs dynamiques pour vérifier la présence réelle et bloquer les attaques par injection numérique.
Biométrie multimodaleCombine la reconnaissance faciale avec l’empreinte digitale ou la voix pour une sécurité renforcée.
Surveillance continue des menacesDes systèmes basés sur l’IA détectent les nouvelles méthodes d’attaque et s’adaptent en temps réel.

Une prise de conscience peut-elle aider ?

Le grand public est de plus en plus conscient du phénomène des deepfakes : 29 % des gens en avaient entendu parler en 2022, contre seulement 13 % en 2019. Mais savoir que ces technologies existent et être capable de les détecter sont deux choses bien différentes. L’éducation sur le sujet reste insuffisante, notamment chez les générations plus âgées, qui sont les plus vulnérables.

Vous voulez tester votre propre capacité à repérer un deepfake ? iProov propose un quiz de détection—mais ne soyez pas trop confiant. Comme l’indique cette étude, si vous comptez uniquement sur vos yeux pour distinguer le vrai du faux, vous partez déjà perdant.

La lutte contre les deepfakes ne consiste pas à rendre les humains meilleurs à les détecter, mais à rendre cette détection inutile, en s’assurant que la technologie prenne le relais. Sinon, la prochaine vidéo virale que vous verrez pourrait être totalement fictive sans que vous ne le sachiez jamais.

Partager cet article :

Nos derniers articles