Aller au contenu principal
Deepfakes et IA : la nouvelle arme des arnaqueurs
BlogDanger élevé

Deepfakes et IA : la nouvelle arme des arnaqueurs

Les deepfakes et l'IA generative sont utilises pour des arnaques sophistiquees. Faux appels video, clonage vocal, fausses celebrites : comment les detecter.

Partager

Les deepfakes : quand voir n'est plus croire

L'intelligence artificielle a franchi un cap decisif. Il est desormais possible de generer des videos realistes du visage de n'importe qui, de cloner une voix a partir de quelques secondes d'enregistrement et de creer des faux contenus quasi indetectables a l'oeil nu. Les escrocs exploitent ces technologies pour mener des arnaques d'un genre nouveau, ou meme les personnes les plus vigilantes peuvent se faire pieger.

Statistiques clés

L'arnaque au faux appel video du patron

Le cas qui a choque le monde

En 2024, une entreprise de Hong Kong a perdu 25 millions de dollars apres qu'un employe a participe a une visioconference avec ce qu'il pensait etre son directeur financier et plusieurs collegues. Tous les participants etaient des deepfakes generes en temps reel. L'employe a effectue les virements demandes sans se douter de la supercherie.

Comment ca fonctionne

  1. Les escrocs collectent des videos publiques du dirigeant (interviews, conferences, reseaux sociaux)
  2. Un modele d'IA apprend a reproduire son visage, ses expressions et ses gestes
  3. Pendant l'appel video, le deepfake se superpose au visage de l'escroc en temps reel
  4. La voix est egalement clonee grace a des enregistrements disponibles en ligne
  5. L'employe voit et entend son patron et execute les instructions

Les variantes en France

  • Le faux PDG qui appelle le service comptabilite pour un virement urgent et confidentiel
  • Le faux partenaire commercial qui modifie un RIB lors d'une visioconference
  • Le faux recruteur qui mene un entretien video pour voler des donnees personnelles

Un appel video n'est plus une preuve d'identite fiable. Si un dirigeant ou un collegue vous demande un virement par visioconference, verifiez par un autre canal : appelez la personne sur son numero habituel ou confirmez en face a face.

Le clonage vocal : l'arnaque par telephone reinventee

La technologie derriere le clonage

Les outils de clonage vocal actuels necessitent aussi peu que 3 a 5 secondes d'audio pour creer une replique convaincante d'une voix. Ces echantillons peuvent etre recuperes a partir de videos sur les reseaux sociaux, de messages vocaux WhatsApp, de podcasts, d'interviews en ligne ou meme d'un simple appel telephonique ou la victime dit "Allo ?".

Les scenarios d'arnaque

L'arnaque au proche en detresse :

Vous recevez un appel. La voix de votre fils ou de votre fille, paniquee, vous dit :

"Maman, c'est moi, j'ai eu un accident, je suis a l'hopital,
j'ai besoin que tu envoies de l'argent tout de suite pour
les frais. S'il te plait, ne dis rien a papa."

La voix est celle de votre enfant. Les intonations, les tics de langage, tout correspond. Pourtant, c'est une voix generee par IA.

L'arnaque au dirigeant d'entreprise :

Le directeur appelle le comptable par telephone. Sa voix est reconnaissable. Il demande un virement urgent sur un nouveau compte. Le comptable s'execute sans se mefier.

| Type d'arnaque | Cible | Prejudice moyen | |---------------|-------|----------------| | Faux proche en detresse | Particuliers (parents, grands-parents) | 2 500€ | | Faux PDG (fraude au president) | Entreprises (service comptable) | 150 000€ | | Faux conseiller bancaire | Particuliers | 8 000€ | | Fausse demande de rancon | Particuliers | 5 000€ |

Les fausses celebrites et les arnaques crypto

Le schema classique

Des videos deepfake de celebrites circulent massivement sur les reseaux sociaux, en particulier sur Facebook, Instagram, TikTok et YouTube. Ces videos montrent des personnalites connues -- Elon Musk, Emmanuel Macron, des presentateurs television francais -- qui recommandent un investissement "revolutionnaire" en cryptomonnaie.

Le mecanisme :

  1. Une publicite sponsorisee apparait dans votre fil d'actualite
  2. La video montre une celebrite qui explique comment elle a fait fortune
  3. Un lien vous dirige vers une plateforme d'investissement frauduleuse
  4. Vous investissez un petit montant, les faux gains s'affichent
  5. On vous pousse a investir davantage
  6. Quand vous tentez de retirer votre argent, la plateforme disparait

Les indices qui trahissent ces deepfakes

  • Les levres ne sont pas parfaitement synchronisees avec la voix
  • Le regard est parfois fixe ou manque de naturel
  • Les mouvements de tete sont limites ou saccades
  • L'eclairage du visage ne correspond pas a l'environnement
  • La video est de faible resolution pour masquer les imperfections
  • La celebrite "recommande" un produit sans rapport avec son domaine

Aucune celebrite ne vous recommandera un investissement via une publicite sur les reseaux sociaux. Les videos de personnalites promouvant des plateformes de crypto ou des opportunites d'investissement sont systematiquement des deepfakes. Ne cliquez jamais sur ces publicites.

Comment detecter un deepfake

Les indices visuels (video)

  1. Les yeux : clignements irreguliers, reflets absents ou incoherents dans les pupilles
  2. Les contours du visage : flou ou distorsion autour de la machoire, des oreilles ou de la ligne des cheveux
  3. Les dents : souvent mal rendues, floues ou uniformes
  4. La symetrie : les deepfakes produisent parfois des visages trop symetriques
  5. Les mouvements : gestes saccades, tete qui tourne de maniere non naturelle
  6. L'eclairage : ombres incoherentes sur le visage par rapport au reste de la scene

Les indices sonores (voix clonee)

  • Intonation legerement monotone ou "metallique"
  • Pauses anormales entre les phrases
  • Difficulte a prononcer certains mots complexes ou noms propres
  • Absence de bruits de fond naturels
  • Reponses legerement decalees dans le temps lors d'une conversation

Les outils de detection

| Outil | Type | Utilisation | |-------|------|------------| | Microsoft Video Authenticator | Detection video | Analyse les images pour detecter les manipulations | | Sensity AI | Detection multi-format | Identifie les deepfakes dans les videos et les images | | Hive Moderation | API de detection | Integration pour les plateformes et entreprises | | Deepware Scanner | Application mobile | Permet de verifier une video depuis son telephone | | Reality Defender | Solution entreprise | Protection en temps reel contre les deepfakes |

Comment se proteger au quotidien

Pour les particuliers

  1. Etablissez un mot de passe verbal avec vos proches pour les situations d'urgence
  2. Ne faites pas confiance a une video ou un appel vocal inhabituel, meme si la voix semble familiere
  3. Verifiez par un autre canal : si quelqu'un vous appelle, raccrochez et rappelez sur le numero habituel
  4. Limitez vos contenus publics : moins il y a de videos et d'audios de vous en ligne, plus le clonage est difficile
  5. Mefiez-vous des publicites avec des celebrites recommandant des investissements

Pour les entreprises

  1. Instaurez une procedure de double validation pour tout virement superieur a un seuil defini
  2. Formez vos equipes a la menace deepfake
  3. N'acceptez jamais un changement de RIB demande par visioconference seule
  4. Utilisez des mots de code internes pour valider les demandes sensibles
  5. Deployez des outils de detection de deepfakes sur vos systemes de visioconference

La regle la plus importante face aux deepfakes : ne jamais prendre de decision financiere sur la base d'un seul canal de communication, que ce soit un appel vocal, un appel video ou un message. Confirmez toujours par un second canal independant.

Que faire si vous etes victime

  1. Contactez votre banque immediatement si un virement a ete effectue
  2. Deposez plainte au commissariat en precisant l'utilisation de deepfake
  3. Signalez sur cybermalveillance.gouv.fr
  4. Conservez toutes les preuves : captures d'ecran, enregistrements, historique d'appels
  5. Signalez les contenus deepfake sur les plateformes ou ils ont ete publies
  6. Prevenez votre entourage pour eviter que d'autres personnes soient victimes

Vous avez recu un message ou un email suspect lie a une arnaque deepfake ? Utilisez notre analyseur pour verifier le contenu du message et identifier les signaux de fraude.

Analyser un email

En resume

Les deepfakes et le clonage vocal representent une evolution majeure dans l'arsenal des escrocs. La video et la voix, autrefois gages d'authenticite, ne sont plus des preuves fiables d'identite. La meilleure protection reste la verification systematique par un canal independant avant toute action sensible. Etablissez des mots de passe verbaux avec vos proches, instaurez des procedures de double validation en entreprise et gardez a l'esprit qu'en 2026, tout contenu audio ou video peut etre fabrique.

Articles similaires