Les premières escroqueries à base de deepfake ont fait la une des médias. Si ces arnaques restent rares, les experts en cybersécurité invitent déjà les employés à retenir quelques règles pour repérer ces faux intervenants.
Les premières escroqueries à base de deepfake ont fait la une des médias. Si ces arnaques restent rares, les experts en cybersécurité invitent déjà les employés à retenir quelques règles pour repérer ces faux intervenants.
Vous en avez sûrement entendu parler ces derniers mois, le célèbre Youtubeur Cyprien est au cœur d’une polémique malgré lui. En effet, son image a été utilisée dans des deepfakes pour faire la promotion de jeux mobiles plus que douteux.
C’est donc bien une IA (et des humains) qui est derrière ces vidéos détournant l’image de Cyprien pour lui faire dire ce qu’il n’a jamais dit. On le voit notamment vanter les mérites d’une app soi-disant révolutionnaire pour gagner de l’argent facilement. Le souci, c’est que cette app sent l’arnaque à plein nez…
Résultat des courses, Cyprien s’est senti obligé de réagir pour démentir son implication dans ces pubs. À travers une vidéo mi-sérieuse mi-humoristique, il met en garde contre les dérives de l’IA et des deepfakes.
C’est quand même flippant de voir son image utilisée à son insu pour promouvoir des trucs plus que limite. Rien que le fait qu’il soit obligé de démentir montre à quel point un deepfake peut semer le doute dans l’esprit des gens, donc il fait bien de sonner l’alerte à travers sa vidéo.
Et c’est là qu’on se rend compte à quel point ces technologies peuvent être dangereuses si elles tombent entre de mauvaises mains. Aujourd’hui c’est Cyprien qui trinque, mais demain ça pourrait être n’importe qui d’entre nous. En attendant, méfiance quand vous voyez une vidéo d’une célébrité qui fait la promo d’un produit. Surtout si c’est pour une app ou un vpn (ah non, pas un vpn ^^). Y’a 9 chances sur 10 pour que ce soit un deepfake !
Perso, je l’ai trouvé au top cette vidéo, donc comme d’hab, je fais tourner.
Amandine Le Pen, Chloé Le Pen, Léna Maréchal… Sur TikTok, plusieurs vidéos virales présentent les vies des nièces de Marine Le Pen, qui utilisent le réseau social pour défendre leur « famille » et les idées du Rassemblement national. Il s'agit en réalité de deepfakes, créés avec une intelligence artificielle.
Les arnaques vocales à base de deep fake comment à se démocratiser. Même les employés des boîtes de sécurité comme LastPass peuvent se faire avoir. Enfin, presque…
Car oui, récemment, un des leurs s’est fait appeler par un escroc qui imitait à la perfection la voix du big boss, Karim Toubba. Le gars a utilisé un deepfake audio assez sophistiqué pour se faire passer pour le PDG. Mais heureusement, l’employé a flairé l’entourloupe parce que le pirate a fait l’erreur d’utiliser WhatsApp pour son petit numéro de magie, ce qui n’est pas très corporate et bien vu chez Lastpass.
En plus, il mettait la pression avec une fausse urgence. Bref, tous les voyants étaient au rouge.
L’employé a donc envoyé balader l’arnaqueur et a prévenu la sécurité interne, comme ça, pas de dégâts, mais ça montre bien que ces attaques à base d’IA sont de plus en plus sophistiquées. Pour générer la voix du PDG, le pirate a sûrement dû s’entraîner sur des enregistrements publics, comme cette interview du CEO sur YouTube.
En tout cas, si vous recevez un appel de ma part, sachez que ce ne sera pas moi, car la somme d’argent que vous demandera l’escroc ne sera pas assez élevée par rapport à ce que je vous aurais demandé en vrai. Donc méfiance !
Plus sérieusement, le ministère américain de la Santé a tiré la sonnette d’alarme la semaine dernière sur ces arnaques ciblant les services d’assistance IT. Pour se protéger, ils conseillent de :
Rappeler systématiquement pour vérifier une demande de réinitialisation de mot de passe
Surveiller les changements suspects de coordonnées bancaires
Revalider tous les accès aux sites de paiement
Privilégier les demandes en personne pour les sujets sensibles
Faire valider les requêtes par un superviseur
Former les équipes support à repérer l’ingénierie sociale et vérifier l’identité des appelants
Bref, la vigilance est de mise, alors faites tourner !
Alors que de plus en plus de personnes, massivement des femmes, sont victimes de deepfakes à caractères sexuels, leur contrôle sur le web devient impossible tant les outils prolifèrent. Numerama a consulté ces chaînes « usines » à détournement de visage.
Des publicités sur Facebook détournent la voix de Kylian Mbappé ainsi que des présentateurs de journaux télévisés. Le but ? Faire la promotion d'application de jeux en ligne. Les escrocs utilisent des outils de clonage de voix par intelligence artificielle.