Vue normale

Il y a de nouveaux articles disponibles, cliquez pour rafraîchir la page.
À partir d’avant-hierFlux principal

3 astuces de cybersécurité pour repérer un deepfake lors d’une visioconférence

21 avril 2024 à 20:02

Les premières escroqueries à base de deepfake ont fait la une des médias. Si ces arnaques restent rares, les experts en cybersécurité invitent déjà les employés à retenir quelques règles pour repérer ces faux intervenants.

3 astuces de cybersécurité pour repérer un deepfake lors d’une visioconférence

21 avril 2024 à 20:02

Les premières escroqueries à base de deepfake ont fait la une des médias. Si ces arnaques restent rares, les experts en cybersécurité invitent déjà les employés à retenir quelques règles pour repérer ces faux intervenants.

Attention aux Deep ‘Cyprien’ Fakes !

Par : Korben
15 avril 2024 à 14:34

Vous en avez sûrement entendu parler ces derniers mois, le célèbre Youtubeur Cyprien est au cœur d’une polémique malgré lui. En effet, son image a été utilisée dans des deepfakes pour faire la promotion de jeux mobiles plus que douteux.

C’est donc bien une IA (et des humains) qui est derrière ces vidéos détournant l’image de Cyprien pour lui faire dire ce qu’il n’a jamais dit. On le voit notamment vanter les mérites d’une app soi-disant révolutionnaire pour gagner de l’argent facilement. Le souci, c’est que cette app sent l’arnaque à plein nez…

Résultat des courses, Cyprien s’est senti obligé de réagir pour démentir son implication dans ces pubs. À travers une vidéo mi-sérieuse mi-humoristique, il met en garde contre les dérives de l’IA et des deepfakes.

C’est quand même flippant de voir son image utilisée à son insu pour promouvoir des trucs plus que limite. Rien que le fait qu’il soit obligé de démentir montre à quel point un deepfake peut semer le doute dans l’esprit des gens, donc il fait bien de sonner l’alerte à travers sa vidéo.

Et c’est là qu’on se rend compte à quel point ces technologies peuvent être dangereuses si elles tombent entre de mauvaises mains. Aujourd’hui c’est Cyprien qui trinque, mais demain ça pourrait être n’importe qui d’entre nous. En attendant, méfiance quand vous voyez une vidéo d’une célébrité qui fait la promo d’un produit. Surtout si c’est pour une app ou un vpn (ah non, pas un vpn ^^). Y’a 9 chances sur 10 pour que ce soit un deepfake !

Perso, je l’ai trouvé au top cette vidéo, donc comme d’hab, je fais tourner.

Amandine Le Pen, l’influenceuse d’extrême droite qui n’existe pas

12 avril 2024 à 17:27

Amandine Le Pen, Chloé Le Pen, Léna Maréchal… Sur TikTok, plusieurs vidéos virales présentent les vies des nièces de Marine Le Pen, qui utilisent le réseau social pour défendre leur « famille » et les idées du Rassemblement national. Il s'agit en réalité de deepfakes, créés avec une intelligence artificielle.

LastPass – Un attaque deepfake ratée a ciblé un employé

Par : Korben
12 avril 2024 à 11:12

Les arnaques vocales à base de deep fake comment à se démocratiser. Même les employés des boîtes de sécurité comme LastPass peuvent se faire avoir. Enfin, presque…

Car oui, récemment, un des leurs s’est fait appeler par un escroc qui imitait à la perfection la voix du big boss, Karim Toubba. Le gars a utilisé un deepfake audio assez sophistiqué pour se faire passer pour le PDG. Mais heureusement, l’employé a flairé l’entourloupe parce que le pirate a fait l’erreur d’utiliser WhatsApp pour son petit numéro de magie, ce qui n’est pas très corporate et bien vu chez Lastpass.

En plus, il mettait la pression avec une fausse urgence. Bref, tous les voyants étaient au rouge.

L’employé a donc envoyé balader l’arnaqueur et a prévenu la sécurité interne, comme ça, pas de dégâts, mais ça montre bien que ces attaques à base d’IA sont de plus en plus sophistiquées. Pour générer la voix du PDG, le pirate a sûrement dû s’entraîner sur des enregistrements publics, comme cette interview du CEO sur YouTube.

En tout cas, si vous recevez un appel de ma part, sachez que ce ne sera pas moi, car la somme d’argent que vous demandera l’escroc ne sera pas assez élevée par rapport à ce que je vous aurais demandé en vrai. Donc méfiance !

Plus sérieusement, le ministère américain de la Santé a tiré la sonnette d’alarme la semaine dernière sur ces arnaques ciblant les services d’assistance IT. Pour se protéger, ils conseillent de :

  • Rappeler systématiquement pour vérifier une demande de réinitialisation de mot de passe
  • Surveiller les changements suspects de coordonnées bancaires
  • Revalider tous les accès aux sites de paiement
  • Privilégier les demandes en personne pour les sujets sensibles
  • Faire valider les requêtes par un superviseur
  • Former les équipes support à repérer l’ingénierie sociale et vérifier l’identité des appelants

Bref, la vigilance est de mise, alors faites tourner !

Source

Deepfake : d’où viennent les millions d’images trafiquées à caractère sexuel

19 mars 2024 à 17:35

Alors que de plus en plus de personnes, massivement des femmes, sont victimes de deepfakes à caractères sexuels, leur contrôle sur le web devient impossible tant les outils prolifèrent. Numerama a consulté ces chaînes « usines » à détournement de visage.

Kylian Mbappé qui fait la promo d’un jeu de casino en ligne ? C’est une arnaque en deepfake

2 février 2024 à 15:02

Des publicités sur Facebook détournent la voix de Kylian Mbappé ainsi que des présentateurs de journaux télévisés. Le but ? Faire la promotion d'application de jeux en ligne. Les escrocs utilisent des outils de clonage de voix par intelligence artificielle.

❌
❌