Vue normale

Il y a de nouveaux articles disponibles, cliquez pour rafraîchir la page.
À partir d’avant-hierFlux principal

Les médias de confiance pourraient tirer profit des faux générés par IA

Par : Korben
3 septembre 2025 à 17:53

Je ne l’avais pas forcément anticipé, mais plus l’IA s’amuse à générer de fausses infos, plus les gens se réfugient vers les médias traditionnels. En tout cas, c’est à cette conclusion que sont arrivés les chercheurs de Johns Hopkins, de l’Université nationale de Singapour et de Carnegie Mellon dans une étude publiée récemment .

Ces derniers ont mis en place une collaboration avec Süddeutsche Zeitung , l’un des mastodontes de la presse allemande, pour élaborer un quiz interactif. Le principe c’était de proposer aux lecteurs 5 images et leur demander lesquelles étaient générées par IA. Je vous donne la conclusion direct : 36% des participants ont été incapables d’identifier correctement les fausses images. C’est fou non ?

Et là où ça devient vraiment intéressant, c’est après ce quiz… car une fois confrontés à cette difficulté de distinguer le vrai du faux, les lecteurs ont modifié leur comportement. L’étude montre en effet une augmentation de 2,5% des visites quotidiennes sur le site du journal .

Ça peut paraître peu, mais pour un média en place qui ronronne depuis longtemps, c’est plutôt pas mal. Et comme si ça ne suffisait pas, le taux de désabonnement a également chuté d’un tiers parmi ceux qui ont participé au quiz.

Filipe Campante, l’un des chercheurs de Johns Hopkins, explique que cette sensibilisation crée en fait une prise de conscience car les gens réalisent soudainement la valeur d’avoir des sources fiables dans un océan de contenus douteux. Plus les participants étaient surpris par leur incapacité à distinguer le vrai du faux, plus ils augmentaient leur consommation de contenus vérifiés par la suite.

C’est une forme de vaccination où une petite dose contrôlée de désinformation renforce les défenses de l’esprit critique (Oui, je sais, les “grosses doses” vous ont déjà eu pour certains d’entre vous… snif.)

Et surtout, il semblerait que l’effet persiste dans le temps . Ce n’est donc pas juste un pic temporaire d’intérêt car les lecteurs ont développé une sorte de réflexe de vérification, en se tournant vers des sources fiables quand ils tombaient sur des infos douteuses ailleurs.

Bien sûr, il y a des limites à cette étude car elle a été menée avec un public allemand, déjà habitué à payer pour de l’information de qualité… Faudrait donc voir ce que ça pourrait donner sur le secteur des médias français où tout le monde est habitué à se gaver de confiture gratuite jusqu’à la gerbe…

Quoiqu’il en soit, la tendance de fond reste encourageante.

Pour les médias traditionnels, c’est donc une super opportunité car au lieu de voir l’IA uniquement comme une menace existentielle et de chialer toute la journée sur leur propre sort, ils peuvent l’utiliser comme un argument de différenciation. Cette authenticité peu devenir un sérieux argument marketing et certains journaux commencent déjà à intégrer des modules éducatifs sur la détection de fakes dans leur stratégie d’engagement. C’est pas con, va falloir que j’y pense aussi ^^.

Bref, cette méchante IA, censée remplacer les journalistes et tout ce qui a un cerveau, va peut-être bien finir par renforcer la valeur du journalisme fait par des humains, car les lecteurs ne veulent pas juste de l’information… Non, ils veulent de la confiance. Et pour l’instant (oui, pour l’instant…), cette confiance est encore présente chez les médias qui emploient de vrais journalistes, avec de vraies sources et de vrais processus de vérification…

Quoiqu’il en soit, imaginez ce que pourrait donner si on formait notre jeunesse à tout cela… On pourrait créer une génération beaucoup plus résistante à la désinformation !

Et évidemment, tout cela pourrait s’appliquer à d’autres domaines où l’authenticité devient rare. Je pense par exemple aux artistes qui pourraient bénéficier de cette prolifération d’œuvres générées par IA ou aux photographes qui pourraient voir leur travail à nouveau mis en valeur face aux deepfakes. Visiblement, les gens veulent de l’authenticité donc tout n’est pas foutu, mais bon après, si votre travail est artistiquement sans intérêt et qu’une IA peut faire exactement le même truc que vous, c’est sûr que va falloir vous sortir un peu les doigts ou penser à une reconversion professionnelle.

Voilà, moralité, plus on est bombardé de contenus artificiels, plus on apprécie l’humain qui se cache derrière l’information. En tout cas, pour le moment… ^^

Et n’oubliez pas que vous pouvez suivre mes contenus de confiance et de qualité soit directement sur ce site soit via mon flux RSS .

Source

YouTube vous balance une dose de vidéos marrantes parce que vous êtes trop sérieux

Par : Korben
2 septembre 2025 à 07:42

Comme tous les jours, vous êtes sur YouTube, très concentré en plein marathon de vidéos sur les élections ou les conflits géopolitiques, et SOUDAIN, l’algorithme décide de vous offrir une pause. Mais pas une simple pause publicitaire, non. Une pause thérapeutique ! Vous vous retrouvez alors devant une compilation de chiens qui sautent et se gamellent ou un best-of de foirages en skateboard.

C’est une étude menée par l’Université de l’Arkansas qui a analysé pas moins de 685 842 vidéos courtes. Les chercheurs se sont ainsi concentrés sur trois thèmes politiques : les élections de 2024 à Taiwan, le conflit en mer de Chine méridionale et une catégorie générale de contenus politiques. Et vous savez quoi ? Il semblerait que YouTube Shorts guide activement les utilisateurs du contenu politique vers des vidéos de divertissement.

En gros, l’algorithme joue le rôle de baby-sitter numérique et décide que vous avez eu votre dose de sérieux pour la journée.

Pour réalisé cette étude, les chercheurs ont collecté 2 800 vidéos et testé trois scénarios de visionnage : 3 secondes (le scroll rapide), 15 secondes (l’intérêt modéré), et le visionnage complet (vous êtes vraiment accro). Ensuite, ils ont utilisé GPT-4o d’OpenAI pour classer les titres et les transcriptions par sujet, pertinence et ton émotionnel. L’IA qui analyse l’IA qui nous manipule… On vit vraiment dans le futur, les amis.

Mais pourquoi YouTube fait ça ? Les chercheurs pensent que ce n’est pas de la censure intentionnelle. Non, c’est plus basique que ça… En fait, ça augmente l’engagement et ça rapporte plus d’argent car une personne qui regarde des vidéos de chatons reste plus longtemps sur la plateforme qu’une personne déprimée par les actualités politiques. Et donc plus vous restez, plus YouTube gagne de pognon.

Récemment, YouTube a assoupli ses politiques de modération, doublant carrément le seuil de contenu problématique autorisé avant suppression. Auparavant, un quart de contenu douteux suffisait pour dégager une vidéo mais maintenant, il en faut la moitié. YouTube cherche donc un équilibre où il y aurait plus de tolérance pour le contenu politique controversé, mais avec un système de “décompression” par le divertissement.

D’un autre côté, les recherches de UC Davis montrent un aspect plus sombre de la plateforme. Leurs “sock puppets” (100 000 comptes automatisés créés pour l’étude) ont regardé près de 10 millions de vidéos. Et ce qu’il en ressort c’est que l’algorithme peut créer un “effet de boucle” où les utilisateurs se retrouvent piégés dans du contenu de plus en plus extrême. Mais du coup, il semblerait que YouTube ait trouvé la solution en cassant la boucle avec des vidéos de pandas qui éternuent.

Voilà, alors pendant que certains s’inquiètent de la radicalisation politique sur les réseaux sociaux, YouTube a apparemment décidé de jouer les psychologues amateurs, proposant automatiquement du contenu humoristique aux utilisateurs qui consomment beaucoup de vidéos politiques. C’est mignon, non ?

Alors est-ce que YouTube a vraiment le droit de décider de quand nous avons eu assez de politique ? Est-ce que c’est de la manipulation bienveillante, du bon vieux paternalisme algorithmique ? Et surtout, est-ce que ça marche vraiment ?

Je passe très peu de temps à regarder des vidéos sur Youtube, donc je peux pas trop vous dire… Surtout que les news déprimantes ET les best-of de chutes spectaculaires ou de chaton mignon, c’est pas des trucs que je regarde…

Maintenant, peut-être que YouTube a raison… Peut-être qu’on a tous besoin qu’un algo nous rappelle de faire une pause dans tout ce contenu stressant de merde et de regarder quelque chose de plus léger… un peu d’humour forcé, ça ne peut pas faire de mal. Faudrait que Twitter et BlueSky fasse la même, parce que quand je vois la quantité de grincheux là bas, je me dis qu’ils ont aussi besoin de se marrer un peu de temps en temps, les pauvres… ^^

Bref, la prochaine fois que YouTube vous propose une vidéo compilation de conneries après votre marathon d’analyses politiques, vous saurez que ce n’est pas un hasard. C’est l’algorithme qui prend soin de votre santé mentale pour que vous restiez encore plus longtemps pour voir encore plus de pubs !!

Source

On est officiellement des nuls pour détecter les images IA

Par : Korben
30 juillet 2025 à 08:47

Bon, autant vous le dire tout de suite : on est tous nuls. Microsoft vient de publier une étude qui prouve scientifiquement que l’humanité entière est incapable de distinguer une vraie photo d’une image générée par IA. Avec 62% de réussite sur 287 000 tests, on fait à peine mieux qu’une pièce de monnaie. Voilà, c’est dit.

Le Microsoft AI for Good Lab a en effet eu la brillante idée de transformer notre incompétence collective en données scientifiques. Plus de 12 500 cobayes du monde entier ont participé à leur jeu “Real or Not”, et les résultats sont… comment dire… humiliants.

Le plus marrant dans cette histoire c’est que les trois images qui ont le plus trompé les participants étaient… de vraies photos ! Et les scores les plus catastrophiques (12%, 14% et 18% de bonnes réponses) concernaient des clichés authentiques de l’armée américaine. Donc apparemment, quand on voit des militaires dans des décors inhabituels avec des éclairages bizarres, notre premier réflexe c’est de crier au deepfake.

On est quand même légèrement meilleurs pour reconnaître les humains (65% de réussite) que les paysages (59%). En effet, notre cerveau, câblé depuis la préhistoire pour repérer les visages, nous donne un maigre avantage de 6%. C’est ça, notre superpouvoir face aux machines. Ouin.

Les images créées par GAN (Generative Adversarial Network) sont les championnes toutes catégories de la duperie. Avec seulement 55% de détection correcte, c’est pile ou face avec un léger biais. Les deepfakes qui montrent des profils ou qui insèrent des éléments IA dans de vraies photos sont d’ailleurs particulièrement vicieux.

Et pendant ce temps, les IA de détection, elles, cartonnent. Les meilleures atteignent 87% de réussite, et certaines techniques comme l’analyse PRNU montent à 95%, voire 98% avec l’ELA (Error Level Analysis). En gros, on a créé des IA pour faire des fausses images, puis d’autres IA pour les détecter, et nous au milieu on est juste… largués.

Ce qui devrait vraiment nous alerter, c’est la vitesse à laquelle ces outils progressent car l’étude précise que leurs résultats “surestiment probablement la capacité actuelle des gens à distinguer les images IA des vraies”. Traduction : depuis que l’étude a été menée, les générateurs d’images sont devenus encore meilleurs, et nous sommes probablement encore plus nuls qu’avant.

Les chercheurs nous rappellent aussi gentiment qu’avant, il fallait être un expert avec des heures de travail pour créer un fake convaincant et maintenant, n’importe quel andouille avec ChatGPT ou Midjourney peut pondre une image photoréaliste en tapant trois mots. Bref, l’époque où on pouvait dire “ça se voit que c’est faux, regarde les mains” est officiellement révolue.

Screenshot

Mais ne désespérez pas totalement car les scientifiques travaillent sur des solutions : watermarks invisibles, outils de détection automatique, métadonnées certifiées… Mais en attendant que ces technologies se démocratisent, on va devoir vivre avec cette réalité qui est qu’on ne peut plus faire confiance à nos yeux.

Alors, vous voulez tester votre nullité ?

Le quiz Real or Not est toujours en ligne. Préparez-vous psychologiquement car statistiquement, vous devriez faire moins bien qu’un lancer de pièce amélioré. Mais au moins, vous saurez précisément à quel point vous êtes nul. C’est déjà ça.

Perso, j’ai fait le test et je m’en sors mieux que 71% des gens. J’ai réussi avec un score de 80% alors je compte sur vous pour faire mieux que moi !

L’étude complète est disponible sur arXiv pour les curieux. Vous reprendrez bien un peu d’humilité avec votre café ?

Source : Windows Central

Les Français pensent être nuls en cybersécurité… et ils n’ont pas tort

25 juillet 2025 à 10:52

Près d’un salarié français sur deux a déjà été victime d’une cyberattaque réussie : voilà le constat que dresse KnowBe4 dans un rapport publié le 24 juillet 2025. Selon la société de cybersécurité américaine, les Français se sentiraient moins armés que d'autres salariés dans le monde face au cybermenaces.

ChatGPT vous renvoie vers de mauvaises URLs et c’est formidable pour les hackers

3 juillet 2025 à 11:45

Une étude de la société de cybersécurité Netcraft révèle que des cybercriminels exploitent les errances des LLMs comme ChatGPT ou Perplexity. Cette nouvelle méthode de piratage repose sur les faux liens renvoyés par les IA génératives.

Montres connectées et ultrasons : le danger invisible qui menace même les ordinateurs les plus protégés

12 juin 2025 à 11:43

Des chercheurs israéliens ont prouvé que les montres connectées, objets du quotidien, peuvent servir à dérober des données sensibles depuis des ordinateurs pourtant totalement coupés d’Internet. Leur méthode, baptisée SmartAttack, repose sur la transmission de données par ultrasons et révèle une faille insoupçonnée dans la sécurité des systèmes les plus protégés.

❌
❌