Vue lecture

Il y a de nouveaux articles disponibles, cliquez pour rafraîchir la page.

Les médias de confiance pourraient tirer profit des faux générés par IA

Je ne l’avais pas forcément anticipé, mais plus l’IA s’amuse à générer de fausses infos, plus les gens se réfugient vers les médias traditionnels. En tout cas, c’est à cette conclusion que sont arrivés les chercheurs de Johns Hopkins, de l’Université nationale de Singapour et de Carnegie Mellon dans une étude publiée récemment .

Ces derniers ont mis en place une collaboration avec Süddeutsche Zeitung , l’un des mastodontes de la presse allemande, pour élaborer un quiz interactif. Le principe c’était de proposer aux lecteurs 5 images et leur demander lesquelles étaient générées par IA. Je vous donne la conclusion direct : 36% des participants ont été incapables d’identifier correctement les fausses images. C’est fou non ?

Et là où ça devient vraiment intéressant, c’est après ce quiz… car une fois confrontés à cette difficulté de distinguer le vrai du faux, les lecteurs ont modifié leur comportement. L’étude montre en effet une augmentation de 2,5% des visites quotidiennes sur le site du journal .

Ça peut paraître peu, mais pour un média en place qui ronronne depuis longtemps, c’est plutôt pas mal. Et comme si ça ne suffisait pas, le taux de désabonnement a également chuté d’un tiers parmi ceux qui ont participé au quiz.

Filipe Campante, l’un des chercheurs de Johns Hopkins, explique que cette sensibilisation crée en fait une prise de conscience car les gens réalisent soudainement la valeur d’avoir des sources fiables dans un océan de contenus douteux. Plus les participants étaient surpris par leur incapacité à distinguer le vrai du faux, plus ils augmentaient leur consommation de contenus vérifiés par la suite.

C’est une forme de vaccination où une petite dose contrôlée de désinformation renforce les défenses de l’esprit critique (Oui, je sais, les “grosses doses” vous ont déjà eu pour certains d’entre vous… snif.)

Et surtout, il semblerait que l’effet persiste dans le temps . Ce n’est donc pas juste un pic temporaire d’intérêt car les lecteurs ont développé une sorte de réflexe de vérification, en se tournant vers des sources fiables quand ils tombaient sur des infos douteuses ailleurs.

Bien sûr, il y a des limites à cette étude car elle a été menée avec un public allemand, déjà habitué à payer pour de l’information de qualité… Faudrait donc voir ce que ça pourrait donner sur le secteur des médias français où tout le monde est habitué à se gaver de confiture gratuite jusqu’à la gerbe…

Quoiqu’il en soit, la tendance de fond reste encourageante.

Pour les médias traditionnels, c’est donc une super opportunité car au lieu de voir l’IA uniquement comme une menace existentielle et de chialer toute la journée sur leur propre sort, ils peuvent l’utiliser comme un argument de différenciation. Cette authenticité peu devenir un sérieux argument marketing et certains journaux commencent déjà à intégrer des modules éducatifs sur la détection de fakes dans leur stratégie d’engagement. C’est pas con, va falloir que j’y pense aussi ^^.

Bref, cette méchante IA, censée remplacer les journalistes et tout ce qui a un cerveau, va peut-être bien finir par renforcer la valeur du journalisme fait par des humains, car les lecteurs ne veulent pas juste de l’information… Non, ils veulent de la confiance. Et pour l’instant (oui, pour l’instant…), cette confiance est encore présente chez les médias qui emploient de vrais journalistes, avec de vraies sources et de vrais processus de vérification…

Quoiqu’il en soit, imaginez ce que pourrait donner si on formait notre jeunesse à tout cela… On pourrait créer une génération beaucoup plus résistante à la désinformation !

Et évidemment, tout cela pourrait s’appliquer à d’autres domaines où l’authenticité devient rare. Je pense par exemple aux artistes qui pourraient bénéficier de cette prolifération d’œuvres générées par IA ou aux photographes qui pourraient voir leur travail à nouveau mis en valeur face aux deepfakes. Visiblement, les gens veulent de l’authenticité donc tout n’est pas foutu, mais bon après, si votre travail est artistiquement sans intérêt et qu’une IA peut faire exactement le même truc que vous, c’est sûr que va falloir vous sortir un peu les doigts ou penser à une reconversion professionnelle.

Voilà, moralité, plus on est bombardé de contenus artificiels, plus on apprécie l’humain qui se cache derrière l’information. En tout cas, pour le moment… ^^

Et n’oubliez pas que vous pouvez suivre mes contenus de confiance et de qualité soit directement sur ce site soit via mon flux RSS .

Source

YouTube vous balance une dose de vidéos marrantes parce que vous êtes trop sérieux

Comme tous les jours, vous êtes sur YouTube, très concentré en plein marathon de vidéos sur les élections ou les conflits géopolitiques, et SOUDAIN, l’algorithme décide de vous offrir une pause. Mais pas une simple pause publicitaire, non. Une pause thérapeutique ! Vous vous retrouvez alors devant une compilation de chiens qui sautent et se gamellent ou un best-of de foirages en skateboard.

C’est une étude menée par l’Université de l’Arkansas qui a analysé pas moins de 685 842 vidéos courtes. Les chercheurs se sont ainsi concentrés sur trois thèmes politiques : les élections de 2024 à Taiwan, le conflit en mer de Chine méridionale et une catégorie générale de contenus politiques. Et vous savez quoi ? Il semblerait que YouTube Shorts guide activement les utilisateurs du contenu politique vers des vidéos de divertissement.

En gros, l’algorithme joue le rôle de baby-sitter numérique et décide que vous avez eu votre dose de sérieux pour la journée.

Pour réalisé cette étude, les chercheurs ont collecté 2 800 vidéos et testé trois scénarios de visionnage : 3 secondes (le scroll rapide), 15 secondes (l’intérêt modéré), et le visionnage complet (vous êtes vraiment accro). Ensuite, ils ont utilisé GPT-4o d’OpenAI pour classer les titres et les transcriptions par sujet, pertinence et ton émotionnel. L’IA qui analyse l’IA qui nous manipule… On vit vraiment dans le futur, les amis.

Mais pourquoi YouTube fait ça ? Les chercheurs pensent que ce n’est pas de la censure intentionnelle. Non, c’est plus basique que ça… En fait, ça augmente l’engagement et ça rapporte plus d’argent car une personne qui regarde des vidéos de chatons reste plus longtemps sur la plateforme qu’une personne déprimée par les actualités politiques. Et donc plus vous restez, plus YouTube gagne de pognon.

Récemment, YouTube a assoupli ses politiques de modération, doublant carrément le seuil de contenu problématique autorisé avant suppression. Auparavant, un quart de contenu douteux suffisait pour dégager une vidéo mais maintenant, il en faut la moitié. YouTube cherche donc un équilibre où il y aurait plus de tolérance pour le contenu politique controversé, mais avec un système de “décompression” par le divertissement.

D’un autre côté, les recherches de UC Davis montrent un aspect plus sombre de la plateforme. Leurs “sock puppets” (100 000 comptes automatisés créés pour l’étude) ont regardé près de 10 millions de vidéos. Et ce qu’il en ressort c’est que l’algorithme peut créer un “effet de boucle” où les utilisateurs se retrouvent piégés dans du contenu de plus en plus extrême. Mais du coup, il semblerait que YouTube ait trouvé la solution en cassant la boucle avec des vidéos de pandas qui éternuent.

Voilà, alors pendant que certains s’inquiètent de la radicalisation politique sur les réseaux sociaux, YouTube a apparemment décidé de jouer les psychologues amateurs, proposant automatiquement du contenu humoristique aux utilisateurs qui consomment beaucoup de vidéos politiques. C’est mignon, non ?

Alors est-ce que YouTube a vraiment le droit de décider de quand nous avons eu assez de politique ? Est-ce que c’est de la manipulation bienveillante, du bon vieux paternalisme algorithmique ? Et surtout, est-ce que ça marche vraiment ?

Je passe très peu de temps à regarder des vidéos sur Youtube, donc je peux pas trop vous dire… Surtout que les news déprimantes ET les best-of de chutes spectaculaires ou de chaton mignon, c’est pas des trucs que je regarde…

Maintenant, peut-être que YouTube a raison… Peut-être qu’on a tous besoin qu’un algo nous rappelle de faire une pause dans tout ce contenu stressant de merde et de regarder quelque chose de plus léger… un peu d’humour forcé, ça ne peut pas faire de mal. Faudrait que Twitter et BlueSky fasse la même, parce que quand je vois la quantité de grincheux là bas, je me dis qu’ils ont aussi besoin de se marrer un peu de temps en temps, les pauvres… ^^

Bref, la prochaine fois que YouTube vous propose une vidéo compilation de conneries après votre marathon d’analyses politiques, vous saurez que ce n’est pas un hasard. C’est l’algorithme qui prend soin de votre santé mentale pour que vous restiez encore plus longtemps pour voir encore plus de pubs !!

Source

Montres connectées et ultrasons : le danger invisible qui menace même les ordinateurs les plus protégés

Des chercheurs israéliens ont prouvé que les montres connectées, objets du quotidien, peuvent servir à dérober des données sensibles depuis des ordinateurs pourtant totalement coupés d’Internet. Leur méthode, baptisée SmartAttack, repose sur la transmission de données par ultrasons et révèle une faille insoupçonnée dans la sécurité des systèmes les plus protégés.

❌