Pour la première fois, en juillet 2025, des scientifiques chinois sont descendus via un submersible à près de 10 000 mètres sous l'océan. Ces zones ont révélé des microorganismes survivants grâce à des réactions chimiques et non grâce à du carbone. Ces découvertes ont remis en cause toutes les croyances établies jusqu'à présent sur le cycle du carbone en haute mer.
Des scientifiques de l'université de Nottingham ont réussi à maîtriser en laboratoire le goût final du chocolat produit. Leur secret ? Contrôler et maitriser la fermentation des fèves de cacao !
Année après année, Mercure se contracte et perd quelques kilomètres de diamètre. Une étude tente de comprendre à quel point la planète a diminué depuis sa formation, en étudiant de près les fissures à sa surface.
Bon, autant vous le dire tout de suite : on est tous nuls. Microsoft vient de publier une étude qui prouve scientifiquement que l’humanité entière est incapable de distinguer une vraie photo d’une image générée par IA. Avec 62% de réussite sur 287 000 tests, on fait à peine mieux qu’une pièce de monnaie. Voilà, c’est dit.
Le Microsoft AI for Good Lab a en effet eu la brillante idée de transformer notre incompétence collective en données scientifiques. Plus de 12 500 cobayes du monde entier ont participé à leur jeu “Real or Not”, et les résultats sont… comment dire… humiliants.
Le plus marrant dans cette histoire c’est que les trois images qui ont le plus trompé les participants étaient… de vraies photos ! Et les scores les plus catastrophiques (12%, 14% et 18% de bonnes réponses) concernaient des clichés authentiques de l’armée américaine. Donc apparemment, quand on voit des militaires dans des décors inhabituels avec des éclairages bizarres, notre premier réflexe c’est de crier au deepfake.
On est quand même légèrement meilleurs pour reconnaître les humains (65% de réussite) que les paysages (59%). En effet, notre cerveau, câblé depuis la préhistoire pour repérer les visages, nous donne un maigre avantage de 6%. C’est ça, notre superpouvoir face aux machines. Ouin.
Les images créées par GAN (Generative Adversarial Network) sont les championnes toutes catégories de la duperie. Avec seulement 55% de détection correcte, c’est pile ou face avec un léger biais. Les deepfakes qui montrent des profils ou qui insèrent des éléments IA dans de vraies photos sont d’ailleurs particulièrement vicieux.
Et pendant ce temps, les IA de détection, elles, cartonnent. Les meilleures atteignent 87% de réussite, et certaines techniques comme l’analyse PRNU montent à 95%, voire 98% avec l’ELA (Error Level Analysis). En gros, on a créé des IA pour faire des fausses images, puis d’autres IA pour les détecter, et nous au milieu on est juste… largués.
Ce qui devrait vraiment nous alerter, c’est la vitesse à laquelle ces outils progressent car l’étude précise que leurs résultats “surestiment probablement la capacité actuelle des gens à distinguer les images IA des vraies”. Traduction : depuis que l’étude a été menée, les générateurs d’images sont devenus encore meilleurs, et nous sommes probablement encore plus nuls qu’avant.
Les chercheurs nous rappellent aussi gentiment qu’avant, il fallait être un expert avec des heures de travail pour créer un fake convaincant et maintenant, n’importe quel andouille avec ChatGPT ou Midjourney peut pondre une image photoréaliste en tapant trois mots. Bref, l’époque où on pouvait dire “ça se voit que c’est faux, regarde les mains” est officiellement révolue.
Screenshot
Mais ne désespérez pas totalement car les scientifiques travaillent sur des solutions : watermarks invisibles, outils de détection automatique, métadonnées certifiées… Mais en attendant que ces technologies se démocratisent, on va devoir vivre avec cette réalité qui est qu’on ne peut plus faire confiance à nos yeux.
Alors, vous voulez tester votre nullité ?
Le quiz Real or Not est toujours en ligne. Préparez-vous psychologiquement car statistiquement, vous devriez faire moins bien qu’un lancer de pièce amélioré. Mais au moins, vous saurez précisément à quel point vous êtes nul. C’est déjà ça.
Perso, j’ai fait le test et je m’en sors mieux que 71% des gens. J’ai réussi avec un score de 80% alors je compte sur vous pour faire mieux que moi !
L’étude complète est disponible sur arXiv pour les curieux. Vous reprendrez bien un peu d’humilité avec votre café ?
Près d’un salarié français sur deux a déjà été victime d’une cyberattaque réussie : voilà le constat que dresse KnowBe4 dans un rapport publié le 24 juillet 2025. Selon la société de cybersécurité américaine, les Français se sentiraient moins armés que d'autres salariés dans le monde face au cybermenaces.
Une étude de la société de cybersécurité Netcraft révèle que des cybercriminels exploitent les errances des LLMs comme ChatGPT ou Perplexity. Cette nouvelle méthode de piratage repose sur les faux liens renvoyés par les IA génératives.
Des chercheurs israéliens ont prouvé que les montres connectées, objets du quotidien, peuvent servir à dérober des données sensibles depuis des ordinateurs pourtant totalement coupés d’Internet. Leur méthode, baptisée SmartAttack, repose sur la transmission de données par ultrasons et révèle une faille insoupçonnée dans la sécurité des systèmes les plus protégés.