Windows 10 fête ses 10 ans ! Retour sur une décennie d'évolution, d'innovations et de choix décisifs pour l'un des systèmes les plus populaires de Microsoft.
Bon, autant vous le dire tout de suite : on est tous nuls. Microsoft vient de publier une étude qui prouve scientifiquement que l’humanité entière est incapable de distinguer une vraie photo d’une image générée par IA. Avec 62% de réussite sur 287 000 tests, on fait à peine mieux qu’une pièce de monnaie. Voilà, c’est dit.
Le Microsoft AI for Good Lab a en effet eu la brillante idée de transformer notre incompétence collective en données scientifiques. Plus de 12 500 cobayes du monde entier ont participé à leur jeu “Real or Not”, et les résultats sont… comment dire… humiliants.
Le plus marrant dans cette histoire c’est que les trois images qui ont le plus trompé les participants étaient… de vraies photos ! Et les scores les plus catastrophiques (12%, 14% et 18% de bonnes réponses) concernaient des clichés authentiques de l’armée américaine. Donc apparemment, quand on voit des militaires dans des décors inhabituels avec des éclairages bizarres, notre premier réflexe c’est de crier au deepfake.
On est quand même légèrement meilleurs pour reconnaître les humains (65% de réussite) que les paysages (59%). En effet, notre cerveau, câblé depuis la préhistoire pour repérer les visages, nous donne un maigre avantage de 6%. C’est ça, notre superpouvoir face aux machines. Ouin.
Les images créées par GAN (Generative Adversarial Network) sont les championnes toutes catégories de la duperie. Avec seulement 55% de détection correcte, c’est pile ou face avec un léger biais. Les deepfakes qui montrent des profils ou qui insèrent des éléments IA dans de vraies photos sont d’ailleurs particulièrement vicieux.
Et pendant ce temps, les IA de détection, elles, cartonnent. Les meilleures atteignent 87% de réussite, et certaines techniques comme l’analyse PRNU montent à 95%, voire 98% avec l’ELA (Error Level Analysis). En gros, on a créé des IA pour faire des fausses images, puis d’autres IA pour les détecter, et nous au milieu on est juste… largués.
Ce qui devrait vraiment nous alerter, c’est la vitesse à laquelle ces outils progressent car l’étude précise que leurs résultats “surestiment probablement la capacité actuelle des gens à distinguer les images IA des vraies”. Traduction : depuis que l’étude a été menée, les générateurs d’images sont devenus encore meilleurs, et nous sommes probablement encore plus nuls qu’avant.
Les chercheurs nous rappellent aussi gentiment qu’avant, il fallait être un expert avec des heures de travail pour créer un fake convaincant et maintenant, n’importe quel andouille avec ChatGPT ou Midjourney peut pondre une image photoréaliste en tapant trois mots. Bref, l’époque où on pouvait dire “ça se voit que c’est faux, regarde les mains” est officiellement révolue.
Screenshot
Mais ne désespérez pas totalement car les scientifiques travaillent sur des solutions : watermarks invisibles, outils de détection automatique, métadonnées certifiées… Mais en attendant que ces technologies se démocratisent, on va devoir vivre avec cette réalité qui est qu’on ne peut plus faire confiance à nos yeux.
Alors, vous voulez tester votre nullité ?
Le quiz Real or Not est toujours en ligne. Préparez-vous psychologiquement car statistiquement, vous devriez faire moins bien qu’un lancer de pièce amélioré. Mais au moins, vous saurez précisément à quel point vous êtes nul. C’est déjà ça.
Perso, j’ai fait le test et je m’en sors mieux que 71% des gens. J’ai réussi avec un score de 80% alors je compte sur vous pour faire mieux que moi !
L’étude complète est disponible sur arXiv pour les curieux. Vous reprendrez bien un peu d’humilité avec votre café ?
Windows 10 has been on the market for 10 whole years. That's a long time, so why not test how well you know the OS with our expert quiz? We bet you won't get them all right!
Microsoft has introduced Copilot Mode, an experimental feature designed to transform Microsoft Edge into a web browser powered by artificial intelligence (AI). [...]
Windows 10 celebrates its 10-year anniversary and simultaneously prepares for its death, but Microsoft's ambitions of a unified platform still echo across my office.
From modern app platforms to forced feature upgrades and telemetry concerns, we take a look at 10 of Windows 10's most controversial and defining moments on its 10th anniversary.
Operese is a Windows-to-Linux migration tool that lets users make the transition to the free and open-source operating system with all their files, settings, and installed apps.
The latest Windows 11 preview build finally enables the ability to view the notification center and calendar flyout from the Taskbar on secondary monitors.
Copilot Mode in Microsoft Edge is a new experimental feature that transforms the browser into an agentic AI experience, but it's only free for a limited time.
Attackers could use a recently patched macOS vulnerability to bypass Transparency, Consent, and Control (TCC) security checks and steal sensitive user information, including Apple Intelligence cached data. [...]
Mais bordel, on attend quoi pour se réveiller en France ?
Microsoft vient littéralement d’avouer devant le Sénat français qu’ils ne pouvaient PAS garantir que nos données restent bien chez nous. Et cela sous serment devant nos sénateurs probablement en pleine digestion.
Et on fait quoi ? Et bah RIEN.
C’était le 18 juin dernier, qu’Anton Carniaux, directeur des affaires publiques et juridiques de Microsoft France, a été auditionné par la commission d’enquête sénatoriale sur la commande publique. La question était simple : “Pouvez-vous nous garantir, sous serment, que les données des citoyens français ne peuvent pas être transmises au gouvernement américain sans l’accord explicite du gouvernement français ?”
Sa réponse ?
“Non, je ne peux pas le garantir.” BOUM. Voilà. C’est dit. Mais bon, apparemment à par moi, ça ne dérange personne.
Le Cloud Act, cette loi américaine de 2018, donne en effet le pouvoir au gouvernement US de récupérer TOUTES les données stockées par des entreprises américaines. Peu importe où elles sont physiquement.
Vos données médicales chez Microsoft Azure en France ? Les Américains peuvent les demander. Vos documents administratifs sensibles ? C’est pareil. Vos secrets industriels ? Allez, cadeau ! Et le pire dans tout ça c’est qu’on le sait depuis des années. Le Cloud Act est incompatible avec le RGPD européen puisque l’article 48 du RGPD dit clairement qu’aucune décision d’une juridiction étrangère ne peut forcer le transfert de données sans accord international. Mais le Cloud Act s’en tape royalement.
Et pendant ce temps, qu’est-ce qu’on fait en France ? Et bien on signe des contrats à 74 millions d’euros avec Microsoft pour l’Éducation nationale. On leur confie les données de santé des Français via le Health Data Hub. On migre nos administrations sur Microsoft 365. C’est du suicide de nos données personnelles, purement et simplement.
Et les excuses de Microsoft sont pathétiques : “On résiste aux demandes infondées”, “On demande à rediriger vers le client”…etc. Mais à la fin, s’ils reçoivent une injonction légale américaine, ils DOIVENT obéir. Point final.
Et ne me sortez pas l’argument du “ça n’est jamais arrivé” car c’est exactement ce qu’on disait avant Snowden, avant PRISM, bref, avant qu’on découvre l’ampleur de la surveillance américaine ou encore de l’existence des tribunaux secrets. Donc le fait que ça ne soit pas encore arrivé ne veut pas dire que ça n’arrivera pas. Surtout avec Trump au pouvoir.
La solution existe pourtant… Des hébergeurs français, des clouds européens : OVH, Scaleway, et des dizaines d’alternatives qui ne sont PAS soumises au Cloud Act. Mais non, on préfère donner nos millions à Microsoft parce que c’est “plus pratique” ou que parce que “tout le monde fait ça”.
Alors c’est quoi la prochaine étape du coup ? On va attendre qu’un scandale éclate ? Que les données médicales de millions de Français se retrouvent entre les mains de la NSA ? Que des secrets industriels français soient “mystérieusement” récupérés par des concurrents américains ? AWS et Google font exactement la même chose d’ailleurs. Ils tentent de nous rassurer avec leurs “clouds souverains” mais c’est du pipeau car tant qu’ils sont américains, ils sont soumis au Cloud Act, c’est aussi simple que ça.
Ce qui me rend dingue, c’est qu’on a TOUTES les cartes en main. L’Europe est un marché énorme et on pourrait imposer nos conditions, exiger de vraies garanties, développer nos propres solutions…etc… Mais non, on préfère se coucher devant les GAFAM et devant les Etats-Unis.
Il est temps je pense de dire STOP et d’arrêter ces contrats débiles avec des entreprises qui ne peuvent même pas garantir la protection de nos données. Ce serait bien de soutenir les acteurs européens du cloud, de respecter l’article 48 du RGPD et de commencer à construire notre souveraineté numérique au lieu de la brader. Parce que là, on est en train de donner les clés de la maison à des gens qui nous disent en face qu’ils pourront les filer à leur gouvernement quand il le demandera.
J’sais pas si vous avez vu, mais Microsoft vient de dévoiler quelque chose d’absolument incroyable. Non je déconne, c’est encore de la merde et ça s’appelle Windows Recall.
Windows Recall, pour ceux qui auraient raté le début du film, c’est cette fonctionnalité qui prend des screenshots de tout ce que vous faites sur votre PC toutes les quelques secondes. Microsoft nous vend ça comme un outil de productivité pour “retrouver vos pas numériques”. Perso, j’appelle ça Big Brother qui s’installe direct dans votre bécane.
Face à ce délire orwellien, les développeurs des apps qu’on utilise pour justement protéger notre vie privée ont décidé de ne pas se laisser faire. Signal a ouvert le bal en mai dernier, et maintenant Brave et AdGuard viennent grossir les rangs de la résistance.
AdGuard ne mâche pas ses mots et qualifie carrément la fonctionnalité de “dérangeante”. Ils expliquent que même avec les soit-disant garde-fous de Microsoft (authentification Windows Hello, chiffrement, et tout le tralala), il reste des failles béantes. Vous pouvez par exemple accéder à Recall avec juste votre code PIN après la config initiale… Pas de biométrie requise, et les filtres censés protéger vos données sensibles ratent régulièrement des trucs importants comme vos infos bancaires.
Le truc vraiment naze, c’est que Recall capture aussi les messages éphémères de Signal, Telegram ou WhatsApp. Comme ça, quand vous envoyez un message qui doit disparaître, et bien si votre correspondant a Recall activé, hop, c’est stocké pour l’éternité sur son PC. Sympa pour la confidentialité des messages “secrets”, non ?
Heureusement, Microsoft a quand même prévu des moyens pour que les développeurs puissent bloquer cette surveillance. Il y a donc deux méthodes principales : l’API SetInputScope et un flag DRM.
Signal a choisi l’option nucléaire avec le flag DRM. En gros, ils font croire à Windows que leur fenêtre diffuse du contenu protégé par copyright, ce qui empêche toute capture d’écran. C’est radical et ça a l’inconvénient que même les outils légitimes comme les lecteurs d’écran pour l’accessibilité ne peuvent plus fonctionner.
Brave a opté pour une approche plus fine avec l’API SetInputScope. Ils marquent toutes leurs fenêtres avec le flag IS_PRIVATE, ce qui dit à Windows “pas touche, c’est privé”. Comme ça, les captures d’écran normales continuent de marcher, et seul Recall est bloqué. La version 1.81 de Brave avec cette protection sortira le 5 août prochain.
AdGuard pousse le bouchon encore plus loin avec leur version 7.21. Quand vous activez la protection contre le tracking, ça bloque carrément Recall au niveau système. Le truc ne peut même plus se lancer, point barre.
Ce qui me fait marrer (jaune), c’est que les trois apps laissent quand même aux utilisateurs la possibilité de réactiver Recall s’ils le veulent vraiment. Genre “si vous tenez absolument à vous faire surveiller, libre à vous”. Mais bon, qui voudrait faire ça sérieux ?
Cette fronde des développeurs montre bien que les inquiétudes autour de Recall sont légitimes et Microsoft a beau promettre monts et merveilles niveau sécurité, je pense que personne n’est dupe.
Bref, y’a vraiment un sérieux problème avec ce truc…