Vue lecture

Il y a de nouveaux articles disponibles, cliquez pour rafraîchir la page.

Vulners Lookup transforme votre navigateur en catalogue de vulnérabilités

Hier, j’étais en train de lire un bulletin de sécurité Microsoft (oui, je sais, passion de ouf) quand j’ai réalisé que je passais pas mal de temps à chercher des infos sur les CVE surtout que les mecs ne mettent pas forcement de liens pour en savoir plus. Bah ouais, la CVE-2024-21762, ça vous parle ? Non ? Normal, personne ne retient ces codes à la con. Mais avec l’extension Vulners Lookup que je viens de découvrir, c’est devenu carrément plus simple.

Le principe est tout bête… L’extension scanne automatiquement toutes les pages web que vous visitez et surligne en orange chaque identifiant CVE qu’elle trouve. Un simple survol avec la souris et boom, vous avez toutes les infos importantes dans une petite carte qui s’affiche : le score CVSS pour la sévérité, l’EPSS pour la probabilité d’exploitation, et même un Score IA qui estime l’impact réel. Comme ça, plus besoin d’ouvrir 15 onglets pour comprendre si une vulnérabilité est vraiment dangereuse ou si c’est juste du bruit.

Pour fonctionner, cette extension utilise la base de données Vulners.com qui agrège plus de 200 sources différentes. Vulners, c’est 250 Go de données sur les vulnérabilités, constamment mise à jour. Et pas besoin de vous créer un compte, pas d’abonnement, c’est gratuit et ça marche direct après l’install.

Pour les techos qui veulent aller plus loin, Vulners propose aussi une API REST pour intégrer ces données dans vos propres outils. Il y a même un plugin Nmap et une extension Burp Suite pour ceux qui font du pentest. Sans oublier la bibliothèque Python mise à jour en août dernier pour automatiser vos recherches de vulnérabilités.

Un truc cool aussi, c’est l’indicateur KEV (Known Exploited Vulnerabilities) qui vous dit si la vulnérabilité fait partie du catalogue CISA des vulnérabilités exploitées . C’est super utile pour prioriser entre une faille avec un CVSS élevé mais pas encore exploitée et une faille avec un score moyen mais activement utilisée…

Pour l’installer, c’est du classique, vous allez sur le Chrome Web Store , vous cliquez sur le bouton d’installation et c’est parti. L’extension demandera juste la permission de lire le contenu des pages pour détecter les CVE, rien de plus. Pas de tracking, pas de collecte de données perso, juste de la détection de patterns CVE-XXXX-XXXXX à l’ancienne.

Bref, pour ceux qui bossent dans la sécu (SOC, équipes IR, pentesters, DevSecOps), c’est clairement un truc à avoir pour éviter de jongler entre les onglets ou de maintenir des bookmarks de bases de vulnérabilités. Tout est accessible en un survol de souris, directement là où vous travaillez.

Amusez-vous bien !

Un astéroïde gros comme un Boeing va nous frôler demain - Suivez le show en direct

Ce soir, pendant que vous serez tranquillement devant Netflix, un rocher de la taille d’un avion de ligne va nous frôler à une vitesse de 45 000 km/h. Mais pas de panique, car on parle quand même de 218 000 kilomètres de distance, soit environ la moitié de la distance Terre-Lune. L’astéroïde 2025 QD8 fait juste son petit passage touristique près de chez nous, et grâce au Virtual Telescope Project, vous allez pouvoir suivre ça en direct depuis votre canapé.

Le Virtual Telescope Project a déjà réussi à capturer une image de ce visiteur cosmique le 30 août dernier, alors qu’il était encore à 3,9 millions de kilomètres. Sur la photo prise avec leur télescope de 17 pouces surnommé “Elena” (J’ai eu une poule qui s’appelait comme ça…RIP), l’astéroïde n’est qu’un minuscule point perdu parmi les étoiles. Mais bon, c’est déjà pas mal d’avoir réussi à choper un caillou de 38 mètres de diamètre à cette distance !

Le moment crucial, c’est demain 3 septembre à 16h56 heure française (10h57 ET). C’est là que 2025 QD8 sera au plus proche de nous. Mais le stream YouTube démarre ce soir à 1h du matin (19h ET le 3 septembre) avec les télescopes robotisés installés à Manciano en Italie. Donc si vous êtes du genre couche-tard ou que vous avez une insomnie, c’est l’occasion parfaite de regarder un astéroïde en temps réel plutôt que de scroller bêtement sur TikTok à la recherche de Live avec des cassos encore plus cassos que vous.

Il parait qu’il y aura aussi des aurores boréales en France, donc vous pouvez faire d’une pierre, 2 coups, en passant le nez par la fenêtre (ne sautez pas !!).

Ce qui est rigolo (ou pas) avec ces passages d’astéroïdes, c’est qu’on en découvre de plus en plus. Selon la NASA , des dizaines de milliers d’astéroïdes ont des trajectoires qui les amènent près de l’orbite terrestre. Le système ATLAS, qui a découvert 2025 QD8, est maintenant capable de scanner l’intégralité du ciel toutes les 24 heures. Ce réseau de quatre télescopes a déjà découvert plus de 700 astéroïdes proches de la Terre et 66 comètes.

D’ailleurs, on vit une époque intéressante pour la détection d’astéroïdes puisque le télescope spatial NEO Surveyor, prévu pour 2027, sera le premier spécifiquement conçu pour traquer ces objets. Il utilisera l’imagerie infrarouge pour détecter même les astéroïdes sombres qui ne reflètent pas beaucoup de lumière visible (comme votre âme ^^). En gros, on aura bientôt un radar spatial qui pourra repérer les cailloux qui arrivent même depuis la direction du Soleil, là où on est actuellement aveugles.

Pour mettre les choses en perspective, 2025 QD8 avec ses 17 à 38 mètres de diamètre, c’est peanuts comparé aux gros machins qui pourraient vraiment nous causer des problèmes (Coucou les dinosaures ! On pense à vous). Un astéroïde de 45 mètres peut être détecté une semaine avant l’impact par ATLAS, et un de 120 mètres trois semaines avant, mais rassurez-vous, le Centre d’Études des Objets Géocroiseurs de la NASA confirme qu’il n’y a aucune menace d’impact significative connue pour les 100 prochaines années . Ça tombe bien, Bruce Willis n’est pas dispo en ce moment…

Le Virtual Telescope Project, c’est donc un peu le Netflix de l’astronomie car depuis 2006, ils permettent à n’importe qui de surfer sur les étoiles depuis son salon. Leur philosophie c’est de rendre l’astronomie accessible à tous, peu importe votre niveau d’expérience. Ils ont plusieurs télescopes, dont des monstres de 14 et 17 pouces, et ils organisent régulièrement des événements en direct comme des éclipses lunaires ou des passages d’astéroïdes comme c’est le cas ce soir.

Alors voilà, si vous voulez voir un astéroïde en direct sans risquer votre vie façon Armageddon, rendez-vous ce soir sur le stream du Virtual Telescope Project. C’est gratuit, c’est sans danger, et franchement, c’est quand même plus classe de dire que vous avez regardé un astéroïde passer près de la Terre plutôt que d’avoir bingé une série. Et qui sait, peut-être que ça vous donnera envie de lever les yeux vers le ciel plus souvent parce qu’il s’y passe des trucs incroyables !

Source

YouTube vous balance une dose de vidéos marrantes parce que vous êtes trop sérieux

Comme tous les jours, vous êtes sur YouTube, très concentré en plein marathon de vidéos sur les élections ou les conflits géopolitiques, et SOUDAIN, l’algorithme décide de vous offrir une pause. Mais pas une simple pause publicitaire, non. Une pause thérapeutique ! Vous vous retrouvez alors devant une compilation de chiens qui sautent et se gamellent ou un best-of de foirages en skateboard.

C’est une étude menée par l’Université de l’Arkansas qui a analysé pas moins de 685 842 vidéos courtes. Les chercheurs se sont ainsi concentrés sur trois thèmes politiques : les élections de 2024 à Taiwan, le conflit en mer de Chine méridionale et une catégorie générale de contenus politiques. Et vous savez quoi ? Il semblerait que YouTube Shorts guide activement les utilisateurs du contenu politique vers des vidéos de divertissement.

En gros, l’algorithme joue le rôle de baby-sitter numérique et décide que vous avez eu votre dose de sérieux pour la journée.

Pour réalisé cette étude, les chercheurs ont collecté 2 800 vidéos et testé trois scénarios de visionnage : 3 secondes (le scroll rapide), 15 secondes (l’intérêt modéré), et le visionnage complet (vous êtes vraiment accro). Ensuite, ils ont utilisé GPT-4o d’OpenAI pour classer les titres et les transcriptions par sujet, pertinence et ton émotionnel. L’IA qui analyse l’IA qui nous manipule… On vit vraiment dans le futur, les amis.

Mais pourquoi YouTube fait ça ? Les chercheurs pensent que ce n’est pas de la censure intentionnelle. Non, c’est plus basique que ça… En fait, ça augmente l’engagement et ça rapporte plus d’argent car une personne qui regarde des vidéos de chatons reste plus longtemps sur la plateforme qu’une personne déprimée par les actualités politiques. Et donc plus vous restez, plus YouTube gagne de pognon.

Récemment, YouTube a assoupli ses politiques de modération, doublant carrément le seuil de contenu problématique autorisé avant suppression. Auparavant, un quart de contenu douteux suffisait pour dégager une vidéo mais maintenant, il en faut la moitié. YouTube cherche donc un équilibre où il y aurait plus de tolérance pour le contenu politique controversé, mais avec un système de “décompression” par le divertissement.

D’un autre côté, les recherches de UC Davis montrent un aspect plus sombre de la plateforme. Leurs “sock puppets” (100 000 comptes automatisés créés pour l’étude) ont regardé près de 10 millions de vidéos. Et ce qu’il en ressort c’est que l’algorithme peut créer un “effet de boucle” où les utilisateurs se retrouvent piégés dans du contenu de plus en plus extrême. Mais du coup, il semblerait que YouTube ait trouvé la solution en cassant la boucle avec des vidéos de pandas qui éternuent.

Voilà, alors pendant que certains s’inquiètent de la radicalisation politique sur les réseaux sociaux, YouTube a apparemment décidé de jouer les psychologues amateurs, proposant automatiquement du contenu humoristique aux utilisateurs qui consomment beaucoup de vidéos politiques. C’est mignon, non ?

Alors est-ce que YouTube a vraiment le droit de décider de quand nous avons eu assez de politique ? Est-ce que c’est de la manipulation bienveillante, du bon vieux paternalisme algorithmique ? Et surtout, est-ce que ça marche vraiment ?

Je passe très peu de temps à regarder des vidéos sur Youtube, donc je peux pas trop vous dire… Surtout que les news déprimantes ET les best-of de chutes spectaculaires ou de chaton mignon, c’est pas des trucs que je regarde…

Maintenant, peut-être que YouTube a raison… Peut-être qu’on a tous besoin qu’un algo nous rappelle de faire une pause dans tout ce contenu stressant de merde et de regarder quelque chose de plus léger… un peu d’humour forcé, ça ne peut pas faire de mal. Faudrait que Twitter et BlueSky fasse la même, parce que quand je vois la quantité de grincheux là bas, je me dis qu’ils ont aussi besoin de se marrer un peu de temps en temps, les pauvres… ^^

Bref, la prochaine fois que YouTube vous propose une vidéo compilation de conneries après votre marathon d’analyses politiques, vous saurez que ce n’est pas un hasard. C’est l’algorithme qui prend soin de votre santé mentale pour que vous restiez encore plus longtemps pour voir encore plus de pubs !!

Source

TypingSVG - Un générateur d'animations qui rend vos textes vivants

Vous avez déjà vu ces README GitHub avec du texte qui s’écrit tout seul comme si quelqu’un tapait en temps réel ? Hé bien voilà ce qu’il vous faut pour faire pareil sur votre propre site. Ça s’appelle TypingSVG , ça a été créé par un certain whiteSHADOW1234 et c’est donc un générateur d’animations SVG qui transforme n’importe quel texte en animation de frappe dynamique. Et surtout c’est complètement gratuit et ça tourne directement dans votre navigateur.

Le truc sympa avec TypingSVG, c’est qu’il ne se contente pas de faire défiler bêtement du texte. Non non, c’est un vrai système complet avec support multi-lignes, gestion des emojis 😎🚀, et même la possibilité de personnaliser la vitesse de suppression du texte. Parce que oui, l’outil simule aussi l’effacement, comme si quelqu’un revenait en arrière pour corriger une faute de frappe…

L’interface web est dispo sur typingsvg.vercel.app . Vous tapez votre texte, vous réglez quelques paramètres (police, taille, couleur, vitesse d’animation), et hop, vous avez un aperçu en temps réel de votre animation. Pas besoin d’installer quoi que ce soit, pas de compte à créer, juste vous et votre créativité.

Pour les dev, c’est du pain béni car vous pouvez intégrer ces animations directement dans vos README GitHub, vos portfolios, ou même vos sites web. Le générateur vous donne ainsi plusieurs formats d’export : une URL directe, du Markdown pour GitHub, ou du HTML pur pour vos pages web. Et comme c’est du SVG, ça reste léger et ça scale parfaitement sur tous les écrans.

Au niveau de la personnalisation, vous avez le choix entre plusieurs styles de curseur (droit, souligné, bloc, ou même invisible si vous préférez). La police Monaco par défaut donne un côté terminal très classe, mais vous pouvez changer pour n’importe quelle police web. L’espacement des lettres est ajustable, vous pouvez centrer le texte horizontalement et verticalement, et même ajouter une bordure autour de votre SVG si l’envie vous prend.

Le code derrière tout ça, c’est du Next.js avec TypeScript et Tailwind CSS ce qui fait que c’est moderne et maintenable et whiteSHADOW1234 a fait un sacré boulot pour que l’API soit simple à utiliser. Un simple appel à /api/svg avec les bons paramètres et vous récupérez votre animation. Par exemple, pour un “Hello, World!” qui clignote, il suffit d’ajouter ?text=Hello,+World! à l’URL.

Et pour ceux qui veulent aller plus loin, vous pouvez même déployer votre propre instance sur Vercel. Un bouton “Deploy to Vercel” est disponible sur le repo GitHub, et en quelques clics vous avez votre propre générateur personnel. Pratique si vous voulez des fonctionnalités custom ou si vous préférez garder le contrôle total sur vos animations.

Bref, pas de fioritures inutiles mais juste ce qu’il faut pour créer des animations de texte qui claquent, que ce soit pour pimper votre profil GitHub, ajouter un peu de dynamisme à votre site, ou juste pour le fun !

Un maker transforme un Samsung Z Flip cassé en smartphone à clavier BlackBerry DIY

Le YouTubeur Marcin Plaza a réussi à transformer un téléphone pliable tout pété en une pièce unique qui va vous rappeler l’âge d’or des claviers physiques sur les smartphones…

Pour lui, les smartphones modernes sont devenus tristement uniformes. Des milliers de modèles qui se ressemblent tous, des rectangles de verre fragiles produits par millions. Même le Galaxy Z Flip, avec son design pliable censé apporter de l’originalité, reste finalement assez conventionnel…

Alors il a récupéré un Z Flip cassé sur eBay (beaucoup moins cher qu’un neuf), l’a démonté entièrement, a retiré le mécanisme de charnière défectueux, et a conçu une carte PCB from scratch afin de lier le smartphone avec un clavier BlackBerry Q10.

Un sacré boulot !

Pour cela, il a utilisé le logiciel Fairberry et un Arduino Pro Micro afin de traduire les signaux du clavier BlackBerry en commandes USB standard qu’Android comprend nativement. Notre créateur YouTube est même allé encore plus loin en intégrant complètement le clavier dans un nouveau châssis métallique usiné sur mesure.

Le créateur a même ajouté le support MagSafe, parce que pourquoi pas et le résultat est étonnamment fonctionnel puisque le clavier marche parfaitement pour taper, jouer à Minecraft Pocket Edition ou même naviguer sur YouTube.

Très impressionnant !

Un terminal qui affiche la vraie position de la Lune en ASCII

Vous avez déjà fixé votre terminal en vous disant “il lui manque quelque chose” ?

Bien sûr que oui, et ce quelque chose, c’est une représentation précise de la Lune en pur ASCII 7-bit !!

Aleyan, un développeur visiblement obsédé par les détails astronomiques, a créé ASCII Side of the Moon , un projet qui va faire de votre terminal un observatoire lunaire minimaliste.

Mais attention, ce n’est pas juste un dessin statique de la Lune. L’outil calcule en temps réel la phase lunaire, la distance Terre-Lune ET même l’angle de libration. Pour ceux qui se demandent, la libration c’est ce petit mouvement d’oscillation de la Lune qui nous permet de voir environ 59% de sa surface au fil du temps, au lieu des 50% théoriques. Et oui, tout ça est visible dans l’ASCII art généré.

Pour les curieux qui veulent tester immédiatement, c’est con comme la Lune (justement ^^). Vous pouvez soit utiliser curl directement dans votre terminal :

curl -s "https://aleyan.com/projects/ascii-side-of-the-moon?date=2025-09-01"

Ou installer le package npm pour l’avoir en local :

npx ascii-side-of-the-moon

L’approche technique est assez sympa puisqu’Aleyan n’a pas bricolé les calculs astronomiques à l’arrache. Selon sa documentation technique , il utilise astronomy-engine de CosineKitty, une bibliothèque de calculs astronomiques très sérieuse. Les images de base ont été rendues dans Blender à partir d’un modèle 3D de la Lune en 2K créé par gerhald3d, avec différentes distances et angles de libration. Et ensuite, Chafa (un convertisseur d’images vers ASCII) transforme ces rendus PNG en glorieux ASCII art.

L’aspect le plus impressionnant reste tout de même la précision des calculs. La taille apparente de la Lune change vraiment en fonction de sa distance à la Terre. Ainsi au périgée (point le plus proche), elle apparaît 14% plus grande qu’à l’apogée. Cette variation est fidèlement représentée dans l’ASCII, avec un ajustement du nombre de caractères utilisés pour dessiner notre satellite.

Bref, l’ASCII n’est pas mort, loin de là. C’est même devenu une forme d’expression artistique à part entière pour les développeurs qui veulent créer quelque chose de beau avec les contraintes les plus minimales possibles… 128 caractères ASCII, pas de couleurs, pas de polices fantaisistes, juste du texte brut et de l’imagination.

C’est chouette non ?

Pourquoi votre antivirus pense que Linux est un virus (et cela depuis 25 ans) ?

329 menaces détectées, c’est le score qu’affiche Windows Defender quand vous téléchargez Kali Linux. C’est pas mal pour un simple fichier ISO, non ? D’après les discussions sur SuperUser , c’est parfaitement normal et ça arrive surtout avec les payloads Metasploit inclus dans la distribution. Mais le plus drôle dans cette histoire, c’est que ce “problème” existe depuis plus de 25 ans et touche toutes les distribs.

Jesse Smith de DistroWatch reçoit en effet régulièrement des messages paniqués de nouveaux utilisateurs Linux. Leur crime ? Avoir osé télécharger une distribution Linux pendant que Windows montait la garde. Et boom, l’antivirus s’affole comme si vous veniez de DL la peste bubonique. Le gars explique que sur 1000 alertes de ce genre, 999 sont des faux positifs donc autant dire que votre antivirus a plus de chances de se tromper que vous de gagner au loto.

Mais pourquoi cette paranoïa des antivirus Windows face aux ISOs Linux ?

La réponse est presque trop logique et simple pour être vraie. Un fichier ISO, c’est une archive qui contient du code exécutable. Du code qui peut modifier les partitions, installer un bootloader, toucher au kernel… Bref, exactement le genre de trucs qu’un malware adorerait faire sur Windows… sauf que dans le cas de Linux, c’est précisément ce qu’on veut qu’il fasse !

Et quand on réalise que les développeurs Linux bossent quasi exclusivement sur… Linux, les chances qu’un malware Windows se glisse accidentellement dans une ISO Linux sont à peu près aussi élevées que de voir Microsoft open-sourcer Windows demain matin. C’est techniquement possible, mais hautement improbable.

Le problème est particulièrement visible avec les distributions orientées sécurité, ce qui est normal, car elles embarquent des outils de pentest qui ressemblent furieusement à des malwares du point de vue d’un antivirus. Password crackers, frameworks d’exploitation, outils d’accès distant… Pour Windows Defender, c’est Noël tous les jours.

Ce qui devient vraiment problématique, c’est l’impact sur les nouveaux utilisateurs qui prennent peur. Il y a eu des cas où même des fichiers boot innocents comme memtest64.efi, bootia32.efi ou grubx64.efi sont flaggés comme suspects, alors je vous laisse imaginer la tête du débutant qui veut juste essayer Linux et qui se retrouve face à une avalanche d’alertes rouges.

La situation a même empiré récemment puisque selon les rapports de septembre 2025 sur Windows Forum , il y a eu une augmentation notable des signalements ces dernières semaines. Différentes distributions, différents antivirus, mais toujours le même refrain : “Attention, virus détecté !

Donc pour vérifier que votre ISO n’est pas réellement infectée (spoiler : elle ne l’est pas), la procédure est simple. Téléchargez la depuis les sources officielles, vérifiez le hash SHA256 fourni sur le site, et si vous êtes vraiment parano, scannez la avec un autre antivirus. Si deux antivirus différents détectent exactement le même malware spécifique, là vous pouvez commencer à vous inquiéter. Sinon, c’est juste Windows qui fait sa drama queen.

Le côté pervers de ces fausses alertes répétées, c’est qu’elles poussent également les utilisateurs à désactiver leur protection ou à ignorer systématiquement les avertissements. Et ça c’est un vrai problème de sécurité car à force de crier au loup pour rien, les antivirus finissent par perdre un peu crédibilité.

Alors bien sûr, Microsoft pourrait facilement créer une liste blanche pour les ISOs des distributions Linux majeures, mais après 25 ans d’inaction, on peut raisonnablement penser que ce n’est pas leur priorité. Puis j’sais pas, peut-être qu’ils trouvent ça amusant de voir les nouveaux utilisateurs Linux flipper avant même d’avoir booté sur leur clé USB.

Voilà, donc attendant, si votre antivirus vous dit que votre ISO Ubuntu contient 42 virus, respirez un grand coup. C’est juste Windows qui ne comprend pas qu’on puisse vouloir utiliser autre chose que lui…

Source

Pwndbg - Le débogueur qui a décidé que GDB c'était trop nul

C’est fou quand même qu’en 2025, les débogueurs de base comme GDB et LLDB soient toujours aussi pénibles à utiliser qu’il y a 20 ans. Par exemple faut taper x/30gx $rsp pour examiner la pile et obtenir un bloc de nombres hexadécimaux sans contexte. C’est donc super chiant pour comprendre tout ce qui se passe dans votre programme, sans être ultra concentré (et donc ultra fatigué à la fin de la journée).

Hé bien c’est exactement ce que s’est dit Zach Riggle quand il a commencé à bosser sur pwndbg (prononcez “/paʊnˈdiˌbʌɡ/”, oui comme “pound debug”). L’idée c’était de créer un plugin qui transforme ces débogueurs préhistoriques en véritables outils modernes pour les reverse engineers et les développeurs d’exploits.

Le truc avec pwndbg, c’est qu’il ne cherche pas à réinventer la roue, non, bien au contraire, puisqu’il s’appuie sur une architecture Python modulaire afin d’ajouter une couche d’intelligence par-dessus GDB et LLDB. Concrètement, ça veut dire que vous gardez toute la puissance de ces débogueurs, mais avec une interface qui ne vous donne pas envie de jeter votre clavier par la fenêtre, avant de vous y jeter vous-même ^^.

Pour l’installer, quelques lignes suffisent et hop vous aurez un environnement de debugging qui ferait pâlir d’envie les outils commerciaux.

Si vous êtes sur Linux ou macOS, la méthode la plus simple c’est la ligne magique avec curl qui va tout faire pour vous :

curl -qsL 'https://install.pwndbg.re' | sh -s -- -t pwndbg-gdb

Les utilisateurs de Mac peuvent aussi passer par Homebrew avec un simple

brew install pwndbg/tap/pwndbg-gdb

Et pour les hipsters des gestionnaires de paquets, y’a même une option avec Nix qui vous permet de tester l’outil sans rien installer en dur sur votre système. Maintenant, si vous préférez la méthode old school avec les packages classiques, pas de souci !

Récupérez le package qui correspond à votre distro sur la page des releases et installez-le avec votre gestionnaire de paquets habituel et en deux minutes chrono, vous avez votre environnement de debug GDB boosté aux stéroïdes avec toutes les fonctionnalités de pwndbg pour analyser vos binaires comme un chef.

Ensuite, que vous fassiez du débug de kernel Linux, du reverse sur des binaires ARM ou RISC-V, ou que vous développiez des exploits pour des systèmes embarqués, pwndbg saura s’adapte. Il gère même le debugging avec QEMU pour l’émulation user-space. Par contre, petit bémol pour les utilisateurs macOS, le debugging natif de binaires Mach-O n’est pas supporté avec GDB… Pour le moment, seul le debugging distant ELF fonctionne.

Un des aspects les plus cools de pwndbg, c’est son approche “consistency first”. Que vous utilisiez GDB ou LLDB, l’expérience reste cohérente. Vous pouvez donc switcher entre les deux débogueurs sans avoir à réapprendre tous les raccourcis et commandes. Bon, le support LLDB est encore expérimental et peut contenir quelques bugs, mais ça progresse vite.

Les développeurs low-level, les hardware hackers et les chercheurs en sécurité sont les premiers à adore pwndbg parce qu’au lieu de vous noyer sous des informations inutiles, il affiche exactement ce dont vous avez besoin à savoir le contexte des registres, l’état de la pile, le code désassemblé avec coloration syntaxique, et même une vue hexdump digne de ce nom (oui, en 2025, les débogueurs de base n’ont toujours pas ça par défaut).

Le projet est sous licence MIT, donc vous pouvez l’utiliser dans n’importe quel contexte, commercial ou non et si vous voulez contribuer, comme d’hab avec la plupart des projets que je vous présente, la porte est grande ouverte.

Pour ceux qui veulent se lancer, il y a même un cheatsheet complet à imprimer et garder sous la main. Parce que bon, même avec une interface aux petits oignons, un bon aide-mémoire reste toujours utile quand on débugge des trucs complexes à 3h du matin.

Au final, pwndbg c’est la preuve qu’on n’a pas toujours besoin de réinventer complètement un outil pour le rendre génial. Parfois, il suffit juste d’ajouter la bonne couche d’abstraction au bon endroit.

Encore bravo à Zach Riggle et son équipe ont vraiment tapé dans le mille !!

PowerMail - Quand une petite équipe française défie les géants de l'email

– Article en partenariat avec PowerMail –

Connaissez-vous PowerMail , le spécialiste français de l’hébergement mail pour les pro ? Peut-être pas, mais on va remédier à ça, car derrière PowerMail, il n’y a pas une multinationale avec des milliers d’ingénieurs, mais une petite équipe française qui a décidé de créer sa propre technologie email de zéro. Et ça, dans le contexte actuel c’est assez courageux.

Dans un monde dominé par Google et Microsoft, ces gars-là développent tranquillement leur propre serveur mail depuis les Pays de la Loire. Et ils ne font pas semblant puisque PowerMail héberge aujourd’hui des dizaines de milliers de boîtes, ce qui représente 25 000 utilisateurs, 91 millions de messages, et plus de 58 To de data, avec une clientèle qui va de la PME aux collectivités. Pas mal pour une alternative 100% française lancée en 2007, à une époque où tout le monde basculait déjà vers les solutions américaines.

Et leur approche technique est très osée, puisqu’au lieu de se contenter d’utiliser des solutions existantes comme Exchange ou Zimbra comme la plupart des hébergeurs mail, eux ont développé leur propre serveur POP/IMAP/SMTP. Et ça, ça demande un sacré niveau en programmation et une vision à long terme, parce que créer un serveur mail from scratch, le personnaliser et l’optimiser aux petits oignons… c’est pas donné à tout le monde. Mais c’est aussi ce qui leur permet d’avoir la main sur absolument tout et de ne pas dépendre d’un éditeur tiers.

D’un point de vue infrastructure, ils ont également fait le choix de la redondance maximale, et c’est là qu’on voit qu’ils ne plaisantent pas. Chaque client dispose ainsi de deux serveurs synchronisés en temps réel, dans des datacenters différents et chez des opérateurs distincts. Comme ça, si l’un tombe, l’autre prend le relais automatiquement. Détection de panne en ~1 minute, bascule DNS en ~1 minute, et un taux de dispo annoncé à 99,99%. Et contrairement à certains qui annoncent des chiffres au doigt mouillé, eux ont un vrai monitoring externe avec UptimeRobot qui certifie ces stats. Bref, du solide.

Sur la sécurité, c’est carré aussi puisqu’ils supportent SPF/DKIM/DMARC (ce qui devrait être la base en 2025, mais vous seriez surpris…), antivirus, et même une double authentification (2FA) pour verrouiller l’admin côté web.

Mais là où PowerMail se démarque vraiment, c’est sur l’interface d’administration. Certes, c’est à l’ancienne niveau design (ne vous attendez pas à du Material Design ou des animations partout) mais c’est clair, précis et accessible. Tout paraît simple à configurer et vous avez tout sous la main.

En testant leur espace client, je comprends mieux maintenant pourquoi les DSI l’apprécient. Quand on gère des centaines de boîtes, on veut de l’efficacité, pas du bling-bling.

Au travers de cette interface, vous avez donc trois niveaux d’accès : administrateur général, gestionnaire de domaine, et utilisateur final. Chacun peut ainsi configurer ses propres règles antispam, ses redirections, ses répondeurs automatiques. C’est ce degré de contrôle granulaire qui fait la différence quand vous gérez plusieurs centaines de comptes. Et franchement, même Microsoft 365 ne fait pas beaucoup mieux, et cela pour un prix bien supérieur.

Concernant l’antispam, ils ont aussi sorti l’artillerie lourde puisque leur moteur maison combine plus d’une vingtaine de critères : bayésien, RBL, géolocalisation, analyse de la structure et du respect SMTP, filtrage par langue/alphabet, détection des newsletters, Google Safe Browsing/URIBL pour les liens, greylisting, analyse de l’heure/jour d’envoi… Et le top, c’est vraiment la quarantaine centralisée comme ça, au lieu d’avoir les spams éparpillés dans chaque boîte, tout remonte vers une boîte unique sous contrôle de l’admin (débannir en un clic, supprimer direct ce qui vient d’une liste noire, etc.).

C’est du bon sens, mais étonnamment, peu de solutions le proposent aussi simplement. Et cadeau bonux, vous pouvez recevoir également des rapports antispam périodiques pour vérifier ce qui a été bloqué.

Côté fonctionnalités, PowerMail intègre aussi des trucs qu’on ne voit pas ailleurs ou qu’on ne voit qu’en SaaS séparé à prix d’or. Je pense par exemple à l’e-mail recommandé avec accusé PDF signé (*LRAR dans l’objet), la signature électronique de documents par les destinataires (*SIGN), l’envoi différé côté serveur (*DELAI=…) (donc ça marche même si votre client mail est fermé), la copie carbone individuelle (*INDIV) pour du mail‑merge propre, l’envoi de fax par mail (*FAX=…) (oui, certains secteurs en ont encore besoin), les dossiers IMAP partagés, l’archivage automatique, et les alertes SMS sur réception de messages importants (ponctuelles ou récurrentes, avec mots‑clés/expéditeurs).

Essayez de trouver tout ça chez un concurrent au même prix.

Et pour les pièces jointes, pas de prise de tête puisque vous pouvez y aller jusqu’à 1 Go par envoi, avec détachement automatique au‑delà d’un seuil configurable et lien de téléchargement en haut du mail pour le destinataire (avec accusé quand il récupère les fichiers). Pratique, et ça évite de saturer les boîtes de tout le monde !

Ils proposent également un système de calendriers et contacts (CalDAV / CardDAV) pour rester en synchro entre PC et smartphones, comme sur un Exchange mais en plus ouvert. Et le webmail, c’est du Roundcube, régulièrement mis à jour. Pas le plus sexy, certes, mais c’est fonctionnel et éprouvé.

Bref, ils partent des vrais besoins métier de leurs clients plutôt que de chercher à faire le buzz avec la dernière techno à la mode. Côté références, on croise notamment TotalEnergies, 4Murs, les Pompiers de Paris, la Région Bretagne et du secteur régulé avec les Notaires (ADSN) qui ont signé une convention cette année. Tous ont comme point commun un besoin fort de maîtriser leurs communications sans dépendre d’un GAFAM et sans voir leurs données partir aux États-Unis.

Car oui, la souveraineté numérique, c’est pas juste un argument marketing ici. Vos données restent stockées à 100% en France, pas de Cloud Act, pas d’IA qui scanne vos mails pour vous proposer de la pub. Et pour le support, c’est par e‑mail 7j/7 et téléphone du lundi au samedi (9h-20h sur un numéro non surtaxé). Essayez d’avoir quelqu’un au téléphone chez Google, bon courage.

Maintenant, les tarifs !! Et c’est là que ça devient vraiment intéressant.

Pour les particuliers, ils proposent un service e‑mail gratuit en @powermail.fr avec 3 Go de stockage. C’est une offre réservée aux particuliers en France, pas de support, et certaines fonctions pro ne sont pas incluses (fax, alertes SMS, signature électronique, CalDAV/CardDAV). Mais pour un mail perso souverain et gratuit, c’est cadeau !

Et pour les entreprises, on est par contre sur du mutualisé à la carte à partir de 0,40 € HT / utilisateur / mois (oui, 40 centimes !), et du cluster dédié (2 serveurs privés en temps réel, 2 DC/2 opérateurs) sur devis. Leur priorité, clairement, c’est donc la qualité de service plus que les gros volumes. Et à ce prix-là, franchement, pourquoi s’en priver ?

Alors bien sûr, tout n’est pas parfait. L’interface mériterait un petit lifting, il manque quelques fonctions modernes (Ils ont une API mais elle n’est pas REST, pas d’app mobile dédiée), et ils ne peuvent certes pas rivaliser avec tout l’écosystème Office 365 ou Google Workspace. Mais pour du mail qui fonctionne à 100%, avec des fonctions qu’on ne trouve pas ailleurs, hébergé en France, avec un vrai support, le tout à un prix défiant toute concurrence… PowerMail c’est l’exemple parfait de ce qu’on peut faire avec une équipe technique compétente et une vision claire.

Et dans un secteur complètement dominé par les géants américains, je trouve qu’ils arrivent plutôt bien à proposer une alternative crédible et souveraine tout en développant leur propre stack technologique. Pas de bullshit marketing, pas de buzzwords, juste un service qui fait le job. Et ça, pour une boîte française de taille humaine qui tient tête aux mastodontes depuis 14 ans, c’est plutôt remarquable.

Bref, si vous cherchez une alternative aux GAFAM pour vos mails pro, PowerMail mérite vraiment qu’on s’y intéresse.

LEANN - L'IA personnelle qui écrase 97% de ses concurrents (en taille)

60 millions de documents, c’est ce que LEANN peut indexer sur votre petit laptop sans faire exploser votre SSD. C’est ouf non ? Car pendant que tout le monde se bat pour avoir le plus gros modèle d’IA avec des milliards de paramètres, des chercheurs de UC Berkeley ont décidé de prendre le problème à l’envers en compressant tout ça pour que ça tienne sur un Macbook Air ou équivalent.

L’idée est tellement… au lieu de stocker tous les embeddings vectoriels (ces représentations mathématiques qui permettent à l’IA de comprendre vos documents), LEANN les recalcule à la volée quand vous en avez besoin. C’est comme si au lieu de garder 10 000 photos de votre chat sous tous les angles, vous gardiez juste une photo + un algorithme capable de reconstituer les autres instantanément.

Le truc vraiment fou, c’est que cette approche réduit l’espace de stockage de 97% par rapport aux solutions classiques comme Pinecone ou Qdrant. Pour vous donner une idée, là où une base vectorielle traditionnelle aurait besoin de 100 Go pour indexer vos documents, LEANN s’en sort avec 3 Go seulement. Et selon les benchmarks publiés , ça maintient 90% de précision avec des temps de réponse sous les 2 secondes.

Concrètement, LEANN utilise une technique qu’ils appellent “graph-based selective recomputation with high-degree preserving pruning” (oui, les chercheurs adorent les noms à rallonge). En gros, au lieu de parcourir tous les vecteurs pour trouver une correspondance, le système navigue dans un graphe optimisé qui ne garde que les connexions les plus importantes. C’est un peu comme utiliser Waze au lieu de vérifier toutes les routes possibles pour aller quelque part.

L’installation est d’une simplicité déconcertante :

curl -LsSf https://astral.sh/uv/install.sh | sh
uv venv
source .venv/bin/activate
uv pip install leann

Et hop, avec ça vous pouvez indexer vos PDFs, vos emails Apple Mail, votre historique Chrome, vos conversations WeChat, et même votre codebase entière. Le système est d’ailleurs assez malin pour comprendre la structure du code (fonctions, classes, méthodes) plutôt que de bêtement découper le texte tous les 500 caractères.

Et LEANN s’intègre directement avec Claude Code via un serveur MCP. Pour ceux qui utilisent Claude Code (coucou les Vibe Coders, on est ensemble !! ^^), vous savez que le plus gros problème c’est qu’il fait toujours des grep qui ne trouvent presque jamais rien. Alors qu’avec LEANN, une seule ligne de config et boom, vous avez de la recherche sémantique intelligente dans votre IDE.

Les cas d’usage sont d’ailleurs assez dingues puisque certains l’utilisent pour créer leur propre second cerveau qui indexe tout ce qu’ils ont lu, écrit ou consulté. D’autres s’en servent en entreprise pour faire de la recherche dans des bases documentaires sensibles sans rien envoyer dans le cloud. Y’a même des développeurs qui l’utilisent pour naviguer dans des codebases monstrueuses de millions de lignes. Moi je suis en train de le dompter pour lui faire bouffer tout le contenu de mon site et voir ce que je peux en tirer…

Le projet arrive donc pile au bon moment pour moi, mais aussi pour tous ceux qui s’inquiètent de leur vie privée et des données qui partent chez OpenAI ou Google. Avoir une solution 100% locale qui tourne sur votre machine, c’est top surtout dans des domaines comme la santé ou la finance où envoyer des données dans le cloud, c’est juste pas une option.

Et les chercheurs de Berkeley ne se sont pas arrêtés là puisqu’ils ont aussi intégré du support multilingue, donc vous pouvez chercher en français dans des documents en anglais et vice versa. Et cerise sur le gâteau, tout est open source sous licence MIT, donc vous pouvez tripatouiller le code comme bon vous semble.

Évidemment, LEANN a ses limites car le recalcul à la volée consomme plus de CPU que de simplement lire des vecteurs pré-calculés. Donc sur une machine vraiment faiblarde, ça peut ramer un peu. Et pour des cas d’usage où vous avez besoin de réponses en millisecondes (genre un moteur de recherche public), c’est peut-être pas l’idéal. Mais franchement, pour 97% d’économie de stockage et une vie privée totale, c’est un compromis que beaucoup sont prêts à faire. Surtout quand on sait que le prochain macOS va probablement embarquer de l’IA partout et qu’on aimerait bien garder nos données pour nous.

Voilà, pour ceux qui veulent creuser, le papier de recherche détaille toute la théorie derrière. Les benchmarks notés dans ce papier montrent même que LEANN bat certaines solutions cloud sur des requêtes complexes, tout en tournant sur un laptop à 2000 euros au lieu d’un cluster à 100 000 balles.

Bref, LEANN c’est l’exemple parfait qu’on n’a pas toujours besoin de plus de puissance ou plus de stockage. Suffit juste d’être plus malin !

Merci à Letsar et Lorenper pour le partage !

Subarr - Le chaînon manquant entre YouTube et votre serveur multimédia

Ça y est, c’est la rentrée et votre YouTubeur préféré a sorti 15 vidéos pendant vos vacances… Ouin !!! va tout falloir rattraper ! Ou pire, le gars a supprimé ses anciennes vidéos sans prévenir ! Heureusement, c’est le genre de problème que Subarr vient résoudre, et de manière plutôt chouette, vous allez voir.

L’idée derrière Subarr, c’est en fait de transposer la philosophie de Sonarr (qui automatise le téléchargement de séries TV) au monde chaotique de YouTube. Le développeur Derek Antrican a d’ailleurs tellement poussé le concept qu’il a même repris l’interface utilisateur de Sonarr pour que les habitués s’y retrouvent immédiatement. Et après avoir hésité avec le nom “YouTubarr”, il a même opté pour “Subarr”, un clin d’œil aux flux RSS sur lesquels repose tout le système.

Le principe est donc très simple puisqu’au lieu de scraper YouTube comme un bourrin (ce qui vous vaudrait un ban rapide), Subarr utilise les flux RSS officiels que YouTube met à disposition pour chaque playlist et chaîne. Ces flux sont limités aux 15 derniers items, mais Subarr construit sa propre base de données au fil du temps, en gardant une trace de tout ce qui passe. Une fois qu’une nouvelle vidéo est détectée, vous pouvez alors déclencher n’importe quelle action comme envoyer une notification Discord, lancer yt-dlp pour télécharger la vidéo, ou même exécuter un script custom de votre création.

Contrairement à des solutions comme TubeArchivist qui nécessite 4GB de RAM minimum, Subarr est très léger et peut tourner tranquillement sur un Raspberry Pi avec quelques centaines de MB. Le développeur insiste d’ailleurs sur ce point : Il l’a voulu volontairement minimaliste ! Pas de gestion de métadonnées complexes, pas d’interface de lecture intégrée, juste de la surveillance et du déclenchement d’actions.

L’installation se fait en trois commandes :

git clone https://github.com/derekantrican/subarr.git
cd subarr
npm install && npm run start-server

Boom, vous avez votre instance qui tourne sur le port 3000. Par contre, attention, il n’y a aucune authentification intégrée, donc si vous l’exposez sur internet, pensez à mettre un reverse proxy avec auth devant, ou utilisez quelque chose comme Cloudflare Tunnel.

Certains l’utilisent pour archiver automatiquement les chaînes de vulgarisation scientifique avant qu’elles ne disparaissent. D’autres s’en servent pour créer leur propre bibliothèque de tutoriels techniques hors ligne. Et puis il y a ceux qui veulent juste être sûrs de ne jamais rater un épisode de leur podcast vidéo favori, même quand ils partent en vadrouille sans connexion.

Le projet a quand même ses limites, qu’il faut garder en tête. D’abord, si Subarr est down pendant que 20 vidéos sont publiées sur une chaîne, vous allez en louper 5 (rappelez-vous, les flux RSS sont limités à 15 items). Ensuite, c’est vraiment conçu pour du monitoring de nouveautés, pas pour aspirer l’intégralité d’une chaîne existante. Pour ça, yt-dlp en ligne de commande reste plus adapté.

Voilà, entre ArchiveBox qui archive tout le web, les diverses interfaces web pour yt-dlp, et maintenant Subarr qui fait le pont avec l’univers *arr, on a vraiment l’embarras du choix maintenant pour construire son propre “Netflix personnel” alimenté par YouTube.

Et pour ceux qui veulent aller plus loin, il est possible de synchroniser Subarr avec ytsubs.app pour importer automatiquement toutes vos souscriptions YouTube. Vous pouvez aussi utiliser des regex pour filtrer le contenu (pratique pour exclure les Shorts ou les vidéos sponsorisées), et même chaîner plusieurs post-processeurs pour créer des workflows complexes.

Au final, Subarr c’est top pour les accros au self-hosting qui souhaitent reprendre le contrôle sur leur consommation de contenu sans dépendre du bon vouloir de l’algorithme YouTube ou de la stabilité des serveurs de Google. Avec cet outil, vos vidéos préférées seront toujours chez vous, sur votre NAS, accessibles même quand internet flanche.

Merci à Letsar pour le partage.

Transformer un Raspberry Pi Pico à 4€ en outil de récupération de mots de passe WiFi

Quatre euros, c’est le prix d’un café dans certains endroits, mais c’est aussi le coût d’un Raspberry Pi Pico capable d’extraire tous les mots de passe WiFi stockés sur un ordinateur en moins de 15 secondes.

Hé oui car pendant que les entreprises investissent des millions dans la cybersécurité, un petit projet GitHub nous rappelle que les vulnérabilités les plus dangereuses restent souvent les plus simples.

Ce type d’attaque par injection de touches proposé par ce projet atteint quand même 94,28% de taux de réussite, selon cette étude publiée sur ResearchGate . En gros, vous branchez ce qui ressemble à une clé USB innocente, et en quelques secondes, l’appareil simule un clavier qui tape plus de 1000 mots par minute. Y’a aucune alerte antivirus, aucun avertissement de sécurité… Pour le système, c’est juste un clavier qui tape très, très vite.

Ce projet WiFi-password-stealer d’AleksaMCode transforme donc cette théorie en un outil accessible. Son créateur a en effet développé ce système pendant l’été 2022, initialement pour démontrer les capacités d’un Rubber Ducky à petit prix et aujourd’hui, avec la dernière version de CircuitPython, la configuration ne prend plus que 5 minutes.

Concrètement, l’attaque fonctionne en exploitant la confiance aveugle que nos systèmes accordent aux périphériques USB. Sous Windows, le dispositif utilise PowerShell pour extraire les identifiants WiFi stockés, puis les envoie par email via SMTP. Sous Linux, c’est encore plus direct puisque les mots de passe sont copiés depuis /etc/NetworkManager/system-connections/ directement sur une clé USB. Le script grep avec des expressions régulières positives lookbehind ((?<=ssid=).* et (?<=psk=).*) fait tout le travail d’extraction.

Pour rendre l’appareil plus discret, il suffit de connecter un fil entre les pins GPIO15 et GND et le Pico disparaît alors complètement de l’explorateur de fichiers, ne laissant aucune trace visible de sa présence. Un autre câble entre GPIO5 et GND permet également de basculer entre plusieurs payloads selon la cible. Ces petits détails transforment alors un simple microcontrôleur en outil d’infiltration redoutable.

Le plus inquiétant ? +80% des utilisateurs réutilisent le même mot de passe selon les données collectées lors de ces attaques. Un seul ordinateur compromis peut donc ouvrir les portes de dizaines de comptes. Faut pas oublier que la majorité des gestionnaires de réseaux sous Linux stockent ces informations en clair dans des fichiers .ini, ce qui rend l’extraction hyper simple pour qui a les bonnes permissions.

Face à ces menaces, les défenses existent mais restent sous-utilisées. Désactiver les ports USB sur les machines sensibles reste la protection la plus efficace et les solutions EDR (Endpoint Detection and Response) peuvent aussi détecter les patterns d’injection de touches suspectes… Mais combien d’entreprises les ont vraiment configurées correctement ? Il y a aussi des adaptateurs USB “préservatifs” qui bloquent les données tout en permettant de charger les appareils, mais qui les utilise vraiment ?

Alors, paranoia ou prudence légitime ? En tout cas, la prochaine fois que vous verrez une clé USB abandonnée dans un parking ou qu’un collègue vous demandera de “juste brancher ça deux secondes”, vous y penserez peut-être à deux fois.

Pourquoi et comment supprimer vos données personnelles d'Internet ?

– Article en partenariat avec Incogni

530 millions d’euros . C’est l’amende que TikTok vient de se prendre dans la tronche pour avoir transféré illégalement des données d’utilisateurs européens vers la Chine. Et vous savez quoi ? C’est juste la partie émergée de l’iceberg. Une étude récente d’Incogni sur 400 apps populaires révèle un truc complètement dingue : les applications étrangères collectent en moyenne 3 fois plus de données personnelles que leurs homologues européennes.

Faites le test maintenant : tapez votre nom complet sur Google. Allez-y, je vous attends…

Alors ? Adresse, numéro de téléphone, historique professionnel, peut-être même des photos que vous pensiez privées ? C’est flippant, non ? Moi, j’ai trouvé mon adresse complète sur 12 sites différents, mon numéro de téléphone sur 8, et même mon salaire estimé sur 3 sites de data brokers. Non, je déconne, c’est pas vrai parce que j’utilise Incogni !!

C’est Meta (Facebook, Instagram, WhatsApp) qui arrive en tête avec 29 types de données collectées. TikTok les suit de près avec 26 types de données. Et pendant ce temps, Signal se contente de… 3 types de données. Vous ne voyez pas un problème ?

Le pire dans tout ça, c’est que vos infos ne restent pas gentiment stockées dans ces apps. Non, elles sont revendues à des data brokers, ces entreprises de l’ombre qui compilent des profils détaillés sur vous et les vendent au plus offrant. On parle quand même d’un business à 434 milliards de dollars en 2025 . Vos habitudes, vos déplacements, vos achats, tout y passe…

⚠️ Chaque jour que vous attendez, c’est :

  • 10 nouveaux data brokers qui récupèrent vos infos
  • Des milliers de requêtes sur votre profil
  • Votre vie privée vendue au plus offrant

Et le pire c’est que une fois vos données dans la nature, c’est exponentiellement plus dur de les récupérer. C’est comme essayer de remettre du dentifrice dans le tube.

Alors certes, le RGPD nous protège un peu en Europe avec le fameux “droit à l’oubli” . Mais entre nous, qui a le temps d’envoyer des demandes de suppression à des centaines de data brokers ? Surtout que ces parasites recollectent immédiatement vos données dès que vous avez le dos tourné.

La bonne nouvelle ? On peut se défendre !!

D’abord, un petit audit s’impose. Comme je vous le demandais en intro, tapez votre nom ou votre adresse sur Google et notez tous les sites qui affichent vos infos personnelles. Ensuite, direction vos comptes de réseaux sociaux pour tout passer en privé et désactiver la personnalisation publicitaire. Facebook propose même une option pour supprimer définitivement votre compte via Paramètres > Centre des comptes > Détails personnels > Propriété et contrôle du compte.

Pour Google, utilisez leur outil de suppression dédié . Il suffit de collecter les liens problématiques et de suivre les instructions. C’est relativement simple et ça marche plutôt bien pour les résultats de recherche.

Mais le vrai combat, c’est contre les data brokers. En Californie, le DELETE Act qui entre en vigueur en 2026 permettra de soumettre une demande unique de suppression à tous les courtiers enregistrés. Génial pour les Californiens, mais nous en Europe, on fait comment ?

C’est là qu’ Incogni entre en jeu 🛡️

Pour une dizaine d’euros par mois, ils s’occupent de contacter les data brokers à votre place et de faire supprimer vos données. Le service scanne en permanence des centaines de bases de données et envoie automatiquement les demandes de suppression.

Mon expérience personnelle, c’est qu’en 3 années de bons et loyaux services, ils avaient déjà supprimé mes infos de 232 data brokers différents. 232 ! Et moi qui pensais faire attention…

Mon dashboard Incogni après 3 ans : 244 demandes envoyées, 232 suppressions confirmées

Et je ne suis pas le seul convaincu car plus de 100 000 personnes utilisent déjà Incogni en Europe. Et les résultats parlent d’eux-mêmes car en moyenne, 95% des demandes de suppression aboutissent.

L’étude d’Incogni montre aussi un truc flippant : les apps de shopping sont les pires en termes de collecte de données. Aliexpress et Temu aspirent littéralement tout ce qu’ils peuvent et les apps de fitness et de santé mentale ne sont pas mieux, puisqu’elles vendent allègrement vos données les plus intimes.

Pour les vieux comptes que vous n’utilisez plus, pensez aussi à faire le ménage. Checkez par exemple votre gestionnaire de mots de passe et cherchez dans vos emails les mots-clés comme “bienvenue”, “inscription”, “compte créé”. Vous allez halluciner du nombre de services où vous êtes inscrit sans même vous en souvenir.

On peut suivre dans le détail chaque requête

Un dernier conseil, méfiez-vous particulièrement des apps gratuites et encore plus si elles ne sont pas européennes. Cette autre étude montre en effet que 88% des apps américaines et 92% des apps chinoises partagent vos données avec des tiers , contre seulement 54% pour les apps européennes. Si c’est gratuit, c’est vous le produit, comme on dit.

Sachez qu’effacer complètement sa présence en ligne est quasi impossible aujourd’hui mais avec un peu de méthode et les bons outils comme Incogni, on peut drastiquement réduire notre empreinte numérique. Entre les amendes records contre TikTok et Meta, et les nouvelles lois comme le DELETE Act, les choses bougent enfin dans le bon sens.

🔥 Offre Limitée : -55 % avec le code KORBEN55 🔥

Franchement, à un peu moins de 6 € HT / mois avec le code KORBEN55 , c’est moins cher qu’un sandwich. Et entre nous, qu’est-ce qui est le plus important, votre prochain sandwich ou votre vie privée ?

→ Cliquez ici pour en savoir plus sur Incogni ←

Thomas Dullien (Halvar Flake) - L'incroyable parcours d'un génie du Reverse Engineering

Cet article fait partie de ma série de l’été spécial hackers et ce sera le dernier ! Je vais faire une petite pause maintenant même si j’en ai encore un bon paquet à écrire… Mais ce sera pour bientôt… Bonne lecture ! Et bonne reprise !

Pour ce dernier article de ma série de l’été, je vais vous raconter l’histoire d’un type absolument génial que vous ne connaissez peut-être pas mais qui, lui aussi, a mis sa pierre à l’édifice de la sécurité informatique. Thomas Dullien, plus connu sous le pseudo “Halvar Flake”, c’est un peu le MacGyver du reverse engineering, sauf qu’au lieu de désamorcer des bombes avec un trombone, il désamorce des malwares avec des graphes mathématiques.

Ce gars est surtout à l’origine de BinDiff , un outil légendaire capable de comparer des binaires, très utile par exemple pour comprendre ce que Microsoft a patché dans une mise à jour de sécurité. Cet outil peut vous sortir une analyse graphique qui vous montre exactement où se trouvent les différences entre l’ancienne et la nouvelle version. À l’époque, en 2005, cet outil c’était comme avoir des super-pouvoirs.

Mais commençons par le début. Thomas Dullien, c’est un mathématicien allemand qui a grandi à une époque où Internet commençait tout juste à exploser. Le gars était destiné à devenir avocat, mais à la dernière minute, il change d’avis et s’inscrit en maths à l’Université de Bochum. Best decision ever, comme on dit. Il finit par obtenir son Master en mathématiques en 2008, après avoir commencé un doctorat qu’il abandonne pour se concentrer sur son entreprise.

Son pseudo “Halvar Flake” vient d’un personnage de dessin animé. C’est le chef d’un village viking dans la série télé “Vicky le Viking”. Et l’anecdote est géniale quand il l’explique : “J’étais petit, gros, j’avais des cheveux longs, et je buvais beaucoup de bière, alors les gens m’appelaient Halvar”, raconte-t-il avec humour. Bon, aujourd’hui le nom est resté même si la description ne colle plus vraiment !

Dans les années 90, alors qu’il est encore adolescent, Thomas commence à s’intéresser au reverse engineering et à la gestion des droits numériques (DRM). À l’époque, c’est le Far West total. Les protections logicielles sont simplistes, les entreprises pensent que leur code est impénétrable, et de petits génies comme lui s’amusent à démonter tout ça pièce par pièce. Il écrit même son premier fuzzer à 19 ans, mais refuse de l’utiliser lui-même par fierté… en vrai il préfère trouver les bugs en lisant le code ! Des années plus tard, il admettra que c’était stupide et que le fuzzing est quand même une technique incroyablement efficace.

En 2000, à seulement 19-20 ans, il fait alors sa première présentation à Black Hat Amsterdam sur “Auditing binaries for security vulnerabilities”. En réalité, il voulait rencontrer un pote du Sri Lanka mais aucun des deux n’avait les moyens de payer le billet d’avion alors ils ont décidé de faire une présentation à la même conférence. C’est donc comme ça qu’il commence sa carrière de formateur en reverse engineering… une carrière qui durera plus de 20 ans.

Pendant les années qui suivent, Halvar devient alors LA référence en matière de reverse engineering. Il développe des techniques révolutionnaires comme l’exploitation des tas Windows ( heap exploitation ), le patch diffing (comparer des versions patchées et non patchées de logiciels), et plein d’autres trucs que les chercheurs en sécurité utilisent encore aujourd’hui. Il donne des talks sur l’analyse binaire basée sur les graphes à Blackhat USA 2002, Blackhat Asia 2002, et CanSecWest 2002, où il se plaint déjà qu’IDA Pro ne gère pas bien les fonctions non-contiguës !

Mais son coup de génie, c’est au printemps 2004 quand il fonde SABRE Security, qui deviendra rapidement zynamics. L’idée c’est qu’au lieu de comparer les binaires octet par octet comme tout le monde, il utilise la théorie des graphes. En gros il faut voir ça comme une carte routière avec des intersections (les fonctions) et des routes (les appels entre fonctions). Et chaque programme a la sienne. BinDiff compare alors ces cartes pour trouver les différences.

Cette approche est innovante parce qu’elle fonctionne même si les programmes sont compilés avec des options différentes ou des compilateurs différents. Entre la publication DIMVA de 2004 et début 2005, Rolf Rolles, un autre génie du reverse engineering, contribue au projet avec de nouvelles idées qui améliorent grandement la capacité de BinDiff à matcher les blocs de base.

Puis en 2005, ils publient ensemble “Graph-based comparison of executable objects” au SSTIC… une présentation que Thomas donne en français et qu’il décrit comme “la seule présentation de conférence que j’ai jamais donnée en français. Et parce que j’étais terrifié, c’est probablement aussi celle que j’ai le plus répétée de ma vie”.

En 2006, coup de tonnerre : zynamics remporte le prix Horst Görtz, avec une récompense de 100 000 euros, pour leur technologie de classification de malwares. C’est à l’époque le plus gros prix privé en sciences naturelles d’Allemagne ! Ce prix récompense leur travail sur la similarité de code basée sur les graphes et cet argent leur permet de rester indépendants sans avoir besoin de capital-risque. “Le capital-risque était trop restrictif”, explique Thomas, qui finissait alors son Master tout en dirigeant l’entreprise.

L’entreprise grandit alors jusqu’à une douzaine d’employés, tous des ninjas du reverse engineering. Ils développent non seulement BinDiff, mais aussi BinNavi (essentiellement un IDE pour le reverse engineering centré sur la visualisation interactive de graphes, l’analyse de couverture et le débogage différentiel) et VxClass , qu’ils décrivent comme “un laboratoire d’analyse antivirus dans une boîte”.

L’impact de BinDiff sur l’industrie est énorme. Le nom devient même un verbe… les gens disent “je vais bindiff ça” pour dire qu’ils vont comparer deux binaires. C’est un peu comme quand on dit “googler”… alors quand votre outil devient un verbe, vous savez que vous avez réussi !

Thomas Dullien

Mais l’histoire prend un tournant dramatique en juillet 2007. Halvar arrive aux États-Unis pour donner sa formation annuelle à Black Hat Las Vegas, une formation qu’il donne depuis 7 ans sans problème. Mais cette fois, catastrophe, les douanes américaines trouvent ses supports de présentation dans ses bagages et le retiennent pendant 4 heures et demie. “Si vous allez faire du profit en tant que conférencier individuel, vous avez besoin d’un visa différent”, lui disent-ils. Le problème c’est qu’il avait un contrat avec Black Hat Consulting en direct en tant qu’individu, pas en tant que représentant de son entreprise.

L’ironie de la situation c’est que la plupart des participants à ses formations sont des employés du gouvernement américain ! Mais ça ne change rien et ils le renvoient en Allemagne sur le prochain vol. “Vous n’avez aucun droit, parce que techniquement vous n’êtes pas encore dans le pays”, lui ont-ils dit. Le programme d’exemption de visa lui est désormais interdit à vie. La communauté Black Hat est furieuse, mais Thomas reste philosophe… il finit par obtenir un visa business et revient l’année suivante, plus fort que jamais.

VxClass devient alors rapidement le produit phare de zynamics. C’est une infrastructure capable de traiter automatiquement les nouveaux malwares en les classifiant automatiquement en familles en utilisant l’analyse de graphes de flux de contrôle. L’outil peut générer des signatures privées en octets (au format ClamAV) pour toute une famille de malwares. VxClass peut par exemple, à partir de 160 extraits de malwares, les classifier automatiquement comme une seule famille et générer un seul pattern pour trouver chaque variante. Mandiant annonce même l’intégration avec VxClass dans leur logiciel de forensique mémoire Memoryze.

Le chevauchement de 2 malwares de la même “famille”

Et en mars 2011, Google rachète zynamics. C’est la consécration ! C’est d’ailleurs probablement VxClass qui intéresse le plus Google dans ce deal, étant donné l’intérêt de l’entreprise pour classifier les malwares et les sites malveillants. Le prix de BinDiff passe alors de plusieurs milliers de dollars à seulement 200 dollars. Google veut démocratiser ces outils de sécurité, et Halvar se retrouve propulsé dans la cour des grands avec le titre de Staff Engineer.

Illustration du principe de l’attaque Rowhammer

Chez Google, il travaille d’abord sur l’intégration et le scaling de sa technologie, puis il retourne à la recherche pure et dure et c’est là qu’il tombe sur quelque chose d’absolument dingue : le Rowhammer.

Le Rowhammer avait été découvert en juin 2014 par des chercheurs de Carnegie Mellon et Intel Labs (Yoongu Kim et ses collègues) dans leur papier “Flipping Bits in Memory Without Accessing Them”. Mais là où les académiques voient un problème de fiabilité, Thomas et Mark Seaborn de l’équipe Project Zero de Google voient une faille de sécurité monumentale.

Le Rowhammer, c’est une de ces découvertes qui font dire “mais comment c’est possible ?!”. En gros, imaginez que la mémoire de votre ordinateur est comme un parking avec des places très serrées. Si vous ouvrez et fermez la portière de votre voiture des milliers de fois très rapidement (on appelle ça “marteler” une ligne de mémoire), les vibrations peuvent faire bouger les voitures garées à côté (les bits dans les lignes adjacentes). Plus concrètement, quand on accède sans arrêt à une même zone de la mémoire, ça crée des perturbations électriques qui peuvent modifier les données stockées juste à côté… un peu comme si l’électricité “débordait” sur les zones voisines.

En mars 2015, Thomas et Mark publient alors leur exploit sur le blog de Project Zero. Les contributions techniques de Thomas incluent une méthode pour attaquer la mémoire des deux côtés en même temps (le “double-sided hammering”… imaginez-vous en train de marteler un mur par les deux faces pour le faire céder plus vite) et une technique astucieuse (le “PTE spraying”) pour transformer cette faille en véritable exploit, même s’il admet modestement que Mark a fait 90% du travail.

Ils surnomment même affectueusement le premier ordinateur où l’exploit fonctionne “Flippy the laptop” ! Leur exploit fonctionne donc en utilisant le row hammering pour induire un bit flip (une inversion de bit) dans une entrée de table de pages (PTE) qui la fait pointer vers une page physique contenant une table de pages appartenant cette fois au processus attaquant. Ça donne alors au processus attaquant un accès en lecture-écriture à une de ses propres tables de pages, et donc à toute la mémoire physique. Les chercheurs rapportent des bit flips avec seulement 98 000 activations de lignes !

La présentation de leurs résultats à Black Hat 2015 fait alors l’effet d’une bombe. Hé oui, une faille qui existe dans pratiquement toute la RAM moderne, qui ne peut pas être patchée par du logiciel, et qui peut être exploitée même depuis JavaScript dans un navigateur ! C’est le cauchemar ultime des responsables sécurité. Cette découverte devient alors le point d’origine de toute une famille d’attaques hardware (RowPress, Half-Double, etc.).

En août 2015, Halvar reçoit le Pwnie Award pour l’ensemble de sa carrière. C’est l’Oscar de la sécurité informatique, avec un jury de chercheurs en sécurité renommés qui sélectionne les gagnants. Et ces derniers reçoivent des trophées “My Little Pony” dorés ! À seulement 34 ans, il est alors décrit comme un “gourou du reverse engineering ayant déjà révolutionné le domaine plusieurs fois”.

Le fameux trophée Pwnie Award - un “My Little Pony” doré remis aux légendes de la sécurité informatique

Quoi qu’il en soit, cette découverte du Rowhammer change profondément la vision de Thomas sur l’informatique. Il se passionne pour la physique informatique, c’est-à-dire ce qui se passe réellement dans le processus de fabrication des puces. “C’est le plus grand spectacle sur Terre”, dit-il, et tire plusieurs leçons importantes. La première c’est qu’on a besoin d’une vraie théorie de l’exploitation. Aussi, que le hardware n’est pas correctement analysé pour anticiper tout ce qui pourrait arriver de pire, et enfin que la recherche sur les défauts des puces dus aux variations de fabrication est extrêmement intéressante.

Après un congé sabbatique d’un an, il retourne alors chez Google en 2016 et rejoint Project Zero, l’équipe d’élite qui cherche les failles zero-day. Son travail se concentre sur la découverte automatique de fonctions de bibliothèques liées statiquement dans les binaires et sur des recherches de similarité ultra-efficaces sur d’énormes quantités de code.

Mais en janvier 2019, nouveau virage à 180 degrés. Thomas quitte Google et co-fonde Optimyze. Cette fois, il change complètement de domaine : fini la sécurité, place à la performance et à l’économie du cloud ! Après 20 ans passés à casser des trucs, il décide de les rendre plus efficaces.

L’idée d’Optimyze est géniale puisqu’avec la fin de la loi de Moore et le passage au SaaS/Cloud, l’efficacité logicielle redevient super importante. Leur produit est un profileur continu multi-runtime qui peut s’installer sur des milliers de machines Linux et vous dire exactement où votre flotte dépense ses cycles CPU, jusqu’à la ligne de code, peu importe le langage (C/C++, Java, Ruby, PHP, Perl, Python, etc.). Le tout avec une technologie eBPF qui permet un déploiement sans friction.

Thomas remarque en effet qu’il y a, je cite, “une quantité énorme de calculs inutiles partout”. Avec les coûts du cloud qui explosent et l’attention croissante sur le CO2 et l’efficacité énergétique, aider les entreprises à optimiser leur code devient crucial. “Avec la fin de la loi de Moore et de Dennard scaling, combinée avec le passage au cloud et la transformation digitale continue de la société, l’efficacité computationnelle va recommencer à compter”, explique-t-il.

En octobre 2021, Elastic rachète Optimyze. Leur idée c’est de combiner le profiling continu d’Optimyze avec les capacités d’analyse et de machine learning d’Elastic pour offrir une observabilité unifiée. Thomas devient alors Distinguished Engineer chez Elastic, où il continue à travailler sur l’efficacité à grande échelle.

Début 2024, après avoir intégré Optimyze dans l’écosystème Elastic, Thomas annonce à nouveau qu’il quitte l’entreprise pour prendre une pause prolongée. Il veut se reposer, et se consacrer à sa famille, sa santé et l’écriture. Mais il ne reste pas inactif longtemps puisque depuis 2019, il est aussi Venture Partner chez eCAPITAL, où il se concentre sur les investissements en cybersécurité et technologies climatiques. Enfin, depuis 2025, il dirige avec Gregor Jehle le groupe de projet Engineering au CNSS e.V.

Ces dernières années, on le voit donner des conférences passionnantes. Par exemple à QCon London en mars 2023, où il présente “Adventures in Performance”. Il y explique comment les choix de design des langages impactent les performances. Notamment comment la culture monorepo de Google et la culture “two-pizza team” d’Amazon affectent l’efficacité du code, et pourquoi la variance statistique est l’ennemi.

À ISSTA 2024 en septembre à Vienne, il donne une keynote intitulée “Reasons for the Unreasonable Success of Fuzzing”, où il analyse pourquoi le fuzzing marche si bien alors que théoriquement, ça ne devrait pas. Il raconte notamment comment dans la culture hacker des années 90, le terme “fuzz-tester” était utilisé comme une insulte pour ceux qui ne savaient pas trouver des bugs en lisant le code.

Ce qui est fascinant avec Thomas Dullien, c’est surtout sa capacité à voir les problèmes sous un angle complètement différent. Là où d’autres voient des bugs, il voit des opportunités. Là où d’autres voient de la complexité, il voit de jolis graphes. Là où d’autres voient des problèmes de fiabilité hardware, il voit des failles de sécurité. C’est cette vision unique qui lui a permis de faire progresser ses domaines de prédilection.

Son approche de l’enseignement est aussi unique. Ses formations Black Hat étaient limitées à 18 étudiants maximum, avec des prérequis techniques élevés et aujourd’hui, Thomas continue d’influencer l’industrie. Que ce soit par ses recherches, ses talks, ou les outils qu’il a créés, son impact est partout. BinDiff est maintenant open source et supporte IDA Pro, Binary Ninja et Ghidra. Le Rowhammer a donné naissance à toute une famille d’attaques hardware et les idées d’Optimyze sur l’efficacité logicielle deviennent de plus en plus pertinentes avec la crise climatique.

Voilà l’histoire de Thomas Dullien. C’est l’histoire d’un gars qui a su transformer sa curiosité en innovations. Une chose est sûre, quand Halvar Flake s’intéresse à quelque chose, l’industrie entière devrait y prêter attention. Que ce soit pour casser des trucs, les analyser, ou les rendre plus efficaces, il trouve toujours un angle nouveau que personne n’avait anticipé.

Sources : Site personnel de Thomas Dullien , Google Project Zero - Exploiting the DRAM rowhammer bug , Black Hat Archives - 2007 US Entry Denial Incident , Silver Bullet Podcast - Interview with Halvar Flake , Elastic acquiert Optimyze , ISSTA 2024 - Keynote on Fuzzing , QCon London 2024 - Adventures in Performance , Heise - Horst Görtz Prize 2006 , Dark Reading - Pwnie Awards 2015 , OffensiveCon - Halvar Flake Biography , eCAPITAL - Thomas Dullien Venture Partner , GitHub - BinDiff Open Source , zynamics - BinDiff , Intel Technology Podcast - Interview with Thomas Dullien , Wikipedia - Row hammer

Equifax - Comment "admin/admin" et un certificat SSL expiré ont exposé les données de 147 millions d'Américains

Cet article fait partie de ma série de l’été spécial hackers . Bonne lecture !

Je me souviens encore de ce 7 septembre 2017 quand j’ai vu l’annonce du hack d’Equifax débouler dans mes flux RSS. 143 millions d’Américains touchés avec leurs numéros de sécurité sociale, leurs dates de naissance, leurs adresses…etc… tout était dans la nature. Mais le pire dans cette histoire, c’est que ce n’était pas juste une faille technique. C’était un concentré de négligence, d’incompétence et de cupidité qui allait devenir le cas d’école de tout ce qu’il ne faut pas faire en cybersécurité. Trêve de blabla, je vous raconte tout ça tout de suite !

Pour comprendre l’ampleur du désastre, il faut d’abord comprendre ce qu’est Equifax. Fondée en 1899 sous le nom de Retail Credit Company (oui, cette entreprise est plus vieille que le FBI), c’est l’une des trois grandes agences de crédit américaines avec Experian et TransUnion. Ces entreprises collectent des informations sur pratiquement tous les Américains adultes telles que l’historique de crédit, dettes, paiements, emplois… Bref, tout ce qui permet de calculer votre score de crédit, ce fameux nombre qui détermine si vous pouvez avoir un prêt, louer un appartement, ou même décrocher certains jobs.

Le truc avec Equifax, c’est que vous n’avez jamais demandé à être leur client. Ils collectent vos données que vous le vouliez ou non. En 2017, ils avaient des dossiers sur environ 820 millions de consommateurs dans le monde, dont 147 millions rien qu’aux États-Unis. C’est comme si une entreprise privée détenait le dossier médical de chaque citoyen, sauf que là, c’est votre vie financière. John Oliver l’a parfaitement résumé pendant son émission : “Nous ne sommes pas les clients d’Equifax. On n’est pas le gars qui achète le bucket de poulet… On est les putains de poulets !

Richard Smith en était le CEO depuis 2005. Un vétéran de General Electric où il avait passé 22 ans, grimpant les échelons jusqu’à devenir Corporate Officer en 1999. Diplômé de Purdue University en 1981, Smith était le parfait exemple du CEO corporate américain : costard impeccable, sourire Colgate et salaire de base de 1,45 million de dollars par an, plus des bonus qui pouvaient tripler ce montant. Sous sa direction, Equifax était devenue une machine à cash, avec des revenus dépassant les 3 milliards de dollars par an et une capitalisation boursière qui était passée de 3 à 20 milliards.

Mais derrière cette façade de réussite, l’infrastructure IT de l’entreprise était un véritable château de cartes…

Richard Smith lors de son témoignage devant le Congrès américain en octobre 2017

Tout commence donc le 7 mars 2017. Ce jour-là, Apache Software Foundation publie un bulletin de sécurité critique estampillé CVE-2017-5638. C’est une vulnérabilité dans Apache Struts, un framework Java utilisé par des milliers d’entreprises pour leurs applications web. La faille est sérieuse car elle permet l’exécution de code à distance via une manipulation du header Content-Type dans les requêtes HTTP. En gros, un hacker peut injecter des commandes OGNL (Object-Graph Navigation Language) et prendre le contrôle total du serveur.

Bref, si vous avez une application vulnérable exposée sur Internet, n’importe qui peut devenir root sur votre machine…

Apache publie alors un patch le jour même. C’est là que les choses deviennent intéressantes car le 8 mars, le Department of Homeland Security envoie une alerte à toutes les grandes entreprises américaines, dont Equifax. “Patchez immédiatement”, dit le message. Le 9 mars, l’équipe sécurité d’Equifax fait suivre l’alerte en interne avec pour instruction de patcher tous les systèmes vulnérables sous 48 heures. Graeme Payne, le Chief Information Officer responsable des plateformes globales, supervise l’opération.

Sauf que voilà, Equifax, c’est une entreprise avec des milliers de serveurs, des centaines d’applications, et une dette technique monumentale. Le portail ACIS (Automated Consumer Interview System) datant des années 1970, et utilisé pour gérer les litiges des consommateurs sur leur crédit, tourne aujourd’hui sur une vieille version d’Apache Struts, et devinez quoi ? Personne ne le patche. Les scans de sécurité lancés le 15 mars ne trouvent rien.

Pourquoi ?

Et bien parce que l’outil de scan n’était pas configuré pour vérifier le portail ACIS. En gros, c’est comme chercher ses clés partout sauf dans la poche où elles sont.

Apache Struts, le framework vulnérable au cœur du hack d’Equifax

Le 10 mars 2017, trois jours après la publication du patch, les premiers hackers frappent. Ce ne sont pas encore les gros poissons, juste des opportunistes qui scannent Internet avec des outils automatisés. Des kits d’exploitation de CVE-2017-5638 circulent déjà sur le dark web, et Metasploit a même sorti un module le 7 mars à 6h21 UTC. Les premiers intrus trouvent alors le portail ACIS d’Equifax grand ouvert.

Les logs montreront plus tard que ces premiers hackers étaient probablement des amateurs. Ils se baladent un peu dans le système, réalisent qu’ils sont chez Equifax, mais ne vont pas plus loin. Pourquoi ? Probablement parce qu’ils ne réalisent pas la mine d’or sur laquelle ils sont tombés. Ou peut-être qu’ils ont eu peur. Toujours est-il qu’ils font ce que font tous les petits hackers quand ils trouvent un gros poisson : ils vendent l’accès.

C’est là qu’entrent en scène nos véritables protagonistes : l’unité 54th Research Institute de l’Armée Populaire de Libération chinoise. Wu Zhiyong, Wang Qian, Xu Ke et Liu Lei. Quatre officiers de l’armée chinoise spécialisés dans le cyber-espionnage économique. Ces types, c’est pas des script kiddies qui utilisent des outils trouvés sur GitHub. Non, ils font partie de l’élite cyber de la Chine, formés et financés par l’État pour voler les secrets économiques de l’Occident. Le 54th Research Institute, c’est le cousin moins connu mais tout aussi dangereux de la fameuse Unit 61398 (APT1) basée à Shanghai dont je vous parlais il y a quelques jours.

Les hackers chinois commencent leur travail mi-mai. Ils sont méthodiques, patients. D’abord, ils installent 30 web shells, des portes dérobées qui leur permettent de revenir quand ils veulent. Puis ils commencent à explorer le réseau. Et c’est là qu’ils tombent sur le jackpot, un truc tellement énorme qu’ils ont dû se pincer pour y croire.

Dans un répertoire non protégé, ils trouvent un fichier texte. Un simple fichier texte contenant… les identifiants et mots de passe de dizaines de serveurs. En clair. Pas chiffrés. Juste là, comme ça…

Parmi ces identifiants, plusieurs utilisent la combinaison sophistiquée “admin/admin”. Oui, vous avez bien lu. Une entreprise qui gère les données financières de 147 millions d’Américains utilisait “admin” comme nom d’utilisateur et “admin” comme mot de passe. C’est le genre de truc qu’on voit dans les films où on se dit “c’est trop gros, personne n’est aussi con”. Eh bien si.

Mais attendez, ça devient encore mieux.

Susan Mauldin, la Chief Security Officer d’Equifax à l’époque n’a aucun background en sécurité informatique. Elle a juste un Bachelor et un Master en… composition musicale de l’Université de Géorgie. Oui, la personne responsable de la sécurité des données de 147 millions d’Américains avait fait des études de musique. Certes, elle avait travaillé chez HP, SunTrust Banks et First Data avant d’arriver chez Equifax en 2013, mais son profil LinkedIn (qu’elle a rapidement rendu privé après le hack en changeant son nom en “Susan M.”) ne mentionnait aucune formation en sécurité. Dans une interview supprimée depuis, elle avait déclaré : “On peut apprendre la sécurité”.

Visiblement, pas assez bien…

Avec ces identifiants “admin/admin”, les hackers peuvent maintenant se balader dans le réseau d’Equifax comme chez eux. Ils accèdent à trois bases de données ACIS, puis à 48 autres bases de données. Au total, ils vont exécuter plus de 9 000 requêtes SQL sur une période de 76 jours. Plus de deux mois durant lesquels nos quatre militaires chinois pillent les données les plus sensibles de la moitié de la population américaine, et personne ne s’en aperçoit.

Mais comment c’est possible ? Comment une entreprise de cette taille peut-elle ne pas voir que des téraoctets de données sortent de ses serveurs ? Et bien la réponse tient en deux mots : certificat expiré.

Equifax avait bien des outils de monitoring réseau. Des trucs sophistiqués qui analysent le trafic, détectent les anomalies, sonnent l’alarme quand quelque chose cloche. Sauf que ces outils ont besoin de déchiffrer le trafic SSL pour voir ce qui se passe. Et pour ça, il leur faut un certificat SSL valide. Sauf que le certificat d’Equifax avait expiré… 10 mois plus tôt. Personne ne l’avait renouvelé, du coup, tout le trafic chiffré passait sans être inspecté. Les hackers pouvaient donc exfiltrer des gigaoctets de données chaque jour, et c’était invisible pour les systèmes de sécurité.

Dommage…

Et les hackers sont malins. Ils ne veulent pas se faire repérer, alors ils procèdent méthodiquement. Ils compressent les données en petits paquets de 10 MB. Ils utilisent 34 serveurs relais dans 20 pays différents pour masquer leur origine. Ils effacent les logs au fur et à mesure. C’est du travail de pro, le genre d’opération que seul un État peut financer et organiser.

Entre mai et juillet 2017, ils aspirent tout : 145,5 millions de numéros de sécurité sociale, 147 millions de noms et dates de naissance, 99 millions d’adresses, 209 000 numéros de cartes de crédit avec leurs dates d’expiration, 182 000 documents personnels contenant des informations sur les litiges de crédit. Sans oublier les permis de conduire de 10,9 millions d’Américains et les données de 15,2 millions de Britanniques et 19 000 Canadiens. C’est le casse du siècle, version numérique.

Pendant ce temps, la vie continue chez Equifax. Richard Smith touche son bonus de 3 millions de dollars pour l’année 2016. Susan Mauldin, la Chief Musician Security Officer, gère la sécurité de l’entreprise tranquillou. Les affaires tournent, l’action monte. Tout va bien dans le meilleur des mondes. C’est déjà le troisième incident de sécurité majeur depuis 2015, mais bon, qui compte ?

L’action Equifax continuait de grimper pendant que les hackers pillaient les données

Puis le 29 juillet 2017, un samedi, un administrateur système décide enfin de renouveler ce fameux certificat SSL expiré. Probablement un stagiaire qui s’ennuyait ou un admin consciencieux qui faisait du ménage. Dès que le nouveau certificat est installé, les outils de monitoring se remettent à fonctionner, et là, c’est la panique ! Le système détecte immédiatement du trafic suspect vers la Chine avec des gigaoctets de données qui sortent du réseau.

L’équipe sécurité est alors appelée en urgence. Ils coupent l’accès au portail ACIS, analysent les logs (ceux qui n’ont pas été effacés), et commencent à réaliser l’ampleur du désastre. Le 30 juillet, ils appellent Mandiant, la Rolls-Royce des entreprises de sécurité informatique rachetée par FireEye, spécialisée dans les incidents de ce type et qui avait déjà enquêté sur les attaques de l’Unit 61398.

Et le 31 juillet, Graeme Payne informe Richard Smith de la situation. Le CEO comprend immédiatement que c’est une catastrophe. Smith dira plus tard au Congrès : “J’étais ultimement responsable de ce qui s’est passé sous ma surveillance.” Mais au lieu d’informer immédiatement le public, la direction décide d’abord de… “gérer la situation en interne”.

Et c’est là que l’histoire devient vraiment sale. Le 1er et 2 août, alors que seule une poignée de dirigeants connaît l’ampleur de la fuite, trois executives d’Equifax vendent pour 1,8 million de dollars d’actions. Le CFO John Gamble vend pour 946 000$, le président de l’unité US Information Solutions Joseph Loughran pour 584 000$, et le président de Workforce Solutions Rodolfo Ploder pour 250 000$. Pure coïncidence, bien sûr.

Plus tard, une enquête interne conclura qu’ils n’étaient pas au courant de la fuite au moment de la vente. Smith témoignera devant le Congrès : “Nous avons notifié le FBI et engagé un cabinet d’avocats le 2 août. À ce moment-là, nous ne voyions qu’une activité suspecte. Les trois individus ont vendu leurs actions les 1er et 2 août. Nous n’avions aucune indication de brèche de sécurité à ce moment.” Permettez-moi d’être sceptique car c’est une sacrée coïncidence de vendre ses actions juste avant l’annonce d’une catastrophe qui va faire chuter le cours de 35%.

Pendant ce temps, Mandiant mène son enquête. Leurs experts reconstituent le puzzle, identifient la vulnérabilité Apache Struts, découvrent les fichiers de mots de passe en clair, tracent les connexions vers la Chine via les 34 serveurs relais. Le rapport est accablant : négligence à tous les niveaux, absence de segmentation réseau, données sensibles non chiffrées, monitoring défaillant, 120 millions de numéros de sécurité sociale stockés en clair, données de cartes de crédit dans des fichiers Excel sans protection. C’est un manuel de ce qu’il ne faut pas faire en sécurité informatique.

Le 7 septembre 2017, six semaines après la découverte, Equifax annonce enfin publiquement la faille. Le communiqué est un chef-d’œuvre de langue de bois corporate : “Equifax a subi un incident de cybersécurité potentiellement impactant environ 143 millions de consommateurs américains.” Potentiellement ? 143 millions, c’est 44% de la population des États-Unis !

La réaction est immédiate et brutale. L’action chute en bourse de 13% en quelques heures, passant de 142$ à 92$ en quelques jours. Les médias s’emparent de l’affaire et John Oliver dédie un segment entier de “Last Week Tonight” au désastre, expliquant que si ça n’était pas arrivé pendant une période où chaque jour les gros titres étaient “Tout Part en Couilles Encore Aujourd’hui”, le hack d’Equifax aurait été LA nouvelle du mois. Les politiciens demandent des comptes et plus de 52 000 plaintes sont déposées. Les class actions pleuvent.

Et les 147 millions de victimes ? Elles découvrent qu’elles sont peut-être victimes d’un vol d’identité sans avoir jamais entendu parler d’Equifax.

Mais attendez, ça devient encore pire car Equifax met en place un site web pour que les gens puissent vérifier s’ils sont affectés : equifaxsecurity2017.com. Sauf que le site est tellement mal fait que les experts en sécurité pensent que c’est un site de phishing ! Brian Krebs, expert renommé en sécurité, qualifie la réponse d’Equifax de “dumpster fire” (feu de poubelle)et un développeur, Nick Sweening, achète même le domaine securityequifax2017.com pour démontrer à quel point c’est facile de créer un site de phishing crédible.

Et vous voulez savoir le plus drôle ?

Le compte Twitter officiel d’Equifax tweetera huit fois le lien vers le FAUX site !

En plus, les termes et conditions du site incluent une clause d’arbitrage qui stipule que si vous utilisez le site pour vérifier si vous êtes affecté, vous renoncez à votre droit de poursuivre Equifax en justice ! La grogne est telle qu’ils doivent retirer cette clause après quelques jours. Sans compter que le site retourne des résultats apparemment aléatoires. Par exemple, des journalistes testent avec des fausses données et obtiennent quand même des réponses.

Le 15 septembre, à peine une semaine après l’annonce publique, Susan Mauldin, la CSO, “prend sa retraite”. David Webb, le CIO, fait de même. Et leurs profils LinkedIn disparaissent comme par magie. Même leurs interviews sont retirées d’Internet. Equifax utilise d’ailleurs le mot “retraite” plutôt que “licenciement”, ce qui signifie qu’ils partent probablement avec de confortables indemnités.

Et le 26 septembre, c’est au tour de Richard Smith. Le CEO “prend sa retraite” lui aussi, mais contrairement à ses subordonnés, on connaît exactement ce qu’il emporte : 90 millions de dollars. Oui, vous avez bien lu. 90 millions. 72 millions pour 2017 (salaire + stocks + options), plus 18,4 millions de retraite. Pendant que 147 millions d’Américains vont devoir surveiller le montant de leurs crédits pour le reste de leur vie, lui part avec l’équivalent de 61 cents par victime.

Techniquement, il ne touche pas de prime de départ puisqu’il “démissionne”. Mais il garde toutes ses stock-options et ses droits à la retraite. C’est beau, le capitalisme américain, quand même non ?

Richard Smith est parti avec un parachute doré de 90 millions de dollars

Pendant ce temps, Graeme Payne, le CIO qui avait supervisé les scans de sécurité ratés, se fait virer le 2 octobre. Pas de retraite dorée pour lui. Il est désigné comme bouc émissaire pour ne pas avoir fait suivre un email sur la vulnérabilité Apache Struts. Dans son témoignage au Congrès, il dira : “Dire qu’un vice-président senior devrait faire suivre chaque alerte de sécurité à des équipes trois ou quatre niveaux en dessous… ça n’a aucun sens. Si c’est le processus sur lequel l’entreprise doit compter, alors c’est ça le problème.

L’enquête du Congrès est un spectacle en soi. Le 4 octobre 2017, pendant que Smith témoigne devant le Senate Banking Committee, une activiste nommée Amanda Werner, déguisée en Rich Uncle Pennybags (le Monopoly Man), s’assoit juste derrière lui.

Pendant toute l’audition, elle essuie son front avec des faux billets de 100$, ajuste son monocle et twirle sa moustache. Les images deviennent virales instantanément. Werner expliquera plus tard : “Je suis habillée en Monopoly Man pour attirer l’attention sur l’utilisation par Equifax et Wells Fargo de l’arbitrage forcé comme carte ‘sortie de prison gratuite’ pour leurs méfaits massifs.

Amanda Werner déguisée en Monopoly Man trollant l’audition au Sénat

Le témoignage de Smith devant le Congrès révèle l’ampleur de l’incompétence. Les sénateurs, notamment Elizabeth Warren, le grillent sur le timing suspect des ventes d’actions et les failles de sécurité. Warren est particulièrement féroce, demandant pourquoi Equifax a obtenu un contrat de sécurité avec l’IRS après le hack.

Le rapport du Government Accountability Office qui s’en suivra est cinglant : “Equifax n’a pas segmenté ses bases de données pour limiter l’accès, n’a pas chiffré les données sensibles, et n’a pas maintenu à jour ses certificats de sécurité.” En gros, ils ont fait absolument tout ce qu’il ne fallait pas faire. Le rapport révèle aussi que le système ACIS datait littéralement des années 1970 et n’avait jamais été vraiment modernisé.

Mais le plus fou dans tout ça, c’est que malgré l’ampleur du désastre, les conséquences pour Equifax ont été… limitées. En juillet 2019, ils acceptent un accord avec la FTC de 575 millions de dollars, extensibles à 700 millions. Ça paraît énorme, mais divisé par 147 millions de victimes, ça fait moins de 4 dollars par personne.

Les victimes peuvent réclamer jusqu’à 125$ en cash, ou 10 ans de monitoring de crédit gratuit. Mais y’a un hic que personne n’a vu venir… le fond prévu pour les paiements n’est que de 31 millions. Avec 147 millions de victimes potentielles, si seulement 248 000 personnes demandent les 125$, le fond est vide. Au final, 4,5 millions de personnes réclament le cash. Alors la plupart des gens qui demandent cet argent cash reçoivent… 7 dollars. Pas 21 cents comme initialement calculé par les pessimistes, mais pas 125$ non plus. Sept malheureux dollars pour avoir eu toute leur vie financière exposée.

Pendant ce temps, Equifax se porte bien. Leur action, qui était tombée à 92$ après le hack, est remontée à plus de 240$ en 2025. Ils ont même eu le culot d’essayer de vendre des services de protection d’identité TrustedID Premier aux victimes. “Vos données ont été volées à cause de notre négligence, mais pour 19,99$ par mois, on peut surveiller si quelqu’un les utilise !” Le cynisme à l’état pur. Sans compter que les termes d’utilisation de TrustedID incluaient initialement une clause d’arbitrage forcé où en vous inscrivant, vous renonciez à votre droit de les poursuivre.

Et les hackers chinois ?

En février 2020, le département de Justice inculpe officiellement Wu Zhiyong, Wang Qian, Xu Ke et Liu Lei. Les charges sont fraude informatique, espionnage économique, fraude électronique. Le grand jury d’Atlanta retient neuf chefs d’accusation contre eux mais c’est symbolique car comme vous le savez, ils sont en Chine, intouchables. Ils ne seront jamais extradés ni jugés et cela même si le FBI a bien mis leurs photos sur son site “Wanted”, avec une récompense pour toute information… Mais tout le monde sait que c’est du théâtre.

L’ironie, c’est que malgré le vol de 147 millions d’identités, y’a eu étonnamment peu de cas de fraude directement liés au hack Equifax. Une étude de Carnegie Mellon University l’a même confirmé.

Pourquoi ? Et bien parce que les hackers étaient des espions du 54th Research Institute, et pas des criminels de droit commun. Leur but n’était donc pas de vendre les données sur le dark web ou de vider des comptes bancaires. C’était de l’espionnage d’État, probablement pour identifier des cibles potentielles pour le recrutement, des agents à retourner, ou simplement pour constituer une base de données géante sur la population américaine pour de futures opérations.

Mais ça ne rend pas la situation moins grave, au contraire car quelque part en Chine, y’a une base de données avec les informations personnelles et financières de la moitié de la population américaine. Et ces données ne périment pas… Dans 10, 20, 30 ans, elles seront toujours utilisables puisque les numéros de sécurité sociale ne changent pas. C’est donc une épée de Damoclès permanente au-dessus de la tête de 147 millions de personnes.

Ce hack a eu pour effet d’accélérer l’adoption de lois sur la protection des données. Le CCPA (California Consumer Privacy Act) et d’autres réglementations similaires sont en partie une réponse au hack d’Equifax. L’idée que des entreprises puissent collecter et stocker des données sensibles sans le consentement explicite des consommateurs et sans protection adéquate est devenue inacceptable. Smith lui-même a suggéré dans son témoignage de remplacer les numéros de sécurité sociale par un système plus sécurisé, proposant un “partenariat public-privé pour évaluer comment mieux protéger les données des Américains”.

Mais fondamentalement, le modèle n’a pas changé. Equifax, Experian et TransUnion continuent de collecter les données des américains sans leur permission. Elles continuent de les vendre à qui veut payer. Et elles continuent d’être des cibles de choix pour les hackers du monde entier. D’ailleurs, hasard de la publication, TransUnion vient en 2025 d’être victime d’un hack, exposant les numéros de sécu de 4,4 millions d’américains. L’histoire se répète…

Bref, ce hack d’Equifax, c’est l’histoire de la faillite d’un système. Un système où des entreprises privées ont un pouvoir démesuré sur des vies, sans avoir de comptes à rendre. Un système où la négligence criminelle est punie par une tape sur les doigts et un golden parachute de plusieurs millions de dollars. Un système où les victimes sont laissées à leur compte pendant que les responsables s’en tirent….

Mais c’est aussi une leçon sur le danger de la dette technique accumulée depuis les années 1970. Sur la nécessité de régulations strictes pour protéger les données personnelles. Et surtout, sur le fait qu’aucune entreprise n’est “too big to fail” quand il s’agit de cybersécurité. Si vous pouvez être hacké avec “admin/admin”, vous méritez presque de couler, d’ailleurs…

Aujourd’hui, en 2025, Equifax a un nouveau CEO, Mark Begor, un nouveau CISO (un vrai cette fois), Jamil Farshchi, ancien de Visa et Time Warner, et des procédures de sécurité renforcées.

Quoiqu’il en soit, dans le monde de la collecte de données, nous ne sommes pas des clients. Nous sommes le produit. Et quand le produit est volé, c’est encore nous qui en payons encore le prix.

Et c’est ça, le vrai scandale.

Sources : Rapport officiel du Congrès américain sur le breach Equifax (2018) , Inculpation du Department of Justice contre les hackers chinois (2020) , Rapport du Government Accountability Office , Témoignage de Richard Smith devant le Congrès (2017) , Analyse technique de la vulnérabilité Apache Struts CVE-2017-5638 , Settlement FTC-Equifax (2019) , Rapport Mandiant sur l’investigation forensique , Timeline détaillée du breach - CSO Online , John Oliver sur Last Week Tonight , Interview d’Amanda Werner, le “Monopoly Man”

Smile Like Zuck - Le jeu web absurde qui vous apprend à sourire comme Mark Zuckerberg

Imaginez-vous devant votre webcam, en train de contracter méthodiquement vos zygomatiques pour essayer de reproduire le sourire le plus mécanique de l’histoire de la tech. Bienvenue sur SmileLikeZuck.com , probablement l’utilisation la plus absurde de la reconnaissance faciale que j’ai vue cette année.

Le concept est simple : vous activez votre webcam, le site vous montre une photo de Zuckerberg avec son fameux sourire robotique, et vous devez reproduire exactement la même expression faciale. Plus votre mimique se rapproche de celle du patron de Meta, plus votre score augmente. C’est débile, c’est addictif, et c’est exactement le genre de projet que j’adore !

Lidée de ce site serait née au Recurse Center, un endroit à New York décrit comme un endroit de “retraite” pour les développeurs. Le concepteur de ce projet voulait au départ créer un jeu plus générique où on imiterait n’importe quelle grimace, mais ça manquait de direction artistique…

Techniquement, tout repose sur MediaPipe de Google, une bibliothèque qui permet de faire du tracking facial directement dans le navigateur. Le développeur avoue que faire fonctionner MediaPipe avec React peut être un peu galère, mais le résultat vaut le coup. L’application analyse en temps réel les points clés de votre visage et les compare avec ceux de Zuckerberg sur la photo de référence.

Les expressions faciales de Zuckerberg et les votres sont alors analysées à partir des unités d’action faciale AU 6 (muscle qui relève les joues) et AU 12 (muscle qui tire les coins de la bouche). SmileLikeZuck transforme donc cette analyse scientifique en jeu absurde.

Alors, prêts à entraîner vos muscles faciaux pour atteindre le niveau de robotisation du sourire de Zuck ? Attention, c’est plus difficile qu’il n’y paraît.

Direction smilelikezuck.com pour tenter l’expérience et n’oubliez pas de cliquer sur Zuck+ à la fin, ça vous fera un petit bonus marrant quand vous relancerez une session.

Merci à Lilian pour cette découverte !

NetPeek - Un scanner réseau sous Linux facile à utiliser

Hier soir, je suis tombé sur NetPeek et franchement, ça m’a fait plaisir de voir qu’enfin quelqu’un s’attaque au problème de la complexité de nmap pour les utilisateurs normaux.

NetPeek, c’est donc cette nouvelle application qui vient d’arriver sur Flathub et qui promet de simplifier drastiquement le scanning réseau sous Linux. Développée par ZingyTomato avec Python et GTK4/libadwaita, l’app adopte le design moderne de GNOME pour offrir une alternative graphique aux outils en ligne de commande comme nmap.

La première chose qui frappe quand on lance NetPeek, c’est donc sa simplicité. L’interface est épurée, moderne, et on comprend tout de suite ce qu’on doit faire. Vous saisissez votre plage d’adresses IP (notation CIDR, ranges ou adresses simples), vous cliquez sur “Scanner” et hop, l’application se met au travail.

Ce qui rend NetPeek particulièrement efficace également, c’est son système “multithreadé” qui accélère considérablement les scans. L’app détecte ainsi automatiquement votre plage IP locale, ce qui évite de se prendre la tête avec les configurations et une fois le scan terminé, les appareils s’affichent dans l’ordre croissant avec leurs ports ouverts. Ensuite, vous pouvez copier les adresses IP d’un simple clic.

L’outil s’appuie sur des bibliothèques Python classiques telles que socket pour les opérations réseau, ipaddress pour la validation des IP, threading pour le scan concurrent et ping3 pour tester la disponibilité des hôtes.

Et ce qui me plaît avec NetPeek, c’est qu’il ne cherche pas à rivaliser avec les mastodontes comme nmap ou Zenmap. Non, son objectif est clair, à savoir répondre à la question “Quels sont les appareils actifs sur mon réseau et quels ports sont ouverts ?” sans avoir besoin d’un doctorat en administration réseau. D’une certaine manière, ça me fait penser un peu à Angry IP Scanner

L’installation se fait principalement via Flathub avec la commande

flatpak install flathub io.github.zingytomato.netpeek

Mais les utilisateurs d’Arch Linux peuvent aussi passer par les packages AUR netpeek ou netpeek-git.

L’app s’intègre notamment parfaitement dans l’environnement GNOME moderne avec son interface libadwaita qui respecte les thèmes système. Voilà, si ça vous chauffe, vous pouvez télécharger NetPeek directement depuis Flathub ou consulter le code source sur GitHub .

Ça devrait bien vous aider pour surveiller votre réseau domestique, diagnostiquer des problèmes de connectivité ou simplement découvrir tous les appareils connectés chez vous.

Source

Microsoft dit que Windows ne transforme pas vos SSD en gruyère (oups !)

Bon, alors voilà. Il faut que je vous parle d’un truc un peu gênant. Vous vous souvenez de mon article bien trollesque sur Windows qui transformait vos SSD en gruyère de Schrödinger ? Bah il semblerait que j’aie un peu… comment dire… trollé trop fort sur ce coup-là.

Hé oui car Microsoft vient de sortir un démenti officiel dans lequel ils déclarent qu’après investigation, ils n’ont trouvé “aucune connexion entre la mise à jour de sécurité Windows d’août 2025 et les types de pannes de disques durs rapportés sur les réseaux sociaux.

Oups.

Donc voilà ce qui s’est passé… des utilisateurs, principalement japonais, avaient signalé que leurs SSD disparaissaient mystérieusement après avoir installé la mise à jour KB5063878. Sur le papier, ça semblait crédible puisqu’il y avait des témoignages précis, des modèles de SSD identifiés (Western Digital SA510, Corsair Force MP600), des contrôleurs spécifiques mentionnés (Phison, Maxio). Même Phison avait réagi en reconnaissant des “effets à l’échelle industrielle”.

Mais Microsoft, de son côté, a fait ses propres tests avec ses partenaires fabricants de stockage et résultat, leur télémétrie interne n’a montré aucune augmentation des pannes de disque. Et leurs tests en labo n’ont rien révélé non plus de probant.

L’histoire avait commencé avec un utilisateur Twitter @Necoru_cat qui avait signalé le problème, repris ensuite par les médias japonais puis internationaux. Toutefois, malgré le communiqué de Microsoft, Phison continue de dire qu’ils “travaillent avec Microsoft pour résoudre le problème”. Donc soit ils sont très diplomatiques, soit il y a encore des zones grises… mais bon, face au démenti catégorique de Microsoft avec tests à l’appui, je dois reconnaître que mon article bien trolling était basé sur des informations incomplètes au moment où je l’ai rédigé.

Bref, tout ça pour vous dire que je fais mon mea culpa. J’ai relayé pour l’amour du lol, une info qui semblait solide mais qui finalement s’est révélée inexacte. Ça arrive, même aux meilleurs (dont je fais sans aucun doute partie ^^). Notez que Microsoft a demandé aux utilisateurs qui pensent avoir été affectés de leur faire des retours pour creuser davantage, mais leur position officielle reste claire : Il n’y a pas de lien établi entre KB5063878 et les pannes SSD.

Source

Super Mario 64 - Le jeu qui gaspillait la mémoire de la N64

Ce matin, j’ai lu un truc qui m’a fait tilter. Vous saviez que Super Mario 64, ce chef-d’œuvre absolu qui a changé le jeu vidéo à tout jamais, était en fait un gouffre à mémoire sur Nintendo 64 ? C’est un programmeur nommé Kaze Emanuar s’est amusé à disséquer le code source et les résultats de son analyse sont plutôt… surprenants.

Pour comprendre l’ampleur du problème, il faut se replacer dans le contexte. La N64 avait 4 Mo de RDRAM rapide. Pour vous donner une idée, c’est à peine la taille d’une photo prise avec votre smartphone aujourd’hui. Et dans ces 4 Mo, il fallait caser les textures, le code, la musique, les buffers de sortie et les états des acteurs. Autant dire que chaque octet comptait.

Et pourtant, Mario 64 dilapidait cette précieuse mémoire comme s’il n’y avait pas de lendemain. Le jeu semble en effet avoir été livré dans une version debug avec “du code inutile partout”.

Le système audio à lui seul bouffe 512 Ko. Mais le plus dingue, c’est qu’au lieu de réutiliser intelligemment les buffers, le jeu alloue 4 buffers d’échantillons par note alors qu’un seul suffirait. Du coup c’est 51 Ko de RAM qui partent en fumée, soit l’équivalent de 17 textures. Ouch.

Les fonctions mathématiques ne sont pas en reste non plus. Les tables de sinus et cosinus auraient pu être divisées par quatre grâce à la symétrie circulaire, économisant 12 Ko supplémentaires. C’est assez pour 4 nouvelles textures de plus et un léger gain de performances.

Mais le plus gros gâchis se trouve sans doute dans la gestion des objets. Chaque acteur, même les plus simples, se voit allouer 608 octets peu importe sa complexité. Une allocation uniforme complètement inutile qui fait mal au cœur de tout développeur qui se respecte. Et je ne parle même pas du chargement des assets ! Le jeu charge des banks mémoire complètes incluant des objets totalement non pertinents comme des algues ou des mines aquatiques, alors qu’un seul élément est nécessaire.

Le build NTSC de Mario 64 n’utilisait même pas les optimisations du compilateur. Comme si Nintendo avait oublié d’activer le mode “optimisé” avant de lancer les cartouches en production. Mais bon, avant de taper sur l’équipe de développement, remettons les choses en perspective. On parle de 7 programmeurs qui avaient seulement 20 mois pour créer un jeu incroyable sur une console dont le hardware et les outils de développement étaient encore en cours de finalisation. Dans ce contexte, avoir 4 Mo de RAM rapide, c’était le luxe absolu et l’optimisation pouvait attendre.

Les travaux récents de programmeurs comme Kaze Emanuar montrent donc qu’avec les techniques modernes, on peut obtenir des performances 6 fois meilleures en utilisant le N64 Expansion Pack, qui est quelque chose que l’équipe originale n’avait pas.

La preuve que les développeurs ont appris de leurs erreurs c’est The Legend of Zelda: Ocarina of Time, sorti plus tard, qui était infiniment plus optimisé. Les leçons avaient été tirées et les outils s’étaient améliorés.

Au final, Mario 64 reste un monument du jeu vidéo malgré ses défauts techniques. Et franchement, quand on voit le résultat final, on se dit que quelques Mo gaspillés, ça valait largement le coup pour un jeu qui a changé l’industrie.

Source

❌